ニュース

128Kコンテキスト対応の「GPT-4 Turbo」

 OpenAIは6日(米国時間)、128Kコンテキストウィンドウに対応した大規模言語モデル「GPT-4 Turbo」を発表した。現在はAPIの有料プラン登録者向けにプレビュー版を公開している。正式リリースは今後数週間以内の見込み。

 3月に公開した「GPT-4」の次世代モデル。128Kコンテキストウィンドウに対応しており、1つのプロンプトに「300ページ以上」のテキストを入力できる。学習済みデータは2023年4月まで(GPT-4は2021年9月まで)に更新した。

 関数呼び出し(Function calling)では、「車の窓を開けてエアコンをオフにする」といった複数のアクションを一度のメッセージで入力可能になったほか、関数呼び出しの精度も向上したとしている。

 指示内容把握の精度も向上した。具体的には「常にXMLで応答する」などのタスクにおいて、以前のモデルよりも優れた出力が得られるという。また、新たに「JSONモード」をサポートし、構文的に正しいJSONオブジェクトを生成できるようになった。

 実験的なベータ機能としては、出力の再現性確保を図っている。同じリクエストに対して一貫した返答をすることで、デバッグのためのリクエストの再生や、より高度なモデル動作の制御などに役立つとしている。

 なおGPT-4 Turboでは画像を入力してキャプションの生成や画像内容の分析などが行なえる「GPT-4 Turbo with vision」も用意している。

 このほかGPT-3.5 Turboについても更新を行ない、GPT-4 Turboと同様に指示内容の把握精度を向上し、JSONモードや並列関数呼び出しをサポートした。

 API利用料金は、GPT-4 Turboが1,000トークンあたり0.01ドル(入力)/0.03ドル(出力)、GPT-3.5 Turboが1,000トークンあたり0.001ドル(入力)/0.002ドル(出力)。

 GPT-4 Turbo with visionは入力画像の解像度によって価格が変動する。たとえばフルHD(1,980×1,080ドット)の画像を入力した場合は1,105トークン相当で1枚あたり0.01105ドル(約1.66円)となる。