ニュース

OpenAI、2倍以上高速の小型AI「GPT-5.4 mini/nano」提供開始

 OpenAIは3月17日、新たな小型AIモデル「GPT-5.4 mini」および「GPT-5.4 nano」を提供開始した。どちらもGPT-5.4の特徴を受け継ぎつつ、高速かつ効率的な動作を実現する。

 GPT-5.4 miniは、GPT-5 miniと比べて2倍以上高速に動作し、コーディングや推論、マルチモーダル理解、ツール使用の性能も大幅に向上した。応答性が求められるコーディングアシスタントや、補助的なタスクをすばやくこなすサブエージェントなど、レイテンシが重視されるワークロード向けのモデル。迅速に応答したり、ツールを確実に使用したり、複雑な専門的タスクを高性能に処理したりできる。

 コーディング性能のベンチマーク(SWE-Bench Pro)では、同程度のレイテンシでGPT-5 miniを上回る性能を発揮し、高速動作ながらGPT-5.4に近い精度を実現。コンピュータ操作に関するベンチマーク(OSWorld-Verified)でも、GPT-5 miniと比べて大幅に性能が向上した。

 ChatGPT、API、Codexで提供しており、ChatGPTでは無料版とGoプランの場合はThinkingモードを選択することで利用でき、それ以外のプランの場合はGPT-5.4 Thinkingのレート制限後に切り替わる。また、APIでのコンテキストウィンドウは40万トークンで、料金は100万入力トークンあたり0.75ドル、100万出力トークンあたり4.5ドル。

SWE-Bench Proのベンチマーク結果(左は精度とレイテンシ、右は精度とコスト)
OSWorld-Verifiedのベンチマーク結果

 GPT-5.4 nanoは、速度とコストを重視するタスク向けの最軽量/最速モデル。こちらも従来のGPT-5 nanoから大きく性能が向上した。分類やデータ抽出、ランキング、比較的単純な補助タスクなどを処理するサブエージェントに好適とする。

 こちらはAPIのみで提供しており、料金は100万入力トークンあたり0.2ドル、100万出力トークンあたり1.25ドル。