はじめに
OpenAIは、複雑な多段階タスクを高精度で処理できる新しい推論モデル「o1」の提供を開始しました。現在はAPI利用者のうち、Tier5以上のユーザーが利用可能となっています。
ちなみにTier5の定義は以下のようになっています。
$1,000 paid and 30+ days since first successful payment
Usage tiers より
o1は、これまでにカスタマーサポートの効率化やサプライチェーンの最適化、複雑な金融トレンドの予測などに活用されてきたo1-previewの後継モデルです。
Just a moment...
o1の特徴
o1には、実際のビジネスシーンで活用できる重要な機能が搭載されており、以下機能の実装・改善が図られています。
- 外部データやAPIとシームレスに連携できる「Function calling」機能
- カスタムJSONスキーマに準拠した応答を生成できる「Structured Outputs」機能
- トーンやスタイル、その他の動作指針を指定できる「Developer messages」機能
- 科学、製造、プログラミングなど、視覚的入力が重要な分野での活用を可能にする画像認識機能
- o1-previewと比較して推論トークンを平均60%削減し、レイテンシーを大幅に改善
- 新しい「reasoning_effort」パラメータにより、モデルの思考時間をコントロール可能
パフォーマンスの大幅な向上
今回リリースされたバージョン「o1-2024-12-17」は、2週間前にChatGPTで公開されたモデルの改良版となっています。主な改善点としては下記の通り。
- プログラミング関連のベンチマーク「LiveBench」で76.6%のスコアを達成(o1-previewは52.3%)
- 数学の問題解決能力を測る「AIME 2024」で79.2%のスコアを記録(o1-previewは42.0%)
- 画像認識・理解力を評価する新しいベンチマーク「MMMU」で77.3%のスコアを獲得
また、Function callingやStructured Outputs機能においても、GPT-4を上回るパフォーマンスを示しています。
おわりに
OpenAIは段階的にアクセス権限を拡大し、より多くの利用者がo1を活用できるよう、利用制限の緩和を進めていく予定です。現状Tier5ですからね…。
なお、API利用料については以下にまとめています!
コメント