OpenAI は、ChatGPT の基礎となるモデルを密かに更新し、GPT-4o にアップグレードしました。このアップデートは新モデルのリリースではなく、ユーザーのフィードバックに基づいてユーザーエクスペリエンスを向上させるための改良です。 OpenAI関係者はソーシャルメディアでこのニュースを簡単に発表し、ユーザーがこの新しいバージョンを気に入ってくれるという期待を表明した。公式情報は限られていますが、ユーザーからのフィードバックや OpenAI 内部関係者によって公開された情報から判断すると、このアップデートは主に、より詳細な段階的な推論、より詳細な説明、および画像生成機能の改善に反映されています。
昨日、ChatGPT は、AI ツールが先週新しい GPT-4o モデルの使用を開始したことをソーシャル ネットワーク X 上で控えめな方法で正式に発表しました。 ChatGPT は次のように述べています。「先週から、新しい GPT-4o モデルが ChatGPT に登場しました。皆さんに気に入っていただければ幸いです。まだ体験したことがない方は、ぜひチェックしてみてください。」
X の ChatGPT アプリ アカウントは投稿直後にはさらなる情報を提供しませんでしたが、OpenAI の情報筋は、新しいモデルがユーザーのフィードバックに基づいて更新されたことを明らかにしました。
その後のリリース ノートで OpenAI は、GPT-4o モデルにアップデートを導入し、実験とユーザー フィードバックを通じてユーザーがこの新しいバージョンを好むことが判明したと説明しました。これはまったく新しいモデルではありませんが、モデル内の動作の改善を測定して伝達するためのより良い方法を見つけるために取り組んでいます。
多くのユーザーは、新しいモデルはより詳細な段階的な推論を実行し、より詳細な説明を提供できるようだと感じています。しかし、OpenAIの広報担当者は、モデルの推論プロセスは変わっておらず、ChatGPTは推論を説明する際に主にユーザーからの特定のプロンプトに応答すると述べた。公式発表前から、ChatGPT のパフォーマンスが向上しているように見えることに多くのユーザーが気づいていました。
さらに、ユーザーは、GPT-4o の画像生成機能が ChatGPT でも有効化されたと報告しました。以前の GPT-4 モデルにはすでに画像を生成する機能がありましたが、今回のアップデートにより GPT-4o はより効率的に高品質の画像を生成できるようになりました。新しいモデルはテキストを処理するだけでなく、ピクセルをトークンに変換し、より正確でリアルな画像生成を可能にします。
多くのユーザーがこのアップデートを歓迎したが、一部のユーザーはOpenAIがユーザーエクスペリエンスとモデルの動作の変化をより明確に説明するべきだと主張して批判的だった。一部のユーザーは、このアップデートの変更はそれほど重要ではなく、少し表面的だと感じることさえあります。
ChatGPT と API には GPT-4o の異なるバージョンがあるのかとの質問に対し、OpenAI の広報担当者は、ChatGPT と API には小さな改良が加えられることが多いと述べました。開発者のニーズに基づいて、API の最適なバージョンがリリースされます。
OpenAI は、公式開発者アカウントで、新しいモデルが API でリリースされ、開発者は「chatgpt-4o-latest」を使用して最新の改善点をテストできることを確認しました。今回のアップデートの詳細については、OpenAIチームもユーザーや開発者からの質問に積極的に回答している。
焦点を当てる
新しい GPT-4o モデルはオンラインで、ユーザーのフィードバックに基づいて修正されています。
ユーザーは、モデルのパフォーマンスが向上し、より詳細な段階的な推論を実行できることに気づきました。
新しいモデルは画像生成をサポートし、生成品質と効率が向上しました。
全体として、GPT-4o モデルのアップデートは、OpenAI がユーザー エクスペリエンスと反復的な改善を継続する能力を重視していることを反映しています。このアップデートは革新的な変化をもたらしませんでしたが、細部にわたる最適化によりユーザーの満足度が向上し、その後の大規模なモデルアップグレードの経験が蓄積されました。将来的には、OpenAI は更新情報をより透過的に伝達するための改善を行うことが期待されています。