OpenAI は最近、汎用人工知能 (AGI) における大規模言語モデルの進捗を追跡するための内部スケールを発表しました。この動きは、AGI 分野における OpenAI の野心を示すだけでなく、業界に AI 開発を測定するための新しい基準を提供します。このスケールでは、AGI の実装を、今日のチャットボットから組織全体の作業を実行できる AI まで 5 つのレベルに分けています。各レベルは、AI 機能の大幅な向上を表しています。 Downcodes の編集者がこれについて詳しく説明し、その重要性と潜在的な影響を分析します。
ブルームバーグによると、OpenAI は汎用人工知能 (AGI) における大規模な言語モデルの進捗を追跡するための内部スケールを作成しました。この動きは、AGI 分野における OpenAI の野心を示すだけでなく、AI 開発を測定するための新しい基準を業界に提供します。
このスケールは 5 つのレベルに分かれています。 1. レベル 1: ChatGPT などの現在のチャットボットはこのレベルに属します。 2. レベル 2: 博士レベルの基本的な問題を解決できるシステム。 OpenAI はこのレベルに近いと主張しています。 3. レベル 3: ユーザーに代わってアクションを実行できる AI エージェント。 4. レベル4:新たなイノベーションを生み出すAI。 5. レベル 5: 組織全体の作業を実行できる AI。AGI の達成に向けた最終ステップと考えられています。
ただし、AGI 実装のスケジュールについては専門家の意見が異なります。 OpenAI CEOのサム・アルトマン氏は2023年10月、AGIの実現はまだ5年先だと述べた。しかし、たとえAGIが実現できたとしても、コンピューティングリソースに数十億ドルの投資が必要となる。
このスコア基準の発表は、生物学研究を支援するために高度な AI モデル (GPT-4 など) を安全に使用する方法を検討するためにロス アラモス国立研究所と協力するという OpenAI の発表と同時に行われることは注目に値します。この協力の目的は、米国政府が将来さまざまな AI モデルをテストするために使用できる一連の安全性およびその他の評価要素を確立することです。
OpenAI はモデルがこれらの内部レベルにどのように割り当てられるかについて詳細を明らかにしませんでしたが、ブルームバーグは、同社のリーダーが最近 GPT-4 AI モデルを使用した研究プロジェクトを実証し、このプロジェクトが人間の推論能力に似たいくつかの新しいスキルを実証したと主張しました。
AGI の進歩を定量化するこの方法は、AI 開発のより厳密な定義を提供し、主観的な解釈を避けるのに役立ちます。ただし、AI の安全性と倫理に関していくつかの懸念も生じます。 OpenAIは5月にセキュリティチームを解散し、一部の元従業員は同社のセキュリティ文化が製品開発を後回しにしていると主張したが、OpenAIはこれを否定した。
OpenAIの動きは、AGI研究に新たな方向性と標準を提供するものだが、同時にセキュリティと倫理に関する懸念も引き起こしている。 AGI の最終的な実現はまだ不確実であり、継続的な注意と注意が必要です。 AI の将来の開発の方向性は、この規模と関連研究に影響を受けるため、引き続き注目に値します。