IT House は 11 月 18 日、OpenAI、Google、Anthropic などのトップ AI 研究所が高度な AI モデルの開発で困難に直面しているという最近の噂があると報じました。これらの報告書は、その原因が質の高いトレーニングデータの欠如にあり、収益の減少につながり、継続的な投資が困難になっているとしています。
この点に関して、OpenAI CEO の Sam Altman 氏と Anthropic CEO の Dario Amodei 氏は両方とも異なる意見を表明しました。アルトマン氏は、ソーシャルメディアに「制限はない」と示唆する不可解なメッセージを投稿することで、否定的な報道に反応したようだ。アモデイ氏も同様の見解を共有しており、多くの要因が AI の開発を妨げる可能性があることを認めながらも、合成データの使用など、これらの障害を克服する方法があると楽観的です。
IT House は、元 Google CEO のエリック・シュミット氏もこれらの報道について見解を表明していることに注目しました。彼は、大規模な言語モデルは今後 5 年間で 2 ~ 3 回の反復を経ると考えています。これらのモデルのパフォーマンスは前例のない速度で向上しており、現時点でこの成長傾向が止まりそうであるという証拠はありません。最終的にはボトルネックにぶつかりますが、まだそこには達していません。
シュミット氏は、将来、特に物理学と数学の分野で、より高度で強力な AI モデルが登場すると予測しています。 OpenAIが最近リリースしたStrawberry AIモデルOpenAI-o1を例に説明した。しかし、シュミット氏は、モデルがより高度になるにつれて、潜在的な危険性も増大すると警告した。同氏は、これらの原始的なモデルは人間よりも「ゼロデイ攻撃」を仕掛けるのが得意である可能性があると指摘した。さらに、生物ウイルスや新しいタイプの戦争も、AI の発展によってもたらされる潜在的な脅威となる可能性があります。