北京インテリジェントソースカンファレンスでは、大規模な AI モデルが再び注目を集めました。国内外のAIリーダーやチューリング賞受賞者が多数集まり、今後のAIの開発・監督について熱い議論が交わされました。 OpenAIの創設者であるサム・アルトマン氏、メタのチーフAIサイエンティストであるヤン・ルカン氏、その他の業界リーダーらが意見を表明し、GPTモデルの将来やAIの監視などの側面について激しい議論を巻き起こしている。 Downcodes の編集者が、カンファレンスの素晴らしい瞬間をレビューし、この AI の饗宴の背後にある重要な情報を解釈するためにあなたを連れて行きます。
Chat GPT の人気はまだ衰えておらず、カンファレンスによって大規模な AI モデルへの注目が新たな高みに引き上げられました。
開催されたばかりの北京知源会議には、国内の最先端AIリーダーである張波氏と張紅江氏をはじめ、ジェフリー・ヒントン氏、ヤン・ルクン氏、ヤオ・チージー氏、ジョセフ・シファキス氏を含む4人の著名人を含む多くの伝説的なAI大物が集まった。 Spirit Award 受賞者、Open AI 創設者の Sam Altman、PaLM-E、RoBERTa、その他の AI 企業幹部。
Zhiyuanの各会議は専門的な学術的イデオロギー路線を遵守しているため、国内外の人工知能分野のエリート層の間では非常に高い評価を得ていますが、一般の人々にとっては少し冷たいです。この会議でサム・アルトマン氏は、一般的なAI技術の発展を理解するためには、オープンAIがAI研究の変化を促進する必要があると指摘した。
しかし、この声明には多くのAI業界の大物が反対している。その中で、カリフォルニア大学バークレー校のスチュアート・ラッセル教授は、オープンAIが開発したチャットGPTとGPT-4は質問に「答える」ものではなく、世界を理解しておらず、一般的なAIの開発段階ではないと批判した。 Yang Likun 氏は、現在の GPT 自己回帰モデルには計画能力と推論能力が不足しており、GPT システムは将来的に廃止される可能性があると直接指摘しました。
この会議では、激しい学術的議論に加えて、現在のAIをどのように規制するか、そしてその後のAIの発展の方向性も議論の焦点となっている。
AIは将来どのように規制されるのでしょうか?
2023年以降、生成型AIが圧倒的なスピードで多くの分野を席巻する一方、AIが引き起こすさまざまな問題も外部世界の懸念を強めています。
我が国において、近年「AI詐欺」が社会問題となっています。数日前、内モンゴル自治区包頭市の警察は、福州市の会社の法定代理人である郭氏が10分間で430万元をだまし取られたと、AIを利用した詐欺事件を報告した。報道によると、詐欺師らはAIの変顔技術やオノマトペ技術を利用し、知人になりすまして詐欺を行っていたという。偶然にも、江蘇省常州市在住のシャオ・リウさんは、クラスメートを装った詐欺師に騙されて音声通話とビデオ通話を送信されたが、その「本物の人物」を見て、それを信じてその詐欺師に6000元を「貸し」た。
出典: ドウイン
実は、AI詐欺事件が発生する背景には、現在のAI技術の急速な発展と、技術合成の敷居が下がり続けていることが関係しています。フォローアップの観点から見ると、AI大型モデル技術が進歩を続ければ、将来的には顔合成から全身合成、3D合成技術へと段階的に移行し、合成効果はより現実的になるでしょう。
米国では、AIが選挙に影響を与えるかどうかが地元メディアの議論の焦点となっている。 AP通信によると、今日の高度な生成AIツールは、誰かの音声や画像を数秒で「クローン」し、大量の「偽素材」を作成できるという。強力なソーシャルメディアアルゴリズムに縛られている限り、AIは即座に視聴者をターゲットにしてメッセージを拡散し、前例のない規模とスピードで選挙を破壊することができる。
米国の他のメディアは、来年米国の次期大統領選挙が実施されるため、米国の両党が宣伝や資金集めなどの活動にAI技術を利用する可能性も排除されないと予測している。さらに重要なことは、Chat GPT はテキスト機能において優れたパフォーマンスを備えていることです。その結果、候補者のチームはわずか数秒で美しい言葉遣いのスピーチを作成することができます。
AIに対する外界からのさまざまな懸念を踏まえ、数日前、「AIゴッドファーザー」ジェフリー・ヒントン氏、Anthropic CEOのダリオ・アモダイ氏、Google Deep Mind CEOのデミス・ハサビス氏ら、AI分野の幹部や専門家350人以上が署名した。共同声明では、「AIによってもたらされる絶滅のリスクを軽減することは、伝染病や核戦争などの他の社会規模のリスクと並んで世界的な優先事項となるべきである」と述べられている。
その後のAIをどのように規制するかという問題に関して、サム・アルトマン氏はインテリジェント・ソース・カンファレンスで、現在オープンAIがさまざまな方法でこの問題を解決していると指摘した。まず、Open AI は 5 月 26 日という早い時期に、社会から効果的な AI ガバナンス ソリューションを募るために 100 万米ドルを投資するインセンティブ プログラムを開始しました。
第二に、サム アルトマンは、悪意のあるモデルが何らかの悪事を行っていることを人間は検出できないと考えています。オープン AI は現在、ブレークスルーを達成することを期待して、いくつかの新しい補完的な方向に投資しています。しかし、スケーラブルな監視とは、AI システムを使用して人間が他のシステムの欠陥を発見するのを支援する試みであり、説明能力とは、GPT-4 を使用して GPT-2 ニューロンを説明することです。まだ道のりは長いですが、Open AI はそう信じています。機械学習技術 AIの説明可能性をさらに向上させることができます。同時に、サム アルトマン氏は、将来的には、モデルをよりスマートで便利にすることによってのみ、一般的な AI の目標とする利点をよりよく実現し、AI のリスクを軽減できると考えています。
最後に、Open AI は短期的に GPT-5 バージョンをリリースする予定はありませんが、今後 10 年以内に世界ではより強力な AI システムが登場する可能性があり、世界は事前に準備する必要があります。 Open AI の大規模 AI モデルに関するその後の中核的な作業はまだトレーニング中であり、世界的な AI の価値観と好みを反映し、AI セキュリティ研究をリアルタイムで世界と共有するためのグローバル データベースを構築する準備を進めています。
Open AI 自身の取り組みに加えて、サム アルトマン氏は AI の監視を改善するための世界的な共同の取り組みも呼びかけました。たとえば、サム・アルトマン氏は、AIシステムを調整するという困難を解決するには世界中の最高の頭脳が必要であることを考慮すると、現在中国には世界最高のAI人材がいると指摘した。
したがって、サム・アルトマン氏はまた、中国のAI研究者が将来AIリスクに貢献できることを期待している。テグマーク氏はまた、現在、人工知能の規制において中国が最も多くの取り組みを行っており、次に欧州、最後に米国が続いていると考えている。
画像出典:ウィズダムカンファレンス
また、サム・アルトマン氏も、世界規模のAI監視における協力には困難があるが、これはむしろチャンスであると指摘した。 AI は世界を団結させていますが、将来的には体系的なフレームワークと安全基準を導入する必要もあります。
しかし、現在の世界大国間の競争の激化、複数の地点で地政学的な紛争が勃発していること、生成AIに対する各国政府の姿勢の違いを考慮すると、AI規制に関する国際協力を世界各国で実施することは困難になるだろう。短期的には、生成型 AI 企業の市場ビジネスへの影響。
欧州は常にAI規制の最前線に立っており、5月にはEUが人工知能技術の規制に関する法案可決に近づいていたが、これも世界初の包括的な人工知能法案となることが期待されており、先進国にとっての先例となる可能性がある。 。
欧州委員会のウルズラ・フォン・デア・ライエン委員長は以前、メディアとのインタビューで次のように述べた。「私たちは、人工知能システムがその情報源に関係なく、正確で、信頼性があり、安全で、無差別であることを望んでいます。関連するEUの法律や規制の導入により、オープン化される可能性があります。」その後、AI は EU 市場から撤退することになるため、世界的な規制政策の調整に合わせて生成 AI モデルをどのように継続的に改善していくかは、Open AI 自体が直面する問題だけでなく、業界全体で継続的に取り組む必要がある課題でもあります。に注意してください。
全体として、北京インテリジェントソース会議は、AI 分野における精力的な発展の様子を示し、AI 規制の緊急性と世界協力の重要性も強調しました。将来的にも、AI テクノロジーの開発と監督のバランスをどう取るかについては、依然として世界規模の共同努力が必要です。 Downcodes編集部は今後もAI分野の動向に注目し、より刺激的なレポートをお届けしていきます。