中国・シンガポール人工知能フロンティアとガバナンスセミナーで、なぜ中国とシンガポールの学者がAIに冷や水を浴びせたのか?
著者:Eve Cole
更新時間:2024-11-15 12:24:01
人工知能の概念が 1956 年に初めて提案されて以来、AI は計算知能と知覚知能に基づく認知知能に向けてさらに発展してきました。近年、ChatGPTやsoraの登場により、AIの開発は急速に進んでいます。しかし、本日(10月28日)、中国工程院とシンガポール工程院が主催し、同済大学が主催した中国・シンガポール人工知能フロンティアとガバナンスセミナーでは、多くの学者が「AI熱」に冷や水を浴びせた。 「ネットワークに内在するセキュリティの問題は、今日のデジタル エコシステムの根底にある推進パラダイムに包括的に挑戦している。中国工程院の学者で復丹大学の教授でもあるウー・ジャンシン氏は、セキュリティ システム自体にも、自宅や老人ホームを警備するネットワーク警備員は、現在、「抜け穴はありますか?」「バックドア/トラップドアはありますか?」「セキュリティ オーバーレイに複数の問題がありますか?」という 3 つの主要な質問に答えることができます。彼は、現在の AI アプリケーション システムにはセキュリティ上の責任とリスクの間に深刻な不均衡があると真剣に指摘しました。販売業者は自社の製品にセキュリティ上の脆弱性やバックドアがないことを保証できず、検査機関も検査に提出された製品に脆弱性やバックドアがないことを保証できません。これはAI時代のすべての国にとって避けられない悪夢となっています。会議では、多くの専門家が、一見強力な人工知能や大型モデルにも、消費、安全、倫理の面で欠点があると分析した。人工知能の開発はまだ途上にあり、開発の余地はまだたくさんあります。中国とシンガポールの学者は協力を強化し、AIをより省エネ、安全、そして高徳なものに導くために協力すべきである。一見強力な人工知能には、実は隠れた危険がいっぱい ネットワークセキュリティのリスクに関して言えば、今年7月に起きたマイクロソフトのブルースクリーン事件には多くの人が特に衝撃を受けた。 7 月 19 日、世界中の多くの国のユーザーが会社のコンピューターにブルー スクリーンが発生していることを発見し、「デバイスに問題が発生したため、再起動する必要があります。その後、ブルー スクリーンの問題はソフトウェアの更新に関連していることが確認されました。」ウー・ジャンシン氏の見解では、これはネットワーク セキュリティ「ボディーガード」が人間の背中を刺す典型的な事例である 「人工知能とセキュリティの問題は密接に関係しており、セキュリティは人工知能によってもたらされる遺伝的欠陥である。」現代のコンピュータアーキテクチャでは、AI 動作環境のセキュリティ問題に注意を払う必要があります。 」この点に関して、同済大学の学長であり中国工程院の会員でもある鄭清華氏も同様の見解を持っています。鄭清華
氏は例を挙げました。最初のパフォーマンスは、データと計算能力の過剰な消費です。 「人間が鉱物資源からレアメタルを採掘するのと同じように、インターネット上のオープンソースデータから採掘する貴重な情報もいつかは限界に達し、2番目の固有の欠陥が示すようになります。」壊滅的な物忘れと現場の牽引力の弱さ。鄭清華氏は、大規模なモデルは新しいものを好み、古いものを嫌い、多くの場合、A に適応するのは難しいが、B に適応するのは難しいと説明しました。両者のバランス。 3つ目は、推理力が弱いことです。大規模モデルでは自己回帰トレーニング アルゴリズムが使用されているため、人間が構築した因果推論に基づく論理推論能力を形成することができません。自己回帰生成手法は、バックトラッキングや試行錯誤を必要とする複雑な推論タスクに対処することも難しく、多くの場合、大規模なモデルがタスクを解決するために間違った情報を学習するという現象が発生します。この現象は「賢いハンス効果」と呼ばれます。 4 番目の固有の欠陥は、大規模なモデルは、どこで間違ったのか、なぜ間違ったのかが分からず、ましてや、それが分かっても修正できないことです。鄭清華氏は、こうした固有の欠陥が大型モデルの幻覚や制御性の悪さなどの問題を引き起こしていると率直に語った。 「特に、何が起こっているのか、なぜそうなのかを知る必要があるエンジニアリング用途やその他のシナリオでは、大規模なモデルは無力であると言えるでしょう。」シンガポール工学アカデミーの学者であり、南洋理工大学の教授であるウェン・ヨンガン氏は、人間社会は次のように考えています。デジタル化と持続可能性の時代の二重変革の時代を迎えています。特にデジタル変革では、多くの活動がオフラインからオンラインに変わり、大量のコンピューティング リソースとサーバーが消費されます。予測によると、2030 年までにシンガポールのデータセンターの電力消費量は社会の総電力消費量の 12% に達するとのことです。さらに憂慮すべきことは、AI の広範な使用により炭素排出量も増加し、環境に壊滅的な影響を与えることです。 AIを正しい方向に走らせるようにAIが目を閉じて走るとき、テクノロジーの開発者である人間はどうやってハンドルを握ることができるのでしょうか?会合では専門家らも長期にわたる研究に基づいた実現可能な提案を行った。呉江光氏は2013年以来、内発的安全保障と模倣防衛理論を生み出してきた。理論的基盤に基づいて、チームは南京の実験室でインテリジェントな運転システムを強化するための内生安全アーキテクチャを構築しました。このシステムには 20 を超えるアプリケーション シナリオと 100 を超える差別化されたアプリケーションがあり、反撃やバックドアの脆弱性などの一般的な AI 問題に関して 90% 以上の包括的な識別成功率を備えています。鄭清華氏は、脳科学における人類のあらゆる進歩には、人工ニューラルネットワークと機械知能の研究への参考、インスピレーション、指針があることが歴史と経験によって証明されていると述べた。 「今日の大規模なモデルは、人間の脳についての最も予備的で単純な参考資料に過ぎません。脳科学、特に人間に特有の記憶の表現、活性化、検索、および記憶の符号化のメカニズムから詳細な参考資料を引き出すことができれば、私たちは現在の大型モデルが直面する問題を解決できると期待されており、「さまざまな固有の欠陥がある」ため、中国は独自の機械知能モデルを持たなければならないと提案した。同済大学は現在、専門分野の境界を広げ、コンピューターサイエンスと脳科学の統合を推進し、人間の脳の記憶と機械の記憶の相関関係を研究し、脳科学の研究に情報科学を利用する新しい方法を模索している。今日の人工知能は、従来の分野の境界を打ち破り、ほぼすべての分野に拡張されています。シンガポール工学アカデミーの学者であり、シンガポール工科大学の教授でもあるGuo Guisheng 氏も、AI-RAN Association の会員です。 AI-RANは「人工知能(AI)-無線アクセスネットワーク(RAN)」を指し、人工知能と無線通信の統合を活性化し、技術革新をリードすることを目的とした業界団体であると理解されています。郭桂生氏は、多数のAI関連プロジェクトや量子コンピューティングプロジェクトが学際的な相互接続を通じて推進されていると紹介した。同氏の見解では、AIが善を行うよう導くには、学界から脱却するだけでなく、世界の知恵と積極的に連携する必要があるという。同氏は、将来的には、中国の大学のより多くの研究室や企業がAIの友人サークルに加わり、パートナーシップを確立することを期待している。記者は、シンガポールが世界的に有名な「人工知能の首都」として、世界で最初に国家人工知能戦略を立ち上げた国の一つであり、人工知能のガバナンスにおいて多くの先駆的な取り組みを行ってきたことを知りました。現場では、鄭清華氏はまた、将来、「誰もが知性を持ち、機械も知性を持ち、それぞれが独自の知恵を持ち、知恵と知恵が共有される」という美しい絵を実現したいのであれば、その分野の専門家が提案した。中国とシンガポールの人工知能は、この世界にさらに貢献するために協力する必要があります。