現在、人工知能技術は急速に発展していますが、その信頼性とセキュリティの問題も注目を集めています。デモントフォード大学のサイバーセキュリティの教授であるEerke Boiten教授は、既存のAIシステムの信頼性に疑問を呈し、重要なアプリケーションで危険にさらされていると信じていました。彼は、ChatGptなどの大規模なニューラルネットワークに基づいた生成AIおよび大規模な言語モデルには、その動作を予測および検証することを困難にする複雑さがあるため、責任感を必要とするアプリケーションでは潜在的にリスクがあると指摘しました。
現在の技術環境では、人工知能(AI)が広範な議論を引き起こしました。モントフォード大学のサイバーセキュリティ教授であるEerke Boitenは、既存のAIシステムには管理と信頼性に基本的な欠点があり、重要なアプリケーションでは使用されるべきではないと述べました。
Boiten教授は、現在のAIシステムのほとんどは、特に生成AIおよび大規模な言語モデル(ChatGPTなど)に依存していると指摘しました。これらのシステムの動作原理は比較的複雑です。
ソフトウェアエンジニアリングの観点から見ると、Boiten教授は、AIシステムが複合性を欠いており、従来のソフトウェアのようにモジュール式開発できないことを強調しました。明確な内部構造がなければ、開発者は複雑さを効果的にセグメント化して管理することはできません。また、段階的な開発や効果的なテストを実施することも困難です。これにより、AIシステムの検証は全体的なテストに限定されます。これは、入力と状態空間が過剰になっているために非常に困難です。
さらに、AIシステムの間違った動作を予測および修正することはしばしば困難です。これは、トレーニング中にエラーが見つかったとしても、再訓練はこれらのエラーが効果的に修正され、新しい問題を導入する可能性があることを保証するものではありません。したがって、ボイテン教授は、責任感を必要とするあらゆるアプリケーションでは、現在のAIシステムを避けるべきだと考えています。
しかし、ボイテン教授は完全に希望を失いませんでした。彼は、現在の生成AIシステムは、シンボリックインテリジェンスと直感的なAIを組み合わせることにより、ボトルネックに到達したかもしれないが、将来より信頼性の高いAIシステムを開発することは依然として可能であると考えています。これらの新しいシステムは、実際のアプリケーションでAIの信頼性を高めるいくつかの明確な知識モデルまたは信頼レベルを生成する可能性があります。
ボイテン教授の見解は、人工知能の信頼性とアプリケーション範囲に関する人々の深い考えを引き起こし、人工知能技術の将来の開発方向のための新しい道を指摘しました。人工知能技術の進歩を追求しながら、アプリケーションで効果的に制御および管理できることを保証し、潜在的なリスクを回避するために、そのセキュリティと信頼性を非常に重要視する必要があります。