人工知能が認知的正義を達成できるようにする方法
著者:Eve Cole
更新時間:2024-11-22 17:54:01
近年、人工知能は多くの産業に応用され、人類の「良きヘルパー」となっています。しかしその過程で、さまざまな問題も浮かび上がってきました。その中で、人工知能システムは貧弱なデータソースと欠陥のあるアルゴリズム設計に基づいて誤った「知識」を生成し、出力内容に対して価値判断を行う能力を持たず、対応する認知的責任を負うことができず、体系的な認知バイアスを引き起こします。かなり顕著な問題です。科学技術倫理の観点から見ると、これは認知的正義の原則に違反します。いわゆる認知的正義とは、知識の生成、普及、獲得の過程において、すべての個人およびグループの声が公平に聞かれ、理解されることができ、人類に関する公の知識に変換される平等な機会を確保することを指します。これまで、知識の生成は主に人間の知覚、記憶、推論、証言に依存していました。しかし、人工知能の急速な反復、特に会話型人工知能の広範な適用に伴い、従来の知識の生成と普及方法は大きな変化を迎えています。今日の人工知能は、情報を収集してタスクを実行することに長けているだけでなく、知識を生成して広めることができる「認知技術」も備えており、認知コンテンツ (命題、モデル、データなど) を処理し、認知操作 (など) を実行するためにも使用されます。統計分析、パターン認識、予測、推論、シミュレーションなど)。データとアルゴリズムに基づく「機械知識」は、経験と専門的判断に基づく過去の人間の知識に挑戦し、認知の「断片化」をもたらし、従来の人間の知識システムの認知的正義を損なうものです。今日、生成型人工知能は、認知と意思決定を技術的に代替する可能性のあるすべてのシナリオと社会プロセスに完全に組み込まれ始めています。知識生成における人工知能によって引き起こされる認知的正義の課題に直面して、人工知能をより賢くするにはどうすればよいでしょうか?認知機能を向上させ、科学とテクノロジーが優れたものであることを保証する上で、それをどのように支援するのでしょうか?著者は、データ品質の向上、アルゴリズム設計の改善、人間と機械のコラボレーションの最適化、倫理ガバナンスの強化という側面から始める必要があると考えています。責任あるアルゴリズム設計は、認識論的正義を達成するための中核となるアーキテクチャです。強力な認知技術として、人工知能はデータマイニングと統計分析を通じて情報のパターンと傾向を特定し、人間の公共知識の生成に参加します。このアルゴリズムはトレーニング データに頻繁に現れる情報パターンに焦点を当てているため、十分に一般的でないデータや統計的に十分な強度がないデータは見落とされ、除外されることが多く、アルゴリズムが完全に理解して適切に応答することができません。統計的頻度に依存するアルゴリズム設計は、特定の種類の「認知的盲従」を構成し、これが一部のグループの声を体系的に疎外することにつながります。この設計上の欠陥は、アルゴリズムの認知能力を制限するだけでなく、社会における不平等と認知的抑圧を悪化させ、認知的正義を損なうことになります。 「盲目的な服従」行動の背後にある根本原因は、アルゴリズムの設計とトレーニングのプロセスにおけるさまざまなグループの文化的背景の理解の欠如です。したがって、私たちがよく話題にするアルゴリズムの透明性と説明可能性に加えて、認知的正義の要件を満たすアルゴリズムの設計では、さまざまなコミュニティが関与する認知的多様性も考慮する必要があります。質の高いデータの供給は、認識論的正義を実現するためのインフラです。 AI が認識論的正義を損なう原因となるもう 1 つの重要な要因は、データの品質です。ビッグデータは、インテリジェントテクノロジーの認知基盤および意思決定基盤であり、人間の社会生活のあらゆる側面の特徴と傾向をより明確かつ直観的に示すことができます。しかし、データは従来の人間の公知とは異なり、人々によって普遍的に共有されるものではありません。具体的には、どのようなデータを収集して分析に使用できるか、このデータをどのように分類して抽出するか、最終的に誰に提供するかがすべて不明確であり、結果としてデータの品質が不均一になります。アルゴリズムのトレーニング データはインターネット上の大規模なデータベースやコミュニティから取得されることが多く、これらのデータには偏見や差別が含まれている可能性があります。人工知能の知識生成では、データのソースが信頼できるもので内容が多様であることを保証する必要があり、データの偏りを解消し、社会的および文化的変化によってもたらされる新たな問題に対処するためにデータを継続的に監視および更新する必要があります。高品質のデータが供給されて初めて、人工知能システムは多文化で複雑な社会構造においてより正確な知識と意思決定のサポートを提供できます。大規模な人間と機械のコラボレーションは、認知的正義を達成するための効果的な手段です。脳とコンピューターのインターフェースにおける信号変換から、インテリジェントな医療意思決定や科学用 AI などの人間と機械の共同動作に至るまで、さまざまなレベルでの人間と機械のコラボレーションには、人間の知識と機械の伝達、解釈、統合などの認知プロセスが含まれます。知識。人間と機械の典型的な認知特性を考慮すると、大規模かつ合理的な「人間と機械の認知分業」は、人間と機械のさらなる認知バイアスを効果的に回避します。たとえば、科学研究では、このような分業が存在する可能性があります。人間は目標を設定し、仮説を提案し、結果を解釈し、創造的思考、現場での意思決定、倫理的判断、直感的な理解を提供する責任を負います。人工知能が大量の構造化データを処理する一方で、パターン認識と予測分析を実行して、気づかれていないパターンと相関関係を提供します。この種のコラボレーションでは、AI は誤った知識を生み出す「機械」ではなく、新しいアイデアを生み出す「パートナー」になります。高度な倫理ガバナンスは、認知的正義を実現するための制度的サポートです。認知的正義には、多様な知識の生成、平等な知識の取得、偏りのない知識の普及、責任ある知識の使用が必要であり、そのすべてに高レベルの人工知能倫理ガバナンスが必要です。企業の場合、アルゴリズムの設計においてさまざまな社会集団のニーズと視点を考慮する必要があり、さまざまな背景を持つ研究者やユーザーを奨励するために、アルゴリズムの継続的なリスク監視と価値評価を実行する必要があります。人工知能への参加 インテリジェントな倫理リスクの研究と判断により、倫理リスクをタイムリーに解決できます。政府は、個人データの公的データへの変換を積極的に促進し、社会全体への公的データの公開と共有を加速し、データの多様性を拡大し、データの信頼性を強化する必要があります。人工知能の倫理的リスクをカバーし、将来を見据えた先見性、リアルタイムの評価、体系的な調整を備えた機敏なガバナンス メカニズムをカバーするシステムを確立します。