Googleの最新AIモデルPaliGemma2は、画像解析を通じて人間の感情を識別できると主張し、大きな論争を引き起こしている。このモデルは Gemma オープン モデルに基づいており、キャラクターの行動や感情を含む詳細な画像記述を生成できます。しかし、専門家らはこの技術の科学的性質と安全性を強く疑問視しており、その基本理論は脆弱で、重大な偏見や倫理的リスクがある可能性があると考えている。
Googleは最近、AIモデルの新しいファミリーであるPaliGemma2を発表した。その最も目を引く特徴は、画像分析を通じて人間の感情を「認識」できるという主張である。この主張はすぐに学者や技術倫理の専門家の間で広範な議論と深刻な疑問を引き起こしました。
Gemma オープン モデルに基づくこの AI システムは、単純なオブジェクト認識だけでなく、画像内のキャラクターの行動や感情の説明を試みる詳細な画像の説明を生成できます。しかし、多くの権威ある専門家が、このテクノロジーの科学と潜在的なリスクについて深刻な警告を発しています。
オックスフォード・インターネット研究所のデータ倫理教授サンドラ・ワクター氏は、AIを通じて人間の感情を「読み取ろう」とするのは「魔法の8球にアドバイスを求める」ようなものだと率直に言う。この比喩は、感情認識テクノロジーの不条理を鮮やかに明らかにします。
実際のところ、感情認識の科学的根拠自体は非常に脆弱です。心理学者のポール・エクマンによって提唱された 6 つの基本的な感情に関する初期の理論は、その後の研究によって広く疑問視されました。異なる文化の人々が感情を表現する方法には大きな違いがあり、普遍的な感情認識はほぼ不可能な課題となっています。
クイーンメリー大学の AI 研究者であるマイク・クック氏は、より率直にこう言います。「感情の検出は、一般的な意味では不可能です。」人間は観察によって他人の感情を判断できるとよく信じていますが、この能力は想像よりもはるかに複雑で信頼性が高くありません。
さらに懸念されるのは、このような AI システムには重大なバイアスが存在することが多いということです。複数の研究は、顔分析モデルが肌の色の異なる人々に対して異なる感情的判断を生み出す可能性があり、それが既存の社会的差別を間違いなく悪化させる可能性があることを示しています。
Google は PaliGemma2 を広範囲にテストし、一部のベンチマークで良好なパフォーマンスを示したと主張していますが、専門家は依然として深刻な懐疑的です。彼らは、限定的なテストだけでは、このテクノロジーが引き起こす可能性のある倫理的リスクを完全に評価することはできないと考えています。
最も危険なのは、このオープンモデルが雇用、教育、法執行などの主要分野で悪用され、弱い立場にある人々に実害をもたらす可能性があることです。ワハター教授が警告しているように、これは恐ろしい「暴走」の未来につながる可能性がある。人々の雇用、融資、教育の機会は、信頼性の低いAIシステムの「感情的な判断」によって決定されることになる。
人工知能が急速に発展する今日、技術革新は重要ですが、倫理や安全性も無視できません。 PaliGemma2 の登場は、AI テクノロジーに対して明確かつ批判的な視点を維持する必要性を改めて浮き彫りにしました。
PaliGemma2 の論争は、特に人間の感情や社会正義に関わる分野では、AI テクノロジーを慎重に扱う必要があることを思い出させます。 今後の AI の開発においては、テクノロジーの悪用や取り返しのつかない社会的影響を避けるために、倫理的配慮が優先されるべきです。