구글의 최신 AI 모델인 PaliGemma2는 이미지 분석을 통해 인간의 감정을 식별할 수 있다고 주장해 광범위한 논란을 불러일으켰다. 이 모델은 Gemma 오픈 모델을 기반으로 하며 캐릭터 행동과 감정을 포함한 상세한 이미지 설명을 생성할 수 있습니다. 그러나 전문가들은 이 기술의 기본 이론이 약하고 심각한 편견과 윤리적 위험을 가질 수 있다고 믿으며 이 기술의 과학적 성격과 안전성에 대해 강하게 의문을 제기해 왔습니다.
Google은 최근 새로운 AI 모델 제품군인 PaliGemma2를 출시했습니다. 이 모델의 가장 눈길을 끄는 기능은 이미지 분석을 통해 인간의 감정을 "인식"할 수 있다는 주장입니다. 이 주장은 학계와 기술 윤리 전문가들 사이에서 광범위한 토론과 심각한 의구심을 빠르게 불러일으켰습니다.
Gemma 개방형 모델을 기반으로 한 이 AI 시스템은 단순한 객체 인식뿐만 아니라 이미지 속 캐릭터의 행동과 감정을 설명하는 상세한 이미지 설명을 생성할 수 있습니다. 그러나 많은 권위 있는 전문가들은 이 기술의 과학성과 잠재적 위험에 대해 심각한 경고를 발표했습니다.
옥스퍼드 인터넷 연구소(Oxford Internet Institute)의 데이터 윤리 교수인 산드라 와처(Sandra Wachter)는 AI를 통해 인간의 감정을 '읽는' 것은 '마법의 8공에게 조언을 구하는 것'과 같다고 직설적으로 말했습니다. 이 비유는 감정인식 기술의 부조리함을 생생하게 드러낸다.
사실 감정 인식 자체에 대한 과학적 근거는 매우 취약합니다. 심리학자 폴 에크만(Paul Ekman)이 제안한 6가지 기본 감정에 대한 초기 이론은 후속 연구에서 광범위한 의문을 제기해 왔습니다. 서로 다른 문화권의 사람들이 감정을 표현하는 방식에는 상당한 차이가 있으므로 보편적인 감정 인식은 거의 불가능한 작업입니다.
퀸 메리 대학의 AI 연구원인 마이크 쿡(Mike Cook)은 좀 더 솔직하게 표현합니다. 일반적인 의미에서 감정 감지는 불가능합니다. 인간은 흔히 관찰을 통해 타인의 감정을 판단할 수 있다고 믿지만, 이 능력은 상상보다 훨씬 더 복잡하고 신뢰할 수 없습니다.
더욱 걱정스러운 것은 그러한 AI 시스템이 종종 심각한 편견을 가지고 있다는 것입니다. 여러 연구에 따르면 얼굴 분석 모델은 피부색이 다른 사람들에 대해 서로 다른 감정적 판단을 내릴 수 있으며, 이는 의심할 여지 없이 기존의 사회적 차별을 악화시킬 수 있습니다.
Google은 PaliGemma2를 광범위하게 테스트했으며 일부 벤치마크에서 좋은 성능을 발휘했다고 주장하지만 전문가들은 여전히 심각하게 회의적입니다. 그들은 제한된 테스트만으로는 이 기술이 초래할 수 있는 윤리적 위험을 완전히 평가할 수 없다고 믿습니다.
가장 위험한 점은 이러한 개방형 모델이 고용, 교육, 법 집행 등 주요 분야에서 악용되어 취약계층에게 실질적인 피해를 입힐 수 있다는 점입니다. Wachter 교수가 경고했듯이 이는 끔찍한 "폭주" 미래로 이어질 수 있습니다. 사람들의 고용, 대출 및 교육 기회는 신뢰할 수 없는 AI 시스템의 "감정적 판단"에 의해 결정될 것입니다.
오늘날 인공지능의 급속한 발전으로 기술혁신도 중요하지만 윤리와 안전도 무시할 수 없습니다. PaliGemma2의 등장은 AI 기술에 대해 명확하고 비판적인 시각을 유지해야 할 필요성을 다시 한 번 강조합니다.
PaliGemma2의 논란은 특히 인간의 감정과 사회 정의와 관련된 영역에서 AI 기술을 주의 깊게 다루어야 함을 상기시켜 줍니다. 향후 AI 개발에서는 기술 오용과 돌이킬 수 없는 사회적 결과를 방지하기 위해 윤리적 고려가 우선적으로 고려되어야 합니다.