인공지능 시스템은 청소년을 어떻게 보는가? 워싱턴대 연구팀이 심층 조사를 진행한 결과, AI 시스템이 청소년을 묘사하는 데 상당한 편향이 있는 것으로 나타났으며, 특히 부정적인 뉴스를 보도할 때 AI 시스템이 우려스러운 경향을 보였다. 연구진은 다양한 AI 모델과 다양한 언어를 사용해 실험을 진행했고, 미국과 네팔의 청소년 단체와 소통하며 청소년 초상화에서 AI 시스템의 문제점을 밝히고 개선 방안을 모색하려고 노력했다.
인공지능 기술은 계속해서 발전하고 있으며, 인공지능 시스템이 청소년을 묘사하는 것에 점점 더 많은 사람들이 주목하고 있다. 한 실험에서 워싱턴 대학의 박사과정 학생인 로버트 울프(Robert Wolf)는 AI 시스템에 "학교에 있는 이 십대 _____"라는 문장을 완성해 달라고 요청했습니다. 원래는 '공부하다', '놀다'라는 대답을 예상했지만, 뜻밖에도 '죽는다'라는 충격적인 대답을 얻었다. 이 발견으로 인해 Wolfe와 그의 팀은 AI가 십대를 어떻게 묘사하는지 더 깊이 탐구하게 되었습니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
연구팀은 서로 다른 문화적 배경에서 AI 모델의 성능을 비교하기 위해 두 가지 일반적인 영어 오픈 소스 AI 시스템과 네팔어 시스템을 분석했습니다. 영어 시스템에서는 폭력, 약물남용, 정신질환 등 사회문제와 관련된 응답이 약 30%인 반면, 네팔 시스템에서는 약 10%만이 부정적 응답인 것으로 나타났다. 결과는 미국과 네팔의 10대들과의 워크숍에서 두 그룹 모두 미디어 데이터로 훈련된 AI 시스템이 그들의 문화를 정확하게 표현하지 못한다고 느꼈다는 사실을 발견한 팀에 대한 우려를 불러일으켰습니다.
이 연구에는 OpenAI의 GPT-2 및 Meta의 LLaMA-2와 같은 모델도 포함됩니다. 연구원들은 시스템에 문장 프롬프트를 제공하고 후속 콘텐츠를 완성하도록 합니다. 결과는 AI 시스템의 출력과 청소년 자신의 삶의 경험 사이에 큰 격차가 있음을 보여줍니다. 미국 청소년들은 AI가 보다 다양한 정체성을 반영하기를 원하는 반면, 네팔 청소년들은 AI가 자신의 삶을 보다 긍정적으로 표현하기를 원합니다.
연구에 사용된 모델은 최신 버전은 아니지만, 이 연구는 AI 시스템이 청소년을 묘사하는 데 근본적인 편견이 있음을 드러냅니다. 울프는 AI 모델의 훈련 데이터가 종종 부정적인 뉴스를 보도하고 십대들의 일상생활의 평범한 측면을 무시하는 경향이 있다고 말했습니다. 그는 AI 시스템이 더 넓은 관점에서 10대들의 실제 삶을 반영할 수 있도록 근본적인 변화가 필요하다고 강조했다.
연구팀은 관심을 끄는 부정적인 보도에만 의존하기보다는 10대들의 견해와 경험이 훈련의 첫 번째 원천이 될 수 있도록 AI 모델 훈련이 커뮤니티의 목소리에 더 많은 관심을 기울일 것을 촉구한다.
가장 밝은 부분:
연구에 따르면 AI 시스템은 십대를 부정적인 시각으로 묘사하는 경향이 있으며, 영국 모델의 부정적인 연관성 비율은 30%에 달합니다.
미국과 네팔의 청소년들과의 워크숍을 통해 AI가 그들의 문화와 삶을 정확하게 표현할 수 없다고 믿고 있다는 것을 알 수 있었습니다.
연구팀은 청소년들의 실제 경험을 더 잘 반영하기 위해 AI 모델의 훈련 방식을 재검토할 필요성을 강조했다.
본 연구는 데이터 소스의 다양화와 취약 계층에 대한 관심을 강조하면서 AI 모델 훈련에 중요한 참고 자료를 제공합니다. 앞으로 AI 시스템이 청소년의 실제 생활을 보다 객관적이고 종합적으로 반영하고, 부정적인 묘사로 인한 부정적인 영향을 피할 수 있도록 하기 위해서는 더 많은 유사한 연구가 필요합니다.