최근 생성적 인공지능(AI)에 관한 두 편의 논문이 AI가 생성한 텍스트가 '넌센스'인 경우가 많다는 점을 지적하며 열띤 토론을 촉발했습니다. 두 논문은 AI가 만들어내는 잘못된 정보가 사회에 미칠 수 있는 잠재적 피해를 AI의 본질적 특성과 현행 법규의 단점 등의 관점에서 심층 분석하고, 위험을 피하기 위한 보다 효과적인 대책을 촉구한다. 논문의 저자는 AI 오류를 단순히 '환상'에 의한 것으로 오해하는 것은 오해의 소지가 있으며, 이러한 현상을 설명하기 위해 보다 정확한 용어를 사용해야 한다고 생각하여 AI 기술에 대한 대중의 인식과 이해를 높이고 관련 법률의 시행을 촉진해야 한다고 생각합니다. 규정.
최근 두 연구팀이 생성적 인공지능(AI) 제품의 콘텐츠는 기본적으로 '넌센스'로 간주될 수 있다고 직설적으로 언급해 큰 관심을 끄는 논문을 발표했다. "ChatGPT는 헛소리다(ChatGPT is Bullshit)"라는 제목의 이 논문은 생성 AI가 정보를 생성할 때 정확성을 무시하면 공무원, 특히 진실을 말해야 할 법적 의무가 있는 공무원에게 많은 어려움을 안겨준다고 지적합니다.
저자인 Michael Townsen Hicks, James Humphries 및 Joe Slater는 생성 AI가 생성한 잘못된 정보를 단순히 "거짓말"이나 "환상"으로 설명할 수 없음을 강조합니다. 의도적으로 속이는 거짓말과 달리, 헛소리는 구체적인 인상을 주기 위해 진실은 고려하지 않는 표현 형태를 말합니다. 그들은 AI 오류를 '환각'이라고 부르는 것은 대중이 이 기계가 여전히 자신이 '믿는 것'을 전달하려고 노력하고 있다고 생각하도록 오해할 뿐이라고 주장합니다.
그들은 "이러한 오류를 '환상'이라기보다는 '헛소리'라고 부르는 것이 더 정확할 뿐만 아니라 기술에 대한 대중의 이해를 높이는 데도 도움이 될 것"이라고 말했습니다. 이 구절은 AI 오류를 설명하기 위해 더 정확한 용어를 사용하는 것의 중요성을 강조합니다. 특히 과학 기술 커뮤니케이션이 시급히 개선이 필요한 현재 상황에서는 더욱 그렇습니다.
한편, 대형 언어 모델(LLM)에 관한 또 다른 연구 논문은 이 문제에 대한 EU의 법적, 윤리적 환경에 중점을 두고 있습니다. 논문의 결론은 AI에 관한 현행 법률과 규정이 AI가 만들어내는 '말도 안되는 소리'로 인한 피해를 효과적으로 예방할 만큼 아직 완벽하지 않다는 것입니다. 저자 Sandra Wachter, Brent Mittelstadt 및 Chris Russell은 사회적 해를 끼칠 수 있는 "인상적인 발언"을 피하는 데 중점을 두고 출판과 유사한 규정 도입을 제안했습니다.
그들은 이 의무가 공공이든 민간이든 단일 실체가 진실의 유일한 중재자가 되어서는 안 된다는 점을 강조합니다. 그들은 또한 생성 AI의 '무작위 연설'이 진실을 실제 사실이 아닌 빈도와 다수의 의견의 문제로 바꿀 수 있다고 말합니다.
전체적으로 이 두 논문은 생성적 AI의 잠재적 위험을 공동으로 밝히고 사회의 모든 부문이 관련 법률 및 규정을 개선하고 AI 기술 개발을 표준화하며 AI 기술이 더 나은 서비스를 제공할 수 있도록 주의를 기울이고 조치를 취할 것을 촉구합니다. 인간 사회.