최근 미네소타에서 열린 연방 소송에서 "선거에 영향을 미치기 위해 딥페이크 기술을 사용하는 것"에 관한 법률에 대해 세간의 이목을 끄는 논란이 일어났습니다. 이 법을 뒷받침하는 진술서의 내용이 AI가 생성한 텍스트라는 의문이 제기되었습니다. 이번 사건의 핵심은 법무장관이 제출한 증거물에서 다수의 연구 논문이 존재하지 않는 것으로 주장돼 인공지능 기술을 법률 분야에 적용하는 것에 대한 우려가 제기되고 진위 검증에 심각한 난제가 제기됐다는 점이다. 정보의. 이번 사건은 법적 절차의 공정성과도 관련이 있을 뿐만 아니라, 인공지능 시대에 정보의 정확성을 유지하는 것이 얼마나 중요한지 다시 한 번 강조한 사건이다.
최근 선거에 영향을 미치기 위해 딥페이크를 사용하는 것과 관련하여 미네소타에서 진행 중인 연방 소송에서 새로운 논란이 나타났습니다. 법을 뒷받침하는 진술서에는 인공 지능에 의해 생성된 텍스트가 포함될 수 있다고 원고 측 변호사가 최근 소송 서류에서 밝혔습니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
미네소타 개혁가(Minnesota Reformer)에 따르면, 키스 엘리슨(Keith Ellison) 주 법무장관은 스탠포드 소셜 미디어 연구소(Stanford Social Media Lab) 창립 이사인 제프 핸콕(Jeff Hancock)에게 관련 증거를 제공해달라고 요청했습니다. 그러나 Hancock의 진술서에 언급된 몇몇 연구에는 실질적인 증거가 부족하고 AI의 "환각" 가능성이 있음을 보여줍니다.
Hancock의 진술서는 Journal of Information Technology and Politics에 게재된 "정치적 태도 및 행동에 대한 딥페이크 동영상의 영향"이라는 제목의 2023년 연구를 인용했습니다.
그러나 해당 연구에 대한 기록은 저널이나 기타 출판물에서 발견되지 않았다고 보고서는 밝혔습니다. 또한, 진술서에 언급된 "딥페이크와 진위의 환상: 잘못된 정보 수용 이면의 인지 과정"이라는 제목의 또 다른 연구도 실증적 근거가 부족합니다.
이에 대해 미네소타 하원의원 메리 프랜슨(Mary Franson)의 변호사와 보수적인 유튜버 크리스토퍼 콜스(Christopher Khols)는 서류에서 다음과 같이 말했습니다. 그들은 ChatGPT와 같은 언어 모델을 사용하여 특히 진술서의 많은 주장이 방법론과 분석 논리에 대한 지원이 부족하기 때문에 전체 진술서의 신뢰성에 의문을 제기한다고 지적했습니다.
핸콕은 사건에 응답하지 않았습니다. 이번 사건을 계기로 법률 분야, 특히 공익과 선거 문제에서 인공지능을 어떻게 활용하는가에 대한 논의가 촉발되었습니다.
이번 사건은 딥페이크 기술의 영향력에 대한 관심을 불러일으킬 뿐만 아니라, 인공지능과 관련된 증거를 다룰 때 법조계에 새로운 사고를 제시합니다. 정보 출처를 효과적으로 식별하고 검증하는 방법은 법률 실무에서 직면해야 할 중요한 과제가 되었습니다.
가장 밝은 부분:
미네소타 딥페이크 법 진술서의 내용은 AI가 생성한 텍스트라는 의문이 제기되었습니다.
법무팀은 인용된 연구가 존재하지 않는다고 지적하며 AI '환각'이 있었던 것으로 의심했다.
이 사건은 정보의 정확성에 초점을 맞춰 법률 문서에 인공지능을 활용하는 것에 대한 광범위한 논의를 촉발시켰습니다.
이번 사건은 법조계에 경종을 울리며, 법적 증거에 인공지능 기술을 적용하는 것을 재검토하고, 법적 절차의 공정성과 신뢰성을 확보하기 위해 보다 완전한 검증 메커니즘을 구축해야 함을 일깨워주었습니다. 앞으로는 AI가 생성하는 허위정보를 어떻게 효과적으로 식별하고 예방할 수 있을지가 중요한 화두가 될 것이다.