2024년 미국 선거가 다가옴에 따라 생성 AI 기술과 이를 선거에 적용하는 것이 큰 관심을 끌고 있습니다. 다운코드 편집자는 AI 기술이 선거에 미치는 영향과 AI 남용을 방지하기 위해 주 및 연방 정부가 취한 조치에 대한 심층적인 이해를 제공합니다. 이 기사에서는 선거에서 AI의 잠재적 위험을 분석하고 현재 법적 감독의 단점은 물론 향후 필요할 수 있는 보다 포괄적이고 효과적인 규제 조치를 살펴보겠습니다. AI 기술과 민주선거의 미래를 살펴보자.
2024년 미국 선거가 다가오면서 AI 기술의 급속한 발전이 더욱 주목받고 있다. 최근 Axios 분석에 따르면 최소 26개 주에서 선거에서 생성 AI 사용을 규제하는 법률을 통과했거나 고려 중인 것으로 나타났습니다. 이는 향후 선거에서 AI가 더 이상 단순한 기술 도구가 아니라 투표 결과에 영향을 미칠 수 있는 '게임 체인저'가 될 것임을 의미합니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
생성 AI는 때로는 악의적인 목적으로 사용될 수 있으며, 유권자의 혼란과 억압을 야기할 수도 있는 것으로 알려져 있습니다. 버지니아주 상원의원 마크 워너(Mark Warner)는 이메일을 통해 AI 기술의 오용 위험을 과소평가할 수 없다고 지적했습니다. 그는 “생성 AI를 개발하는 기업과 플랫폼이 남용 가능성에 대해 충분히 주의를 기울이지 않는 것 같다”며 “이로 인해 AI 활용이 민주선거의 공정성에 영향을 미칠지 많은 사람들이 우려하게 됐다”고 말했다.
실제로 생성 AI가 유권자를 오도하는 데 사용된 사례가 여러 번 있었습니다. 예를 들어, 뉴햄프셔에서는 누군가 AI로 생성된 가짜 전화 통화를 사용하여 Biden의 목소리를 모방하여 민주당 유권자들이 예비 선거에 참여하지 않도록 독려했습니다. 지난해 7월에는 플로리다 주지사 드샌티스를 지지하는 초정치행동위원회도 AI를 사용해 트럼프의 목소리를 모방해 트럼프를 공격하는 광고를 제작하기도 했다. 이러한 사건을 통해 사람들은 AI의 오용이 무시할 수 없는 문제가 되었음을 깨닫게 되었습니다.
2019년 텍사스가 후보를 겨냥한 딥페이크 영상의 제작과 배포를 금지한 첫 번째 주가 되는 등 일부 주에서는 조치를 취하기 시작했지만, 연방 차원의 AI 관련 규제 조치는 여전히 제한적이다. AI에 대한 바이든 대통령의 행정 명령조차 주로 자발적이며 집행력이 부족합니다.
현재 19개 주에서는 AI로 생성된 "딥페이크" 미디어를 구체적으로 규제하는 법률을 통과시켰습니다. 이 중 캘리포니아주 법은 선거 전 60일 이내에 '실질적으로 기만적인' 오디오 및 비디오 콘텐츠의 유포를 금지하고 있으며, 미네소타주와 미시간주에서는 2023년 선거 전 90일 이내에 AI가 생성한 딥페이크 콘텐츠의 유포를 금지하고 있다. 또한 뉴멕시코, 플로리다, 유타 등도 올해 AI 생성 콘텐츠 공개를 요구하는 법안을 통과시켰습니다.
일부 주에서는 콘텐츠에 공개 내용이 포함되어 있거나 풍자 및 패러디 광고인 경우와 같이 관련 법률을 고려할 때 특정 예외를 고려하지만 위반에 대한 분류 및 처벌은 여전히 주마다 다릅니다. 더 많은 주들이 조치를 취함에 따라 전문가들은 문제에 대한 진정한 해결책을 얻으려면 연방 차원의 포괄적인 조치가 필요할 것이라고 말합니다.
** 하이라이트: **
? ** 최소 26개 주에서 선거에서 생성 AI 사용을 규제하는 법률을 고려하거나 통과시켰습니다. **
? **후보자의 목소리를 모방한 가짜 전화 통화, 광고 등 AI 기술이 악의적으로 사용되는 사례가 흔합니다. **
** 현재 연방 차원의 규제 조치는 상대적으로 제한적이며 법률은 주마다 다릅니다. 보다 포괄적인 법적 틀이 시급히 필요합니다. **
전체적으로 AI 기술을 선거에 적용하는 것은 편의성과 위험을 동시에 가져오는 양날의 검이다. 선거의 공정성과 정의를 보장하기 위해서는 연방 차원의 감독을 강화하고 주 전역의 법적 기준을 통일하는 것이 시급하다. Downcodes의 편집자는 관련 부서와 기관이 이러한 도전에 적극적으로 대응하고 선거의 투명성과 공정성을 보장하기 위해 보다 완전한 법률과 규정을 제정할 것을 촉구합니다.