최근 AI Chatbot 플랫폼 캐릭터 AI는 십대 자살과 관련된 사례에 대한 법적 분쟁에 관여했으며, 이는 광범위한 관심을 끌었습니다. 이 플랫폼은 그 발언이 미국의 첫 번째 수정안에 의해 보호되었으며 소송을 철회하라는 동의를 제기하여 사건에 대한 책임을지지 않았다고 주장했다. 이 사건은 AI 챗봇의 잠재적 위험을 강조 할뿐만 아니라 AI 기술 책임 및 감독에 대한 광범위한 토론을 유발합니다. 이 기사는 문자 AI가 직면 한 법적 딜레마와 그 뒤에있는 깊은 문제를 자세히 분석합니다.
최근 AI Chatbot 플랫폼 캐릭터 AI는 십대 자살과 관련된 사례에 대해 법적 딜레마에 빠졌습니다. 이 플랫폼은 플로리다 중부 지방 법원에서 소송을 철회하기위한 동의를 제기하여 제 1 차 수정안에 따라 관련 소송에 대해 책임을지지 않아야한다고 주장했다.
이 사건은 Megan Garcia가 10 월 캐릭터 AI에 대해 제기 한 소송으로 인해 발생했습니다. Garcia의 아들 14 세의 Sewell Setzer III는 캐릭터 AI의 챗봇 Dany를 사용한 후 강한 감정적 의존을 형성하여 결국 비극이 발생했습니다. 가르시아는 아들 이이 챗봇과 자주 의사 소통을했으며 점차적으로 실생활에서 소외되었다고 말했다.
Stewart가 사망 한 후 캐릭터 AI는 채팅 콘텐츠의 모니터링 및 개입을 향상시키기 위해 몇 가지 보안 기능을 도입하겠다고 약속했습니다. Garcia는 회사가 이야기 나 개인적인 일화를 금지하는 것과 같은 더 엄격한 조치를 취하기를 희망합니다.
캐릭터 AI는 철수 운동에서 첫 번째 수정안이 미디어와 기술 회사가 소위 유해한 발언에 대한 책임으로부터 보호되었으며,이 권리는 AI 챗봇과의 사용자와의 상호 작용에도 적용된다고 강조했다. 이 동의는 소송이 성공하면 사용자의 언론의 자유를 침해 할 것이라고 강조했다.
이 동의는 캐릭터 AI가 커뮤니케이션 윤리 법 제 230 조에 따라 보호되는지 여부를 언급하지 않습니다. 이 법은 소셜 미디어 및 기타 온라인 플랫폼이 사용자가 생성 한 컨텐츠에 대한 책임을지지 않도록하는 것을 목표로하지만 AI 생성 컨텐츠 가이 법에 의해 보호되는지 여부에 대해서는 여전히 논란이 있습니다.
또한, 캐릭터 AI의 법무 팀은 Garcia의 진정한 의도는 AI 캐릭터 AI를 "종료"하고 유사한 기술에 대한 법률을 홍보하는 것이라고 지적했습니다. 회사는 소송이 이기면 캐릭터 AI와 전체 신흥 생성 AI 산업에 "냉담한 효과"가있을 것이라고 믿는다.
이 소송 외에도 AI 캐릭터 AI는 청소년을위한 AI 콘텐츠 사용과 관련된 몇 가지 법률 소송에 직면 해 있습니다. 다른 주장으로는 9 살짜리 어린이들에게“과도한 내용”을 보여주는 캐릭터 AI와 17 세의 사용자에 의한 자해 행동을 안내합니다.
텍사스 법무 장관 Ken Paxton은 12 월에 주 어린이의 온라인 개인 정보 보호 및 보안법 위반이 의심되는 인물 AI 및 14 개의 다른 기술 회사에 대한 조사를 12 월에 발표했습니다.
캐릭터 AI는 2021 년 AI 동반자 응용 프로그램의 일부로 설립 되었으며이 분야는 호황을 누리고 있지만 관련 정신 건강 영향은 완전히 연구되지 않았습니다. 회사가 여러 보안 도구와 십대 별 AI 모델을 출시함에 따라 AI는 플랫폼에서 보안 및 컨텐츠 관리를 계속 개선 할 것이라고 말합니다.
전철기:
AI 캐릭터 AI는 십대 자살 사건으로 기소되었으며 제 1 차 수정안에 의해 보호되었다고 말하면서 소송을 철회하도록 신청했습니다.
Garcia의 아들은 AI 챗봇에 대한 의존으로 인해 실생활에서 소외되어 더 많은 보안 조치를 요구하기 위해 소송을 제기했습니다.
캐릭터 AI는 또한 십대 사용자와 관련된 여러 법률 소송과 텍사스 조사에 직면 해 있습니다.
캐릭터 AI의 사례는 AI 윤리 및 규제에 대한 사람들의 깊은 생각을 촉발 시켰습니다. 이 소송의 최종 결과는 또한 AI 산업의 발전에 큰 영향을 미칠 것입니다.