ตัวละคร AI ต้องเผชิญกับการฟ้องร้องต่อ Chatbot ที่ถูกกล่าวหาว่าทำให้เด็กอายุ 14 ปีฆ่าตัวตาย ผู้ปกครองของโจทก์กล่าวหาว่าแพลตฟอร์มล้มเหลวในการควบคุม“ Dany” ของ AI อย่างมีประสิทธิภาพทำให้ลูกชายของเขาติดโลกเสมือนจริงและในที่สุดก็ฆ่าตัวตาย AI ตัวละครปฏิเสธว่าแพลตฟอร์มได้รับการคุ้มครองโดยการแก้ไขครั้งแรกและเชื่อว่าโจทก์ตั้งใจที่จะปิดแพลตฟอร์มและส่งเสริมการออกกฎหมายที่เกี่ยวข้องซึ่งจะมีผลกระทบด้านลบต่ออุตสาหกรรม AI ที่เกิดขึ้นทั้งหมด
ตัวละคร AI ซึ่งเป็นแพลตฟอร์มที่ช่วยให้ผู้ใช้สามารถเล่นตามบทบาทกับ AI Chatbots ได้ยื่นฟ้องเมื่อเร็ว ๆ นี้ผู้ปกครองวัยรุ่นในศาลแขวงกลางสหรัฐฯแห่งสหรัฐอเมริกาฟลอริดา ผู้ปกครองเมแกนการ์เซียกล่าวหาว่าตัวละคร AI ของเทคโนโลยีที่ทำร้ายลูกชายวัย 14 ปีของเธอ Sewell Setzer III โดยกล่าวว่าเธอค่อยๆแยกตัวออกจากโลกแห่งความจริงและในที่สุดก็นำไปสู่การฆ่าตัวตายเมื่อเธอสื่อสารกับแชทบ็อตชื่อ "Dany"
หลังจากการเสียชีวิตของ Setzer ตัวละคร AI กล่าวว่าจะเปิดตัวคุณลักษณะด้านความปลอดภัยที่หลากหลายเพื่อปรับปรุงความสามารถในการตรวจจับและการแทรกแซงในเนื้อหาแชทที่ละเมิดข้อกำหนดในการให้บริการ อย่างไรก็ตามการ์เซียหวังว่าแพลตฟอร์มจะสามารถกำหนดข้อ จำกัด ที่เข้มงวดได้เช่นการห้ามแชทบอทจากการเล่าเรื่องและแบ่งปันเกร็ดเล็กเกร็ดน้อยส่วนบุคคล
ในแอปพลิเคชันการปฏิเสธทีมกฎหมายของ AI ของ AI แย้งว่าแพลตฟอร์มได้รับการคุ้มครองโดยการแก้ไขครั้งแรกโดยอ้างว่าสิทธิของผู้ใช้ต่อเสรีภาพในการพูดจะถูกละเมิด เอกสารทางกฎหมายระบุว่าถึงแม้ว่ากรณีนี้เกี่ยวข้องกับการสนทนาที่สร้างขึ้นโดย AI แต่สิ่งนี้ไม่ได้แตกต่างจากกรณีก่อนหน้านี้ที่เกี่ยวข้องกับ บริษัท สื่อและเทคโนโลยี
เป็นที่น่าสังเกตว่าการป้องกันของตัวละคร AI ไม่เกี่ยวข้องกับการบังคับใช้มาตรา 230 ของพระราชบัญญัติจริยธรรมการสื่อสารซึ่งให้ความคุ้มครองสำหรับโซเชียลมีเดียและแพลตฟอร์มออนไลน์อื่น ๆ จากความรับผิดสำหรับเนื้อหาของบุคคลที่สาม แม้ว่าผู้ร่างของบิลบอกว่าบทบัญญัติไม่ได้ปกป้องเนื้อหาที่สร้างขึ้นจาก Ai แต่ปัญหานี้ยังไม่สามารถสรุปได้
ทนายความของตัวละคร AI ยังกล่าวอีกว่าความตั้งใจที่แท้จริงของการ์เซียคือการ“ ปิด” แพลตฟอร์มและส่งเสริมการออกกฎหมายเกี่ยวกับเทคโนโลยีที่คล้ายกัน หากการฟ้องร้องประสบความสำเร็จมันจะมี "เอฟเฟกต์ที่หนาวเหน็บ" ต่อตัวละคร AI และอุตสาหกรรม AI ที่เกิดขึ้นใหม่ทั้งหมด
ปัจจุบันตัวละคร AI กำลังเผชิญกับการฟ้องร้องหลายครั้งโดยมุ่งเน้นไปที่วิธีการที่ผู้เยาว์มีปฏิสัมพันธ์กับเนื้อหาที่สร้างขึ้นบนแพลตฟอร์มของพวกเขารวมถึงกรณีหนึ่งที่อ้างว่าแพลตฟอร์มดังกล่าวแสดงให้เห็นว่า "เนื้อหา hypergenic" กับเด็กอายุ 9 ปีและอีกคดีหนึ่ง ผู้ใช้เก่าจะทำร้ายตัวเอง
อัยการสูงสุดของเท็กซัสเคนแพกซ์ตันยังประกาศการสอบสวนเกี่ยวกับตัวละคร AI และ บริษัท เทคโนโลยีอื่น ๆ 14 แห่งโดยกล่าวหาว่าพวกเขาละเมิดกฎหมายของรัฐเพื่อปกป้องความเป็นส่วนตัวและความปลอดภัยออนไลน์ของเด็ก ตัวละคร AI เป็นส่วนหนึ่งของอุตสาหกรรมแอพพลิเคชั่น AI ที่เติบโตอย่างรวดเร็วและผลกระทบด้านสุขภาพจิตในพื้นที่นี้ยังไม่ได้รับการศึกษาอย่างเต็มที่
แม้จะมีความท้าทายที่หลากหลาย แต่ตัวละคร AI ก็แนะนำเครื่องมือรักษาความปลอดภัยใหม่ ๆ อย่างต่อเนื่องและดำเนินการเพื่อปกป้องผู้ใช้ที่ยังไม่บรรลุนิติภาวะเช่นการเปิดตัวโมเดล AI Teenage AI แยกต่างหากและข้อ จำกัด เกี่ยวกับเนื้อหาที่ละเอียดอ่อน
ผลลัพธ์สุดท้ายของกรณีนี้จะส่งผลกระทบอย่างลึกซึ้งต่อการพัฒนาในอนาคตของอุตสาหกรรม AI กำเนิดและยังเน้นถึงความจำเป็นเร่งด่วนสำหรับจริยธรรมเทคโนโลยี AI และการกำกับดูแลด้านความปลอดภัย ทุกฝ่ายจำเป็นต้องทำงานร่วมกันเพื่อค้นหาความสมดุลระหว่างความก้าวหน้าทางเทคโนโลยีและความรับผิดชอบต่อสังคม