في الآونة الأخيرة ، شاركت AI Chatbot Platform AI في نزاع قانوني حول قضية تتعلق بالانتحار في سن المراهقة ، والتي جذبت اهتمامًا واسع النطاق. ادعى المنصة أن تصريحاتها كانت محمية من خلال التعديل الأول للولايات المتحدة وقدمت طلبًا لسحب الدعوى ، ورفضت تحمل مسؤولية الحادث. لا يسلط هذا الحادث الضوء على المخاطر المحتملة لمطاطرة AI ، ولكن أيضًا يؤدي إلى مناقشات مكثفة حول مسؤوليات تقنية الذكاء الاصطناعي والإشراف. ستحلل هذه المقالة بالتفصيل المعضلة القانونية التي تواجهها الشخصية AI والمشاكل العميقة التي تقف وراءها.
في الآونة الأخيرة ، كانت AI chatbot platform ai في معضلة قانونية على قضية تنطوي على انتحار مراهق. قدمت المنصة طلبًا لسحب الدعوى في محكمة مقاطعة فلوريدا المركزية ، مدعيا أنه بموجب التعديل الأول ، لا ينبغي أن يكونوا مسؤولين عن الدعاوى القضائية ذات الصلة.
كانت القضية ناتجة عن دعوى قضائية رفعتها ميغان جارسيا ضد شخصية الذكاء الاصطناعي في أكتوبر. شكل ابن غارسيا ، سويل سيتزر الثالث ، البالغ من العمر 14 عامًا ، اعتمادًا عاطفيًا قويًا بعد استخدام شخصية Chatbot Dany من AI ، مما أدى في النهاية إلى حدوث المأساة. قالت جارسيا إن ابنها يتواصل بشكل متكرر مع هذا الدردشة وأصبح تنفر تدريجياً عن الحياة الحقيقية.
بعد وفاة ستيوارت ، وعدت شخصية AI بإدخال العديد من ميزات الأمن لتعزيز المراقبة والتدخل في محتوى الدردشة. وتأمل غارسيا أن تتخذ الشركة تدابير أكثر صرامة ، مثل حظر برامج الدردشة من سرد القصص أو الحكايات الشخصية.
لاحظت الشخصية الذكاء الاصطناعي في حركة الانسحاب أن أول تعديل يحمي وسائل الإعلام والتكنولوجيا من المسؤولية عن ما يسمى بالملاحظات الضارة ، مؤكدًا أن هذا الحق ينطبق أيضًا على تفاعلات المستخدمين مع AI chatbots. أكدت الحركة أنه إذا نجحت الدعوى ، فسوف تنتهك حرية التعبير للمستخدم.
لا تذكر الحركة ما إذا كانت الشخصية محمية بموجب المادة 230 من قانون أخلاقيات الاتصالات. يهدف القانون إلى حماية وسائل التواصل الاجتماعي والمنصات الأخرى عبر الإنترنت من كونها مسؤولة عن المحتوى الذي تم إنشاؤه بواسطة المستخدمين ، ولكن لا يزال هناك جدل حول ما إذا كان المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى محميًا بموجب هذا القانون.
بالإضافة إلى ذلك ، أشار الفريق القانوني للشخصية AI إلى أن نية جارسيا الحقيقية كانت "إغلاق" شخصية AI وتعزيز التشريعات حول التقنيات المماثلة. تعتقد الشركة أنه إذا فازت الدعوى ، فستكون لها "تأثير تقشعر لها الأبدان" على الذكاء الاصطناعي للشخصية وصناعة الذكاء الاصطناعي الناشئ بالكامل.
بالإضافة إلى هذه الدعوى ، تواجه الشخصية الذكاء الاصطناعي أيضًا العديد من الدعاوى القانونية المتعلقة باستخدام محتوى الذكاء الاصطناعي للمراهقين. تشمل الادعاءات الأخرى شخصية منظمة العفو الدولية التي تظهر "محتوى مفرط" للأطفال البالغ من العمر 9 سنوات وتوجيه سلوكيات إيذاء الذات من قبل مستخدمين يبلغون من العمر 17 عامًا.
أعلن المدعي العام في تكساس كين باكستون في ديسمبر / كانون الأول عن تحقيق في الشخصية الذكاء الاصطناعي و 14 شركة تقنية أخرى ، مستشهدين بانتهاكات مزعومة لقوانين الخصوصية والأمن على الإنترنت لأطفال الولاية.
تم تأسيس الشخصية AI في عام 2021 كجزء من تطبيقات AI Companion ، وبينما يزدهر هذا المجال ، لم تتم دراسة آثار الصحة العقلية ذات الصلة بالكامل. عندما تطلق الشركة أدوات أمان متعددة ونماذج منظمة العفو الدولية الخاصة في سن المراهقة ، تقول AI ، إنها ستستمر في تحسين إدارة الأمان والمحتوى على نظامها الأساسي.
نقاط:
تم توجيه الاتهام إلى شخصية الذكاء الاصطناعي بسبب قضية انتحارية في سن المراهقة وتقدمت بطلب لسحب الدعوى قائلة إنها كانت محمية بموجب التعديل الأول.
تم عزل ابن غارسيا عن الحياة الحقيقية بسبب اعتماده على مفاتيح الدردشة من الذكاء الاصطناعي ، وقدم دعوى قضائية للمطالبة بمزيد من التدابير الأمنية.
تواجه الشخصية AI أيضًا دعاوى قانونية متعددة تتعلق بمستخدمي المراهقين ، وكذلك التحقيقات في تكساس.
أثارت قضية الذكاء الاصطناعي أفكار الناس العميقة حول أخلاقيات الذكاء الاصطناعي واللوائح. سيكون للنتيجة النهائية لهذه الدعوى أيضًا تأثير عميق على تطوير صناعة الذكاء الاصطناعي.