في الآونة الأخيرة ، قدم السناتور في كاليفورنيا ستيف باديلا مشروع قانون SB243 لحماية الأطفال من الأذى المحتمل إلى chatbots الذكاء الاصطناعي. في قلب مشروع القانون ، يتعين على شركات الذكاء الاصطناعى تذكير القاصرين بانتظام بأن chatbots هي منظمة العفو الدولية ، وليس البشر ، لمنع الأطفال من أن يصبحوا مدمنين وعزلين ومضللين. يحد مشروع القانون أيضًا من "وضع التفاعل الإدمان" ويتطلب من الشركات تقديم تقارير سنوية إلى وزارة الصحة والصحة في كاليفورنيا ، بما في ذلك عدد الاختبارات الخاصة بالتفكير في الانتحار في المراهقين وعدد الأوقات التي تذكرها Chatbots للموضوع. وتأتي هذه الخطوة في سياق دعوى وفاة كاذبة ضد الشخصية. يعكس إدخال مشروع القانون الاهتمام المتزايد للمجتمع بشأن أمن الدردشة من الذكاء الاصطناعي.
في الآونة الأخيرة ، قدمت كاليفورنيا مشروع قانون يسمى SB243 لحماية الأطفال من المخاطر المحتملة لدردشة الذكاء الاصطناعي. يتطلب مشروع القانون ، الذي أدخله السناتور في كاليفورنيا ستيف باديلا ، شركات الذكاء الاصطناعى أن تذكير القاصرين بانتظام بأن chatbots هي في الواقع ذكاء اصطناعي ، وليس البشر.
الغرض الرئيسي من مشروع القانون هو منع الأطفال من مواجهة الإدمان والعزلة والتضليل عند استخدام chatbots. بالإضافة إلى مطالبة شركات الذكاء الاصطناعى بإصدار تذكيرات منتظمة ، يقيد مشروع القانون الشركات من استخدام "نماذج التفاعل الإدمان" ويتطلب منها تقديم تقارير سنوية إلى وزارة الرعاية الصحية في كاليفورنيا. تحتاج هذه التقارير إلى تضمين عدد اكتشافات التفاصيل الانتحارية للمراهقين ، وعدد مرات Chatbots يذكر هذا الموضوع. بالإضافة إلى ذلك ، تحتاج شركات الذكاء الاصطناعى إلى إبلاغ المستخدمين بأن chatbots قد لا تكون مناسبة لبعض الأطفال.
ترتبط خلفية مشروع القانون ارتباطًا وثيقًا بقضايا الوفاة الخاطئة للوالدين ضد الشخصية. تدعي الدعوى أن مفاتيح الدردشة المخصصة للشركة "خطيرة للغاية" لأن أطفالهم اختاروا في النهاية الانتحار بعد تفاعلات طويلة مع محطات الدردشة. كانت هناك دعوى قضائية أخرى تتهم شركة إرسال "مواد ضارة" للمراهقين. تحقيقًا لهذه الغاية ، أعلنت الحرف. AAI أنها تقوم بتطوير ميزات التحكم في الوالدين وإطلاق نموذج جديد لمنظمة العفو الدولية المصمم لمنع محتوى "حساس أو موحي" لضمان سلامة المراهقين.
وقالت باديلا في مؤتمر صحفي: "أطفالنا ليسوا فئران بيضاء يجربون شركات التكنولوجيا ولا يمكن اختبارها على حساب صحتهم العقلية. نحن بحاجة إلى توفير حماية للمعنى السليم لمستخدمي chatbot لمنع المطورين من استخدامها" من المقرر أن تركز الولايات والحكومات الفيدرالية بشكل متزايد على أمن منصات وسائل التواصل الاجتماعي ، من المتوقع أن تكون الأساليب الإدمانية والفريسية. "
النقاط الرئيسية:
يتطلب مشروع قانون كاليفورنيا الجديد من شركات الذكاء الاصطناعى أن تذكّر الأطفال بأن شات بوت هي ذكاء اصطناعي بدلاً من البشر.
تحتاج شركات الذكاء الاصطناعى إلى تقديم تقارير إلى الحكومة ، والتي تنطوي على التفكير في انتحار الأطفال وتردد الدردشة.
يهدف مشروع القانون إلى حماية الصحة العقلية للأطفال والحد من "أنماط التفاعل الإدمان".
يمثل إدخال قانون SB243 تعزيز إشراف chatbots من الذكاء الاصطناعي ، ويشير أيضًا إلى أن التطوير المستقبلي لتكنولوجيا الذكاء الاصطناعى سيولي المزيد من الاهتمام للأخلاق والأمن. ستكون كيفية تحقيق التوازن بين تطور تقنية الذكاء الاصطناعي مع سلامة الأطفال قضية مهمة يجب الانتباه إليها وحلها في المستقبل.