Baru -baru ini, Senator California Steve Padilla memperkenalkan RUU SB243 untuk melindungi anak -anak dari potensi bahaya hingga chatbots kecerdasan buatan. Di jantung tagihan, perusahaan AI diharuskan mengingatkan anak di bawah umur bahwa chatbots adalah AI, bukan manusia, untuk mencegah anak -anak menjadi kecanduan, terisolasi dan menyesatkan. RUU ini juga membatasi "mode interaksi kecanduan" dan mengharuskan perusahaan untuk menyerahkan laporan tahunan ke Departemen Kesehatan dan Layanan Kesehatan California, termasuk jumlah tes untuk ide bunuh diri remaja dan berapa kali chatbot menyebutkan topik tersebut. Langkah ini datang dalam konteks gugatan kematian palsu terhadap Character.ai, yang menuduh chatbot bunuh diri pada anak -anak. Pengenalan RUU tersebut mencerminkan kekhawatiran masyarakat yang semakin besar tentang keamanan AI Chatbots.
Baru -baru ini, California memperkenalkan RUU yang disebut SB243 untuk melindungi anak -anak dari potensi risiko chatbots kecerdasan buatan. RUU itu, yang diperkenalkan oleh Senator California Steve Padilla, terutama mengharuskan perusahaan AI untuk secara teratur mengingatkan anak di bawah umur bahwa chatbots sebenarnya adalah kecerdasan buatan, bukan manusia.
Tujuan utama dari RUU ini adalah untuk mencegah anak -anak mengalami kecanduan, isolasi dan menyesatkan saat menggunakan chatbots. Selain mengharuskan perusahaan AI untuk mengeluarkan pengingat reguler, RUU ini membatasi perusahaan dari menggunakan "model interaksi kecanduan" dan mengharuskan mereka untuk menyerahkan laporan tahunan ke Departemen Layanan Perawatan Kesehatan California. Laporan -laporan ini perlu memasukkan jumlah deteksi ide bunuh diri remaja, dan berapa kali chatbot menyebutkan topik ini. Selain itu, perusahaan AI perlu memberi tahu pengguna bahwa chatbot mereka mungkin tidak cocok untuk anak -anak tertentu.
Latar belakang RUU tersebut terkait erat dengan gugatan kematian palsu orang tua terhadap Character.ai. Gugatan mengklaim chatbots AI yang disesuaikan perusahaan "sangat berbahaya" karena anak -anak mereka akhirnya memilih untuk bunuh diri setelah interaksi panjang dengan chatbots. Ada gugatan lain yang menuduh perusahaan mengirim "bahan berbahaya" kepada remaja. Untuk tujuan ini, Character.ai mengumumkan bahwa mereka mengembangkan fitur kontrol orang tua dan meluncurkan model AI baru yang dirancang untuk memblokir konten "sensitif atau sugestif" untuk memastikan keamanan remaja.
"Anak -anak kami bukan tikus kulit putih yang bereksperimen dengan perusahaan teknologi dan tidak dapat diuji dengan biaya kesehatan mental mereka. Kami perlu memberikan perlindungan akal sehat bagi pengguna chatbot untuk mencegah pengembang menggunakannya," kata Padilla dalam konferensi pers Pendekatan adiktif dan predator. ”Karena negara bagian dan pemerintah federal semakin fokus pada keamanan platform media sosial, AI Chatbots diharapkan menjadi fokus berikutnya dari anggota parlemen.
Poin -Poin Kunci:
RUU baru California mengharuskan perusahaan AI untuk mengingatkan anak -anak bahwa chatbots adalah kecerdasan buatan daripada manusia.
Perusahaan AI perlu menyerahkan laporan kepada pemerintah, yang melibatkan ide bunuh diri dan frekuensi obrolan anak -anak.
RUU ini bertujuan untuk melindungi kesehatan mental anak -anak dan membatasi "pola interaksi kecanduan."
Pengenalan Undang -Undang SB243 menandai penguatan pengawasan AI Chatbots, dan juga menunjukkan bahwa pengembangan teknologi AI di masa depan akan lebih memperhatikan etika dan keamanan. Bagaimana menyeimbangkan pengembangan teknologi AI dengan keselamatan anak -anak akan menjadi masalah penting yang perlu diperhatikan dan diselesaikan di masa depan.