Недавно сенатор из Калифорнии Стив Падилла представил законопроект SB243, чтобы защитить детей от потенциального вреда для чат -ботов искусственного интеллекта. В основе законопроекта компании ИИ должны регулярно напоминать несовершеннолетним, что чат -боты - это ИИ, а не люди, чтобы дети не стали зависимыми, изолированными и вводящими в заблуждение. В законопроекте также ограничивается «режим взаимодействия с зависимостью» и требует, чтобы компании представили годовые отчеты в Калифорнийский министерство здравоохранения и здравоохранения, включая количество тестов на идеи самоубийства подростков и количество чат -ботов, когда чат -боты упоминают эту тему. Этот шаг происходит в контексте судебного иска о ложной смерти против характера. Ай, который обвинил его чат -бот в самоубийстве у детей. Внедрение законопроекта отражает растущую обеспокоенность общества по поводу безопасности чат -ботов ИИ.
Недавно в Калифорнии внес законопроект под названием SB243 для защиты детей от потенциальных рисков чат -ботов искусственного интеллекта. Законопроект, введенный сенатором Калифорнии Стивом Падиллой, в основном требует, чтобы компании ИИ регулярно напоминали несовершеннолетним, что чат -боты на самом деле являются искусственным интеллектом, а не людьми.
Центральной целью законопроекта является предотвращение того, чтобы дети не сталкивались с зависимостью, изоляцией и вводящей в заблуждение при использовании чат -ботов. В дополнение к требованию компании ИИ выдавать регулярные напоминания, законопроект ограничивает компании использование «моделей взаимодействия с зависимостью» и требует, чтобы они представили годовые отчеты в Департамент здравоохранения Калифорнии. Эти отчеты должны включать количество обнаружений суицидальных представлений подростков, и количество чат -ботов упоминается по этой теме. Кроме того, компании ИИ должны информировать пользователей, что их чат -боты могут не подходить для определенных детей.
Фон законопроекта тесно связана с иском о ложной смерти родителей против характера. В иске утверждается, что индивидуальные чат -боты компании «чрезвычайно опасны», потому что их дети в конечном итоге решили покончить с собой после долгого взаимодействия с чат -ботами. Был еще один иск, обвиняющий компанию в отправке «вредных материалов» подросткам. С этой целью персонажа. AI объявила, что разрабатывает функции родительского контроля и запускает новую модель искусственного интеллекта, предназначенную для блокировки «чувствительного или наводящего на размышления контента для обеспечения безопасности подростков.
«Наши дети не являются белыми мышами, экспериментирующими с технологическими компаниями, и не могут быть проверены за счет своего психического здоровья. Мы должны обеспечить защиту здравого смысла для пользователей чата, чтобы не дать разработчикам использовать их», - сказала Падилла на пресс -конференции Привыкание и хищнические подходы ». Поскольку штаты и федеральные правительства все больше сосредоточены на безопасности социальных сетей, ожидается, что чат -боты ИИ будут следующим направлением законодателей.
Ключевые моменты:
Новый законопроект Калифорнии требует, чтобы компании ИИ напомнили детям, что чат -боты - это искусственный интеллект, а не люди.
Компании ИИ должны представить отчеты правительству, включающие идеи самоубийства детей и частоту чата.
Законопроект направлен на защиту психического здоровья детей и ограничение «моделей взаимодействия с зависимостью».
Внедрение Закона SB243 знаменует собой укрепление надзора за чат -ботами ИИ, а также указывает на то, что будущее развитие технологии ИИ будет уделять больше внимания этике и безопасности. Как сбалансировать разработку технологии ИИ с безопасностью детей, будет важной проблемой, на которую необходимо обратить внимание и решить в будущем.