Ассамблея штата Калифорния недавно приняла громкий законопроект о безопасности ИИ, SB1047, целью которого является регулирование разработки и внедрения крупномасштабных моделей ИИ, что вызвало бурные дискуссии в технологическом сообществе. Суть законопроекта заключается в том, чтобы обязать проводить тщательные испытания на безопасность крупномасштабных моделей искусственного интеллекта, обучение которых обходится более чем в 100 миллионов долларов, и требует создания механизмов аварийной остановки и своевременного оповещения после аварий. Принятие этого законопроекта знаменует собой важный шаг в регулировании безопасности искусственного интеллекта в Калифорнии, и его влияние может распространиться по всей стране и даже миру.
Недавно законодатели Калифорнии приняли спорный законопроект о безопасности искусственного интеллекта, SB1047, который теперь требует лишь окончательного процедурного голосования, прежде чем он будет отправлен на подпись губернатору Калифорнии Гэвину Ньюсому. Продвижение этого законопроекта вызвало ожесточенные дебаты в Кремниевой долине, голоса сторонников и противников переплелись и оказались в центре всеобщего внимания.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и разрешено поставщиком услуг Midjourney.
Сенатор штата Калифорния Скотт Винер представил законопроект, заявив, что он гордится разнообразной коалицией, стоящей за законопроектом, и что все считают, что инновации так же важны, как и безопасность. Он считает, что искусственный интеллект обладает огромным потенциалом изменить мир, и реализация этого законопроекта призвана гарантировать, что этот потенциал можно будет безопасно реализовать.
Технологические гиганты отреагировали неоднозначно, генеральный директор xAI Илон Маск также выразил поддержку. В социальных сетях он отметил, что Калифорнии следует принять SB1047, чтобы предотвратить неправомерное использование искусственного интеллекта. Он упомянул, что поддерживает регулирование искусственного интеллекта более 20 лет и считает, что необходимо регулировать потенциальные риски.
В основе законопроекта лежит требование к компаниям, разрабатывающим крупномасштабные модели искусственного интеллекта (с затратами на обучение, превышающими 100 миллионов долларов), проводить комплексное тестирование безопасности перед выпуском. В то же время законопроект требует от этих компаний создать функции «аварийной остановки» в кризисных ситуациях и сообщить Генеральному прокурору Калифорнии в течение 72 часов после возникновения инцидента безопасности. Недавно созданное «Пограничное модельное бюро» будет отвечать за контроль за соблюдением требований, а за повторные нарушения будут наложены штрафы на сумму до 30 миллионов долларов.
В число его сторонников входят светила в области искусственного интеллекта, такие как Джеффри Хинтон и Йошуа Бенджио, которые считают, что этот законопроект имеет решающее значение для борьбы с рисками искусственного интеллекта и может даже обеспечить установление национальных стандартов безопасности ИИ.
Однако оппоненты считают, что законопроект может препятствовать инновациям и привести к утечке мозгов. Калифорнийские технологические компании, такие как Google, OpenAI и Meta, выразили обеспокоенность по поводу законопроекта, полагая, что малые компании пострадают непропорционально, а также может пострадать технологический прогресс. Замедлять. Они призвали принять правила на федеральном уровне, чтобы избежать несоответствий между штатами.
Законопроект SB1047 был принят Калифорнийским комитетом по ассигнованиям с поправками и теперь ожидает окончательного голосования в Законодательном собрании штата. Если губернатор Калифорнии Ньюсом подпишет законопроект, он станет первым подобным законом о регулировании искусственного интеллекта в Соединенных Штатах и может иметь далеко идущие последствия для мировой технологической индустрии и будущего регулирования искусственного интеллекта.
Выделять:
? ** Законопроект принят **: Калифорнийский законопроект о безопасности искусственного интеллекта SB1047 был принят и ожидает подписи губернатора.
? **Меры безопасности**: Законопроект требует, чтобы дорогостоящие модели искусственного интеллекта прошли испытания на безопасность и были оснащены функциями аварийной остановки.
? **Реакция всех сторон**: Среди технологических гигантов раздаются голоса поддержки и оппозиции, которые обеспокоены влиянием на инновации и утечкой мозгов.
Окончательная судьба законопроекта SB1047 и его влияние на развитие искусственного интеллекта заслуживают постоянного внимания. Это не только связано с технологическим будущим Калифорнии, но также может стать важным примером для глобального регулирования искусственного интеллекта.