Дарио Амодей, генеральный директор AI-стартапа Anthropic стоимостью 19 миллиардов долларов США, недавно выступил с речью о рисках развития искусственного интеллекта на конференции AI в Сан-Франциско, вызвав бурные дискуссии. Он и венчурный капиталист Марк Андриссен существенно расходятся во взглядах на риски ИИ. Амодей считает, что упрощение ИИ как «математики» является логической ошибкой, и критикует некоторых людей за преуменьшение рисков ИИ. Он считает, что, хотя текущие угрозы моделям ИИ ограничены, с быстрым развитием технологий ИИ, особенно с появлением агентов ИИ, которые выполняют команды автономно, потенциальные риски нельзя игнорировать, и необходимо создать более эффективные механизмы контроля. Это вызвало углубленную дискуссию о безопасности и регулировании ИИ.
Дарио Амодей, генеральный директор Anthropic, стартапа в области искусственного интеллекта стоимостью 19 миллиардов долларов, дал пищу для размышлений о рисках развития искусственного интеллекта на конференции AI в Сан-Франциско в среду. Хотя он считает, что нынешние модели ИИ не представляют непосредственной угрозы человечеству, он резко раскритиковал некоторых коллег за чрезмерное преуменьшение рисков ИИ.
Amodei запустил уникальный анализ, основанный на взглядах известного венчурного капиталиста Марка Андриссена. В марте этого года Андриссен написал в Твиттере, что «ограничение ИИ эквивалентно ограничению математики, программного обеспечения и микросхем», и просто приписал ИИ «математике». В связи с этим Амодей отметил, что такая логика в корне ошибочна. «Если использовать эту логику, разве человеческий мозг не является тоже математикой? Зажигание и расчет нейронов — это тоже математика. Согласно этому утверждению, нам не следует даже бояться Гитлера, потому что это всего лишь математика. Вся Вселенная может свести к математике»
Будучи бывшим вице-президентом OpenAI, Амодей ушел в 2021 году и основал Anthropic. Он принадлежит к группе технологических руководителей, которые публично предупреждают о потенциальных рисках ИИ и поддерживают умеренное регулирование отрасли ИИ. Фактически, Anthropic также поддержал законопроект о регулировании искусственного интеллекта в Калифорнии, хотя в конечном итоге этот законопроект был отклонен.
Напротив, Андриссен инвестировал в ряд компаний, занимающихся искусственным интеллектом, включая OpenAI и Xai. Он настаивает на том, что технология ИИ должна развиваться без ограничений, даже называя группу предупреждения о безопасности ИИ «культом» и полагает, что надзор за ИИ приведет к «новому тоталитаризму».
Хотя Амодей признал, что нынешние модели ИИ «недостаточно умны и автономны», чтобы представлять серьезную угрозу для людей, он подчеркнул, что технологии ИИ быстро развиваются. Особенно с появлением «агентов» ИИ, способных автономно выполнять команды человека, общественность станет лучше осведомлена о возможностях ИИ и его потенциальном вреде.
«Сейчас люди могут смеяться над непредсказуемым поведением чат-ботов, — сказал Амодей, — но для будущих агентов ИИ нам придется создать более совершенные механизмы контроля».
Эти дебаты не только отражают различия в вопросах безопасности в сообществе ИИ, но также подчеркивают важность поиска баланса между инновациями и контролем по мере быстрого развития ИИ. Хотя технологии быстро развиваются, рациональная оценка и предотвращение потенциальных рисков будут ключом к обеспечению здорового развития ИИ.
Взгляды Амодеи заставили задуматься о будущем направлении развития ИИ, а также напомнили нам, что, хотя технологии ИИ развиваются быстрыми темпами, нам необходимо обращать внимание на потенциальные риски, искать баланс между инновациями и контролем, а также обеспечивать, чтобы ИИ приносит пользу человечеству.