Google недавно обновил свои условия использования генеративного ИИ, чтобы четко определить приложения ИИ в областях «высокого риска», таких как здравоохранение. Новые условия позволяют клиентам использовать генеративный искусственный интеллект Google для автоматического принятия решений в этих областях, но только под контролем человека. Этот шаг вызвал обеспокоенность в сфере ИИ, поскольку он связан с применением ИИ при принятии важных решений, а также с соображениями потенциальной предвзятости и этических проблем. Этот шаг Google в определенной степени отвечает на обеспокоенность общества по поводу приложений искусственного интеллекта и отражает его усилия по балансированию приложений технологий искусственного интеллекта и управления рисками.
Google недавно обновил свои условия использования генеративного ИИ, уточнив, что клиенты могут использовать инструменты генеративного ИИ для «автоматического принятия решений» в областях «высокого риска», таких как здравоохранение, но только под контролем человека. Согласно последней версии «Политики запрещенного использования генеративного ИИ» Google, опубликованной во вторник, клиенты могут использовать генеративный ИИ Google для принятия «автоматических решений», которые могут оказать «существенное неблагоприятное воздействие» на права человека. Клиенты могут использовать генеративный искусственный интеллект Google для принятия решений о трудоустройстве, жилье, страховании, социальном обеспечении и других областях «высокого риска», при условии, что существует определенная форма человеческого контроля. В области искусственного интеллекта под автоматическим принятием решений понимаются решения, принимаемые системами искусственного интеллекта на основе фактических и предполагаемых данных. Например, система может автоматически решить, одобрять ли заявку на получение кредита или проверять кандидатов на работу. Ранее проект условий Google намекал на полный запрет на использование генеративного искусственного интеллекта компании в автоматизированном принятии решений. Но Google сообщил TechCrunch, что клиенты всегда могут использовать генеративный искусственный интеллект для автоматизации решений, даже для приложений с высоким уровнем риска, при условии контроля со стороны человека. «Как и во всех областях высокого риска, наши требования к человеческому надзору всегда присутствуют в нашей политике», — сказал представитель Google, когда с нами связались по электронной почте. «Мы переклассифицируем некоторые пункты [в условиях] и перечисляем их более четко. Приведите несколько примеров. чтобы дать клиентам более четкую картину: «Основные конкуренты Google в области ИИ, OpenAI и Anthropic, имеют более строгие правила использования ИИ в автоматизированном принятии решений. Например, OpenAI запрещает использование своих сервисов для автоматизированных решений, связанных с кредитами, трудоустройством, жильем, образованием, социальным рейтингом и страхованием. Anthropic позволяет использовать свой ИИ для автоматизации принятия решений в юриспруденции, страховании, здравоохранении и других областях повышенного риска, но только в том случае, если он контролируется «квалифицированным специалистом» и требует от клиентов раскрытия информации о том, что они используют ИИ. для этой цели. Искусственный интеллект, который автоматизирует принятие решений, затрагивающих отдельных людей, оказался под пристальным вниманием регулирующих органов, которые выразили обеспокоенность по поводу предвзятых результатов, которые может создать технология. Исследования показывают, что ИИ, используемый, например, для одобрения заявок на кредит и ипотеку, может увековечить историческую дискриминацию. Некоммерческая организация Human Rights Watch призвала запретить системы «социального рейтинга», которые, по ее словам, могут подорвать доступ людей к социальной поддержке, поставить под угрозу их конфиденциальность и предвзято профилировать их. Системы искусственного интеллекта высокого риска, в том числе те, которые принимают решения о личном кредите и трудоустройстве, подвергаются строжайшему регулированию в соответствии с Законом ЕС об искусственном интеллекте. Поставщики этих систем, помимо прочих требований, должны регистрироваться в базе данных, осуществлять управление качеством и рисками, нанимать людей-контролеров и сообщать об инцидентах в соответствующие органы. В Соединенных Штатах Колорадо недавно принял закон, требующий от разработчиков ИИ раскрывать информацию о системах ИИ «высокого риска» и публиковать заявление, в котором обобщаются возможности и ограничения системы. Между тем, город Нью-Йорк запрещает работодателям использовать автоматизированные инструменты для проверки кандидатов на предмет принятия решений о приеме на работу, если только этот инструмент не был проверен на предмет предвзятости в течение предыдущего года. На этот раз Google уточнила условия использования ИИ, указав на отношение компании к надзору за приложениями ИИ. Разрешение автоматического принятия решений в областях повышенного риска, но подчеркивание важности ручного контроля не только отражает потенциал применения технологий искусственного интеллекта, но и отражает бдительность в отношении потенциальных рисков.
Обновление Google условий использования ИИ, хотя и делает акцент на ручном контроле, также отражает проблемы и исследования, с которыми технологические компании сталкиваются в управлении ИИ. Как сбалансировать инновации и риски в контексте быстрого развития технологий искусственного интеллекта станет важным вопросом, требующим постоянного внимания в будущем.