Google недавно обновил условия использования генеративного ИИ, разрешив клиентам использовать инструменты генеративного ИИ для принятия автоматизированных решений в областях повышенного риска, таких как медицинское обслуживание и трудоустройство, но только под контролем человека. Этот шаг вызвал в отрасли дискуссии о применении ИИ в областях повышенного риска и обеспокоенность по поводу соответствующего надзора. Этот шаг Google контрастирует с шагами его конкурентов OpenAI и Anthropic, которые имеют более строгие ограничения на автоматическое принятие решений. Это обновление также подчеркивает острую необходимость регулирования ИИ во всем мире и проблему баланса между инновациями в области ИИ и потенциальными рисками.
Google недавно обновил свои условия использования генеративного ИИ, прямо разрешив клиентам использовать его инструменты генеративного ИИ для «автоматического принятия решений» в областях «высокого риска», таких как здравоохранение и занятость, при условии, что требуется контроль со стороны человека. Это изменение отражено в недавно опубликованной политике компании, запрещающей использование генеративного искусственного интеллекта.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
В соответствии с обновленной политикой клиенты могут использовать генеративный искусственный интеллект Google под наблюдением для принятия автоматизированных решений, которые могут оказать «существенное неблагоприятное воздействие» на права человека. К этим областям повышенного риска относятся занятость, жилье, страхование, социальное обеспечение и т. д. Предыдущие условия, казалось, предусматривали полный запрет на автоматизированное принятие решений с высоким уровнем риска, но Google заявил, что фактически с самого начала разрешил использование генеративного искусственного интеллекта для таких решений под наблюдением человека.
Представитель Google ответил СМИ, заявив: «Требование к человеческому надзору всегда существовало в нашей политике и охватывает все области высокого риска. Мы только что переклассифицировали некоторые термины и перечислили некоторые примеры более четко, чтобы пользователи могли их понять».
По сравнению с подходом Google, основные конкуренты Google, такие как OpenAI и Anthropic, имеют более строгие правила в отношении автоматизированного принятия решений с высокими ставками. OpenAI запрещает использование своих сервисов для автоматизированных решений, связанных с кредитами, трудоустройством, жильем, образованием, социальным рейтингом и страхованием. Anthropic позволяет своему ИИ принимать автоматизированные решения в областях повышенного риска, таких как юриспруденция, страхование и медицинское обслуживание, но только под наблюдением «квалифицированных специалистов» и требует от клиентов четко информировать об использовании ИИ для таких решений.
Что касается систем искусственного интеллекта для автоматизированного принятия решений, регулирующие органы выразили обеспокоенность тем, что такие технологии могут привести к предвзятым результатам. Например, исследования показывают, что ИИ может увековечить историческую дискриминацию при одобрении заявок на получение кредита и ипотеки.
Хьюман Райтс Вотч и другие некоммерческие организации специально призвали запретить системы «социального рейтинга», утверждая, что они угрожают доступу людей к социальному обеспечению, могут вторгаться в частную жизнь и создавать предвзятое профилирование.
В ЕС системы искусственного интеллекта с высоким уровнем риска, в том числе связанные с личными кредитными и трудовыми решениями, подвергаются строжайшему надзору в соответствии с Законом об искусственном интеллекте. Поставщики этих систем должны, среди прочего, регистрироваться в базах данных, осуществлять управление качеством и рисками, нанимать людей-контролеров и сообщать об инцидентах в соответствующие органы.
В Соединенных Штатах Колорадо недавно принял закон, требующий от разработчиков ИИ раскрывать информацию о системах ИИ «высокого риска» и публиковать сводку возможностей и ограничений системы. Между тем, город Нью-Йорк запрещает работодателям использовать автоматизированные инструменты для проверки кандидатов, если только этот инструмент не прошел проверку на предвзятость в течение прошлого года.
Выделять:
Google разрешает использовать генеративный искусственный интеллект в зонах повышенного риска, но требует человеческого контроля.
Другие компании, занимающиеся искусственным интеллектом, такие как OpenAI и Anthropic, имеют более строгие ограничения на решения с высоким уровнем риска.
Регулирующие органы в различных странах пересматривают системы искусственного интеллекта для автоматического принятия решений, чтобы предотвратить предвзятые результаты.
Обновление Google условий использования генеративного ИИ вызвало широкое обсуждение вопросов этики и регулирования ИИ. Правительства и учреждения по всему миру также активно изучают, как лучше регулировать технологию ИИ, чтобы обеспечить ее безопасное и ответственное развитие. В будущем применение ИИ в сферах повышенного риска будет подвергаться более строгому контролю и надзору.