Редактор Downcodes узнал, что Microsoft недавно выпустила официальный документ, посвященный злонамеренному использованию генеративного искусственного интеллекта. В докладе показано, что ИИ используется в серьезных преступных действиях, таких как мошенничество, производство материалов о сексуальном насилии над детьми, манипулирование выборами и создание непроизвольных частных изображений, подчеркивая, что эти проблемы представляют собой не только технические проблемы, но и представляют собой серьезную угрозу для общества. Microsoft призывает к глобальному сотрудничеству для совместного устранения рисков, связанных с ИИ.
Microsoft недавно выпустила официальный документ, в котором представлен углубленный анализ злонамеренного использования генеративного искусственного интеллекта (ИИ), включая мошенничество, материалы о сексуальном насилии над детьми, манипулирование выборами и частные изображения без согласия. В компании подчеркнули, что эти проблемы являются не только техническими вызовами, но и серьезной угрозой для общества.
Согласно официальному документу Microsoft, преступники все чаще используют возможности генеративного искусственного интеллекта для совершения гнусных преступлений. К ним относятся использование дезинформации, созданной искусственным интеллектом, для мошенничества, создание материалов о сексуальном насилии над детьми, манипулирование выборами с помощью технологии дипфейков, а также создание интимных изображений без согласия, которые особенно нацелены на женщин. «Мы никогда не должны забывать, что неправильное использование ИИ имеет серьезные последствия для реальных людей», — сказал Хью Миллуорд, вице-президент Microsoft по внешним связям.
В официальном документе, адресованном конкретно политикам Великобритании, предлагается комплексный набор решений, основанный на шести основных элементах, для решения вышеуказанных проблем. Шесть элементов включают в себя: надежную архитектуру безопасности, постоянные источники средств массовой информации и инструменты водяных знаков, модернизированные законы для защиты общественности, тесное сотрудничество между промышленностью, правительством и гражданским обществом, защиту от неправомерного использования услуг и государственное образование.
В конкретных рекомендациях для политиков Великобритании Microsoft призывает поставщиков систем искусственного интеллекта обязать информировать пользователей о том, что контент генерируется искусственным интеллектом, когда пользователи взаимодействуют с системами искусственного интеллекта. Кроме того, Microsoft рекомендует внедрить расширенные инструменты маркировки источников для маркировки синтетического контента, а правительствам также следует подавать пример, проводя проверку подлинности своего медиаконтента. Microsoft также подчеркнула, что необходимы новые законы, запрещающие мошенничество с помощью инструментов искусственного интеллекта для защиты честности выборов. В то же время необходимо также укрепить правовую базу для защиты детей и женщин от онлайн-эксплуатации, в том числе путем криминализации производства сексуальных дипфейков.
Microsoft также отметила, что важно хранить технологию метаданных, которая указывает, был ли носитель создан искусственным интеллектом. Подобные проекты уже реализуются такими компаниями, как Adobe, целью которых является помочь людям определить происхождение изображений. Однако Microsoft считает, что такие стандарты, как Content Credentials, требуют политических мер и осведомленности общественности, чтобы быть эффективными.
Кроме того, Microsoft работает с такими организациями, как StopNCII.org, над разработкой инструментов для обнаружения и удаления оскорбительных изображений. Жертвы могут подать апелляцию через центральный портал отчетности Microsoft. Молодым людям дополнительная поддержка оказывается через сервис Take It Down, предоставляемый Национальным центром пропавших и эксплуатируемых детей. Миллуорд сказал: «Неправильное использование ИИ, вероятно, станет долгосрочной проблемой, поэтому нам необходимо удвоить наши усилия и творчески работать с технологическими компаниями, благотворительными партнерами, гражданским обществом и правительствами для решения этой проблемы. Мы не можем справиться с этой проблемой в одиночку». "
В этом официальном документе Microsoft содержится ценная информация по борьбе с вредоносными приложениями генеративного ИИ, подчеркивается важность технического, юридического и социального сотрудничества, а также указывается важное направление для будущего управления ИИ. Только объединив усилия нескольких сторон, мы сможем эффективно справиться с рисками, связанными с ИИ, и обеспечить социальную безопасность и стабильность.