В последнее время вопросам безопасности моделей ИИ уделяется все больше внимания. Исследователи из Университета штата Северная Каролина совершили крупный прорыв, разработав метод извлечения моделей искусственного интеллекта путем захвата электромагнитных сигналов с компьютеров с точностью более 99%. Это открытие вызвало обеспокоенность в отрасли по поводу защиты прав интеллектуальной собственности на модели ИИ, особенно в контексте того, что такие компании, как OpenAI, Anthropic и Google, вложили значительные средства в разработку собственных моделей. В статье исследуется потенциальное влияние этой новой технологии и то, как предприятия могут реагировать на растущий риск кражи моделей ИИ, а также анализируются соответствующие меры безопасности и будущие тенденции развития.
Недавно исследователи из Университета штата Северная Каролина предложили новый метод извлечения моделей искусственного интеллекта (ИИ) путем улавливания электромагнитных сигналов, излучаемых компьютерами, с точностью более 99%. Это открытие может стать проблемой для коммерческой разработки искусственного интеллекта, особенно с учетом того, что такие компании, как OpenAI, Anthropic и Google, вложили значительные средства в запатентованные модели. Однако эксперты отмечают, что фактическое влияние этой технологии на реальную жизнь, а также меры защиты остаются неясными.
Ларс Найман, директор по маркетингу CUDO Compute, сказал, что кража ИИ — это не только потеря самой модели, но также может спровоцировать серию цепных реакций, например, когда конкуренты используют многолетние результаты исследований и разработок, а регулирующие органы расследуют интеллектуальные права собственности и даже судебные иски со стороны клиентов, обнаруживших, что их «уникальность» ИИ не уникальна. Эта ситуация может привести к тому, что в отрасли начнут проводить стандартизированные аудиты, такие как сертификация SOC2 или ISO, чтобы отличать безопасные компании от безответственных.
В последние годы угроза хакерских атак на модели ИИ становится все более серьезной. Зависимость делового мира от искусственного интеллекта делает эту проблему еще более острой. Недавние отчеты показывают, что тысячи вредоносных файлов были загружены в Hugging Face, ключевой репозиторий инструментов искусственного интеллекта, серьезно скомпрометировав модели, используемые в таких отраслях, как розничная торговля, логистика и финансы. Эксперты по национальной безопасности предупреждают, что слабые меры безопасности могут подвергнуть проприетарные системы риску кражи, о чем свидетельствует недостаток безопасности OpenAI. Украденные модели ИИ могут быть перепроектированы или проданы, что снизит инвестиции бизнеса и доверие, позволяя конкурентам быстро догнать их.
Исследовательская группа Университета штата Северная Каролина раскрыла ключевую информацию о структуре модели, поместив зонд рядом с процессором тензора ребер Google (TPU) и проанализировав его сигнал. Этот метод атаки не требует прямого доступа к системе, что подвергает интеллектуальную собственность ИИ серьезному риску безопасности. Соавтор исследования Айдын Айсу, доцент кафедры электротехники и вычислительной техники, подчеркнул, что построение модели ИИ обходится дорого и требует много вычислительных ресурсов, поэтому крайне важно предотвратить кражу модели.
Поскольку технология искусственного интеллекта становится все более широко используемой, компаниям необходимо пересмотреть часть оборудования, используемого для обработки искусственного интеллекта. Консультант по технологиям Суриэль Арельяно считает, что компании могут перейти к более централизованным и безопасным вычислениям или рассмотреть альтернативные технологии, менее подверженные краже. Хотя риск кражи существует, ИИ также повышает кибербезопасность, повышает эффективность реагирования за счет автоматического обнаружения угроз и анализа данных, помогая выявлять потенциальные угрозы и учиться реагировать на новые атаки.
Выделять:
Исследователи продемонстрировали метод извлечения моделей ИИ путем улавливания электромагнитных сигналов с точностью более 99%.
Кража модели ИИ может привести к тому, что конкуренты воспользуются многолетними результатами исследований и разработок компании, что повлияет на безопасность бизнеса.
Предприятиям необходимо усилить защиту моделей ИИ, чтобы противостоять растущей угрозе хакерских атак.
В целом, безопасность моделей искусственного интеллекта стала в центре внимания предприятий. Столкнувшись со все более сложными угрозами кибербезопасности, предприятиям необходимо активно принимать меры по усилению защиты моделей ИИ и изучать более безопасные технологии ИИ для защиты своих прав интеллектуальной собственности и коммерческих интересов.