В последнем отчете Gartner говорится, что ИИ стал крупнейшим риском кибербезопасности, с которым сталкиваются предприятия в течение трех кварталов подряд, и 80% опрошенных руководителей глубоко обеспокоены этим. Редактор Downcodes интерпретирует для вас содержание отчета, анализирует, как ИИ используется в кибератаках и как предприятиям следует реагировать на эту все более серьезную проблему. В этой статье мы углубимся в применение ИИ при написании вредоносных программ, создании фишинговых писем и распределенных атаках типа «отказ в обслуживании», а также проанализируем последние результаты охранных компаний и исследовательских институтов.
Согласно последнему отчету, опубликованному Gartner, применение искусственного интеллекта (ИИ) в кибератаках стало самым большим риском, с которым сталкиваются предприятия уже три квартала подряд.
В период с июля по сентябрь консалтинговая фирма опросила 286 старших руководителей по рискам и аудиту и обнаружила, что 80% респондентов выразили глубокую обеспокоенность по поводу вредоносных атак с использованием искусственного интеллекта. Эта тенденция неудивительна, поскольку есть свидетельства роста числа кибератак с использованием ИИ.
Примечание к источнику изображения: изображение генерируется искусственным интеллектом и поставщиком услуг авторизации изображений Midjourney.
Другие новые риски, перечисленные в отчете, включают дезинформацию с помощью искусственного интеллекта, растущую политическую поляризацию и несоответствующее распределение талантов в организациях. Злоумышленники используют ИИ для написания вредоносных программ, создания фишинговых писем и многого другого. Взяв за пример HP, исследователи в июне перехватили рассылку по электронной почте, распространяющую вредоносное ПО, и заподозрили, что сценарий был написан с помощью генеративного искусственного интеллекта. Скрипт четко структурирован и каждая команда комментируется, что нетипично для написания человеком.
По данным охранной компании Vipre, во втором квартале 2023 года количество мошенничеств с деловой электронной почтой выросло на 20% по сравнению с аналогичным периодом прошлого года, из которых почти 50% были сгенерированы искусственным интеллектом. Главными целями стали генеральные директора, сотрудники отдела кадров и ИТ. Усман Чоудхари, директор по продуктам и технологиям Vipre, сказал, что преступники используют сложные алгоритмы искусственного интеллекта для создания убедительных фишинговых писем, имитирующих тон и стиль законных сообщений.
Кроме того, согласно отчету Imperva Threat Research, с апреля по сентябрь розничные веб-сайты подвергались в среднем 569 884 атакам с использованием искусственного интеллекта в день. Исследователи отметили, что такие инструменты, как ChatGPT, Claude и Gemini, а также боты, которые специализируются на сканировании данных веб-сайтов для обучения больших языковых моделей, используются для проведения таких действий, как распределенные атаки типа «отказ в обслуживании» и злоупотребление бизнес-логикой.
Все большее число этических хакеров также признаются в использовании генеративного искусственного интеллекта: их доля выросла до 77% с 64% в прошлом году. По словам исследователей, ИИ может помочь в многоканальных атаках, атаках с внедрением ошибок и автоматических атаках, которые одновременно атакуют несколько устройств. Точно так же, если «хорошие парни» найдут ИИ полезным, «плохие парни» тоже воспользуются этой технологией.
Рост популярности ИИ неудивителен, поскольку он снизил порог киберпреступности, позволяя преступникам с более низкими техническими навыками использовать ИИ для создания глубоких фейков, сканирования сетевых входов, проведения разведки и многого другого. Исследователи из Швейцарского федерального технологического института недавно разработали модель, которая может на 100% решить проблему Google reCAPTCHA v2. Аналитики охранной компании Radware в начале года прогнозировали, что появление частных моделей GPT будет использоваться в злонамеренных целях и что число уязвимостей нулевого дня и дипфейковых мошенничеств увеличится.
Gartner также отметила, что впервые критические проблемы поставщиков ИТ-услуг находятся в списке внимания руководителей. Закари Гинзбург, старший директор по рискам и аудиту компании Gartner, сказал, что клиенты, которые в значительной степени полагаются на одного поставщика, могут столкнуться с более высокими рисками. Как и июльский инцидент с dStrike, который парализовал 8,5 миллионов устройств Windows по всему миру, он оказал огромное влияние на службы экстренной помощи, аэропорты и правоохранительные органы.
В целом, эффект обоюдоострого меча технологии искусственного интеллекта наиболее ярко отражается в сфере сетевой безопасности. Предприятиям необходимо активно принимать защитные меры, такие как усиление обучения безопасности, внедрение многофакторной аутентификации и внедрение передовых технологий обнаружения угроз, чтобы эффективно противостоять кибератакам с использованием искусственного интеллекта. В будущем крайне важно продолжать обращать внимание на тенденции развития безопасности ИИ и активно изучать стратегии реагирования.