Недавно Google выпустил предупреждение о безопасности, указывая на то, что APT -организации, поддерживаемые несколькими странами, используют своего ассистента по искусственному интеллекту Gemini для расширения возможностей кибератак. Вместо того, чтобы непосредственно запускать атаки с Близнецами, эти организации используют свои эффективные вспомогательные функции, такие как исследование уязвимости, разведка цели и разработку инструментов, чтобы сократить время подготовки атаки и повысить эффективность атаки. Это подчеркивает двойной эффект меча, вызванный генеративной технологией ИИ в области сетевой безопасности, что может не только повысить производительность, но и быть злонамеренно эксплуатируется.
Группа Google Wreath Intelligence (GTIG) обнаружила, что APT -организации из более чем 20 стран активно пробуют Близнецы, а хакерство в Иране и Китае является наиболее выдающимся. Они используют Близнецы для оказания помощи в разработке инструментов и сценариев, изучении общественных уязвимостей, перевода технических документов, поиска целевых организаций и поиска способов избежать обнаружения. Иранские хакеры используют Близнецы для проведения разведки со стороны оборонных организаций и международных экспертов, изучения известных уязвимостей и развития фишинговых мероприятий; Уместные организации Северной Кореи также активно используют Близнецы, охватывают множественные этапы жизненного цикла атаки и даже используют его, чтобы помочь ИТ -работникам Северной Кореи планировать подделить личности для получения рабочих мест в западных компаниях. Российские хакеры используют Близнецы относительно мало, сосредоточившись в основном на помощь сценарию и перевод, что может быть связано с его предпочтениями или соображениями безопасности для нативных моделей искусственного интеллекта. Хотя хакеры пытались использовать общественные джейлбрейки для борьбы с Близнецами, ни одна из этих попыток не преуспела. Это также отражает серьезность нынешнего злоупотребления генеративными инструментами искусственного интеллекта и новых проблемах безопасности, вызванных расширением рынка ИИ.
Например, иранские хакеры используют Близнецы для различных видов деятельности, включая разведку в оборонных организациях и международных экспертах, исследование известных уязвимостей, развитие фишинговых мероприятий и создание контента для эксплуатации. Кроме того, они также используют Близнецы для перевода и интерпретации военных технологий, охватывающих такие области, как беспилотники и системы противоракетной обороны.
Тем временем хакеры, поддерживаемые китайцами, сосредоточены на разведке военных и государственных учреждений США, используя Близнецы для проведения исследований уязвимости, сценариев и эскалации разрешений. Они также исследуют, как получить доступ к Microsoft Exchange через хешинг пароля, и даже реверс -инженер некоторых инструментов безопасности.
Краткие организации Северной Кореи также активно используют Близнецы, чтобы охватить множество этапов жизненного цикла атаки, изучая услуги бесплатного хостинга, проводя целевую разведку и разработку вредоносных программ. Они также использовали Близнецы, чтобы помочь ИТ -работникам Северной Кореи в разработке заявок на работу для получения рабочих мест от западных компаний в ложной личности.
Напротив, российские хакеры меньше используют Близнецы, сосредотачиваясь главным образом на сценарии и переводе. Их деятельность показывает предпочтение моделей искусственного интеллекта, разработанных локально, или избегать западных инструментов по соображениям безопасности.
Стоит отметить, что, хотя хакеры пытались использовать общественные джейлбрейки для борьбы с Близнецами, эти попытки оказались безуспешными. Это также отражает злоупотребление инструментами генеративного искусственного интеллекта на текущем рынке. По мере того, как рынок ИИ постепенно расширяется, количество моделей, не имеющих мер по защите, также увеличилось, что привело к новым проблемам в кибербезопасность.
Предупреждение Google напоминает нам, что, хотя технология искусственного интеллекта приносит удобство, это также приносит новые риски для сетевой безопасности. Необходимо укрепить меры защиты для моделей искусственного интеллекта и сформулировать соответствующие стратегии безопасности для борьбы со все более сложными киберугрозами.