Быстрое развитие технологий искусственного интеллекта принесло много удобств в жизнь людей, но оно также принесло и новые проблемы. Особенно в области сетевой безопасности технология искусственного интеллекта используется преступниками для создания различных новых методов мошенничества, что приводит к огромным экономическим потерям и угрозам безопасности общества. Редактор Downcodes поможет вам понять, как технология искусственного интеллекта используется для мошенничества и как бороться с этими новыми угрозами безопасности.
Хотя вы все еще беспокоитесь о том, заменит ли ChatGPT вашу работу однажды в будущем, и думаете о том, как использовать искусственный интеллект для повышения эффективности работы, есть группа людей, которые уже заработали много денег, полагаясь на эту новую технологию.
Они... лжецы.
Выманили 4,3 миллиона за 10 минут,
Первая группа людей, разбогатевших благодаря ИИ, на самом деле оказалась мошенниками
Если однажды вы получите видеозвонок WeChat от друга, а человек на другом конце камеры выглядит и говорит точно так же, как тот друг, которого вы помните, когда он просит вас одолжить 4,3 миллиона долларов в качестве залога для предложения о работе, вы будет Как это сделать?
Недавно г-н Го, законный представитель технологической компании в Фучжоу, столкнулся с этой проблемой. На основании доверия он перевел 4,3 миллиона на счет своего друга. Только после этого я позвонил своему другу и обнаружил, что мошенник украл идентификатор WeChat его друга, а затем использовал технологию искусственного интеллекта по изменению лица и звукоподражания, чтобы обмануть его.
Частота подобных событий, происходящих за океаном, также стремительно растет.
По данным CNN, в апреле этого года Дженнифер ДеСтефан, живущая в Аризоне, получила странный телефонный звонок. Голос в телефоне принадлежал ее дочери Брианне, которая готовилась к лыжным соревнованиям. Брианна звала на помощь на другом конце телефона. Десятки секунд спустя низкий мужской голос угрожал по телефону: «Слушай, твоя дочь в моих руках, и я заплатил выкуп в 1 миллион долларов США. Теперь, если ты позвонишь в полицию или расскажешь другим, ты никогда не подумаешь о это. Увидимся с ней еще раз».
После того, как Дженнифер сказала, что не может позволить себе 1 миллион долларов, мужчина на другом конце телефона снизил цену выкупа до 50 000 долларов. Дженнифер, которая страстно любит свою дочь, проигнорировала уговоры друзей и мужа и начала обсуждать способы выплаты выкупа. Только когда Брианна позвонила ей и сказала, что она в безопасности, потери имущества удалось избежать.
В марте этого года газета Washington Post также сообщила о случае мошенничества с почти таким же образом действий, за исключением того, что жертвами стала пожилая пара старше 70 лет.
Пострадавший пожилой человек (Источник фото: «Вашингтон Пост»)
В мае Федеральная торговая комиссия США (FTC) выпустила предупреждение, заявив, что преступники используют голосовую технологию искусственного интеллекта для имитации чрезвычайных ситуаций с целью мошенничества с деньгами или информацией. Притворяться родственниками или друзьями жертвы для совершения мошенничества не новость, но нет никаких сомнений в том, что появление технологии искусственного интеллекта сделало чрезвычайно простым клонирование голоса человека и подделку видео человека. За последний год количество таких мошенничеств в США выросло на 70%, жертвы потеряли целых 2,6 миллиарда долларов.
Если эта тенденция сохранится, я боюсь, что первыми, кто достигнет финансовой свободы с помощью технологий искусственного интеллекта, станет группа мошенников, скрывающихся за ширмой.
Тёмная сторона искусственного интеллекта
Если подделка голоса и видео человека по-прежнему требует определенного технического порога, то появление ChatGPT облегчает мошенничество с использованием ИИ.
По данным зарубежной платформы сетевой безопасности GBHackers, ChatGPT привлек большое количество онлайн-мошенников благодаря высокой производительности работы и чрезвычайно низкому порогу использования.
Например, используйте ChatGPT, чтобы поговорить о «фальшивой любви»: самопрезентация, история чата и тщательно составленные любовные письма могут быть быстро созданы с помощью искусственного интеллекта. Их также можно персонализировать, введя конкретную информацию о целевом объекте, чтобы человек напротив экрана может влюбиться в тебя быстрее. Кроме того, ChatGPT может также помочь мошенникам в написании программ сбора платежей или фишинговых веб-сайтов, которые крадут данные банковской карты жертвы с целью выманить деньги.
Когда вы напрямую попросите ChatGPT написать для вас фишинговую программу, он откажется, но если вы скажете, что вы учитель и хотите показать студентам фишинговое программное обеспечение, он честно напишет для вас веб-сайт;
Еще страшнее то, что людям сложно определить, человек это или машина по ту сторону экрана. McAfee, крупнейшая в мире компания в области технологий безопасности, однажды использовала искусственный интеллект для создания любовного письма и разослала его 5000 пользователям по всему миру. Узнав, что любовные письма могли быть созданы искусственным интеллектом, 33% респондентов все же были готовы поверить, что их написали реальные люди.
На самом деле, использование ChatGPT для «фальшивой любви» с жертвой — это всего лишь метод мошенничества начального уровня. Более опытные хакеры начали использовать искусственный интеллект для пакетной генерации программ-вымогателей и вредоносного кода.
Чтобы облегчить развертывание большего количества приложений по модели GPT, OpenAI зарезервировала интерфейс программирования приложений для разработчиков. Хакеры используют эти интерфейсы для внедрения модели GPT в ряд внешних приложений, тем самым обходя контроль безопасности и используя модель GPT для написания криминальных программ.
Эти программы, обходящие контроль безопасности, публично продаются в темной сети США, они очень дешевы, и их можно купить всего за несколько долларов. Незаконное поведение, которое покупатели могут использовать для осуществления этого программного обеспечения, очень пугает: они крадут программный код и личную информацию пользователя, создают атакующее программное обеспечение и вирусы-вымогатели.
Газета Financial Times недавно сообщила о сценарии атаки с заменой SIM-карты, созданном с помощью ChatGPT, который мошенники могут использовать, чтобы обойти контроль компаний мобильной связи над телефонными номерами и подменить телефонные номера с SIM-карты первоначального владельца на SIM-карту злоумышленника. . Возьмите под свой контроль SIM-карту и тем самым контролируйте мобильный телефон жертвы.
«Хотя ChatGPT в настоящее время является всего лишь инструментом генерации контента и не участвует напрямую в преступлениях, это означает, что люди начинают использовать искусственный интеллект для вторжения в других, и преступники с более низким техническим уровнем получат более мощные преступные средства». выразил обеспокоенность Financial Times.
Можно ли закрыть ящик Пандоры ?
Когда растущее социальное влияние искусственного интеллекта сочетается с его криминальным потенциалом, различные уязвимости безопасности ChatGPT вызывают у людей все большее беспокойство. Вопрос «Как регулировать ChatGPT» стал предметом дискуссий во многих странах.
Глобальный институт этики IBM опубликовал документ, призывающий компании ставить этику и ответственность во главу угла своей программы развития искусственного интеллекта. Многие технологические магнаты, которых представляет Маск, также подписали открытое письмо. Прежде чем обучать системе искусственного интеллекта, более мощной, чем GPT-4, каждый должен разработать общий протокол безопасности и предоставить его для проверки и контроля внешним экспертам.
Законодатели разных стран также начали публично выражать обеспокоенность по поводу ChatGPT и рассматривать вопрос о том, стоит ли включать его в систему законодательного надзора. По сравнению с опасениями по поводу безопасности искусственного интеллекта, больше государственных служащих беспокоит отставание законодателей в понимании технологий.
Associated Press полагает, что в последние 20 лет технологические гиганты продолжали возглавлять технологические инновации в США. Поэтому правительство всегда не желало регулировать крупные технологические компании и стало убийцей идей. Поэтому, когда они полны решимости усилить надзор за новыми технологиями, значительная часть из них уже мало что знает о новых технологиях.
В конце концов, в последний раз Конгресс США принимал закон, регулирующий технологии, был Закон о защите конфиденциальности детей в Интернете 1998 года.
По данным Reuters, многие страны начали вводить правила регулирования искусственного интеллекта в лице OpenAI. В марте этого года Италия ненадолго запретила использование OpenAI в стране из-за опасений по поводу безопасности данных и возобновила использование только месяц спустя. В мае представитель итальянского правительства сообщил агентству Reuters, что правительство наймет экспертов по искусственному интеллекту для надзора за регулируемым использованием OpenAI.
Несмотря на сомнения со стороны правительств, технический директор OpenAI Мира Мулати также заявила в интервью Reuters, что «компания приглашает все стороны, включая регулирующие органы и правительства, начать вмешиваться». Но в условиях быстро развивающегося искусственного интеллекта до сих пор неизвестно, как законодатели смогут идти в ногу с темпами развития технологий.
Единственное, что можно сказать наверняка, это то, что если ящик Пандоры открыт, то его уже нельзя будет так легко закрыть.
Технология искусственного интеллекта — это палка о двух концах, которая приносит как удобство, так и риск. Нам необходимо усилить надзор и повысить осведомленность об общественной безопасности, чтобы мы могли лучше использовать технологию искусственного интеллекта и предотвращать ее использование в преступных целях. Только таким образом можно максимизировать преимущества искусственного интеллекта и эффективно предотвратить его потенциальные риски.