O rápido desenvolvimento da tecnologia de inteligência artificial trouxe muitas conveniências à vida das pessoas, mas também trouxe novos desafios. Especialmente no domínio da segurança de redes, a tecnologia de IA está a ser utilizada por criminosos para criar vários novos métodos de fraude, causando enormes perdas económicas e riscos de segurança para a sociedade. O editor do Downcodes levará você a entender como a tecnologia de IA é usada para fraudes e como lidar com essas novas ameaças à segurança.
Enquanto você ainda está preocupado se o ChatGPT substituirá seu emprego um dia no futuro e pensa em como usar a inteligência artificial para melhorar a eficiência do trabalho, existe um grupo de pessoas que já ganhou muito dinheiro contando com essa nova tecnologia.
Eles são... mentirosos.
Enganou 4,3 milhões em 10 minutos,
O primeiro grupo de pessoas que enriqueceram graças à IA eram, na verdade, golpistas
Se um dia você receber uma videochamada WeChat de um amigo, e a pessoa do outro lado da câmera parecer e falar exatamente como o amigo de quem você se lembra, quando ele lhe pedir um empréstimo de 4,3 milhões como depósito para uma oferta de emprego, você vai Como fazer isso?
Recentemente, o Sr. Guo, representante legal de uma empresa de tecnologia em Fuzhou, encontrou esse problema. Com base na confiança, ele transferiu 4,3 milhões para a conta do amigo. Só depois que liguei para meu amigo é que descobri que o golpista havia roubado o ID WeChat de seu amigo e, em seguida, usou a tecnologia de mudança de rosto e onomatopeia de IA para fraudá-lo.
A frequência de acontecimentos semelhantes no oceano também está a crescer explosivamente.
Segundo a CNN, em abril deste ano, Jennifer DeStefan, que mora no Arizona, recebeu um telefonema estranho. A voz ao telefone era de sua filha Brianna, que se preparava para uma competição de esqui. Brianna gritou por ajuda do outro lado da linha. Dezenas de segundos depois, uma voz masculina grave ameaçou ao telefone: “Escute, sua filha está em minhas mãos e eu paguei um resgate de 1 milhão de dólares americanos. isso." Veja-a novamente."
Depois que Jennifer disse que não poderia pagar US$ 1 milhão, o homem do outro lado da linha reduziu o preço do resgate para US$ 50.000. Jennifer, que ama sua filha ansiosamente, ignorou a dissuasão de seus amigos e marido e começou a discutir maneiras de pagar o resgate. Só quando Brianna ligou para ela para dizer que ela estava segura é que a perda de propriedade foi evitada.
Em março deste ano, o Washington Post também noticiou um caso de fraude com quase o mesmo modus operandi, exceto que as vítimas eram um casal de idosos com mais de 70 anos.
O idoso vitimizado (Fonte da foto: "Washington Post")
A Comissão Federal de Comércio dos EUA (FTC) emitiu um alerta em maio, afirmando que os criminosos estavam usando tecnologia de voz de IA para falsificar emergências e fraudar dinheiro ou informações. Fingir ser parente ou amigo da vítima para cometer fraude não é novidade, mas não há dúvida de que o surgimento da tecnologia de IA tornou extremamente fácil clonar a voz de uma pessoa e falsificar o vídeo de uma pessoa. No ano passado, o número de fraudes deste tipo nos Estados Unidos aumentou 70%, com as vítimas a perderem até 2,6 mil milhões de dólares.
Se esta tendência continuar, temo que as primeiras pessoas a alcançar a liberdade financeira através da tecnologia de IA sejam um grupo de golpistas escondidos atrás da tela.
O lado negro da inteligência artificial
Se forjar a voz e o vídeo de uma pessoa ainda requer um certo limite técnico, o surgimento do ChatGPT facilita a fraude de IA.
De acordo com a plataforma de segurança de rede estrangeira GBHackers, o ChatGPT atraiu um grande número de fraudadores online devido à sua forte produtividade de trabalho e limite de uso extremamente baixo.
Por exemplo, use ChatGPT para falar sobre um “amor falso”: autoapresentação, histórico de bate-papo e cartas de amor cuidadosamente elaboradas podem ser produzidas rapidamente por meio de inteligência artificial. a pessoa em frente à tela pode se apaixonar por você mais rápido. Então, o ChatGPT também pode ajudar os golpistas a escrever programas de cobrança de pagamentos ou sites de phishing que roubam as informações do cartão bancário da vítima para atingir o objetivo de fraudar dinheiro.
Quando você pede diretamente ao ChatGPT para escrever um software de phishing para você, ele se recusará, mas se você disser que é professor e deseja mostrar aos alunos um software de phishing, ele honestamente escreverá um site para você.
O que é ainda mais assustador é que é difícil para as pessoas saberem se é um humano ou uma máquina do outro lado da tela. A McAfee, a maior empresa de tecnologia de segurança do mundo, certa vez usou IA para gerar uma carta de amor e a enviou para 5.000 usuários em todo o mundo. Depois de saber que as cartas de amor podem ter sido geradas por inteligência artificial, 33% dos entrevistados ainda estavam dispostos a acreditar que foram escritas por pessoas reais.
Na verdade, usar o ChatGPT para ter um “amor falso” com a vítima é apenas um método de fraude básico. Hackers mais qualificados começaram a usar inteligência artificial para gerar ransomware e códigos maliciosos em lotes.
Para facilitar a implantação de mais aplicações no modelo GPT, a OpenAI reservou uma interface de programação de aplicações para desenvolvedores. Os hackers usam essas interfaces para introduzir o modelo GPT em uma série de aplicativos externos, contornando assim a supervisão de segurança e usando o modelo GPT para escrever programas criminosos.
Esses programas que contornam a supervisão de segurança foram vendidos publicamente na dark web dos EUA e são muito baratos e podem ser adquiridos por apenas alguns dólares. O comportamento ilegal que os compradores podem realizar com esses softwares é muito assustador: roubar código de programa e informações privadas do usuário, gerando software de ataque e vírus ransomware.
O Financial Times informou recentemente sobre um script de ataque de troca de SIM gerado com a ajuda do ChatGPT, que os golpistas podem usar para romper o controle das empresas de telefonia móvel sobre números de telefone e trocar números de telefone do cartão SIM do proprietário original para o do invasor. . Assuma o controle do cartão SIM e, assim, controle o celular da vítima.
“Embora o ChatGPT seja atualmente apenas uma ferramenta de geração de conteúdo e não esteja diretamente envolvido no crime, isso indica que as pessoas estão começando a usar inteligência artificial para invadir outras pessoas, e criminosos com níveis técnicos mais baixos obterão meios criminosos mais poderosos”. expressou suas preocupações ao Financial Times.
A caixa de Pandora pode ser fechada?
Quando a crescente influência social da inteligência artificial se mistura com o seu potencial criminoso, as várias vulnerabilidades de segurança do ChatGPT deixaram as pessoas cada vez mais inquietas. "Como regular o ChatGPT" tornou-se um foco de debate em muitos países.
O Global Ethics Institute da IBM emitiu um documento defendendo que as empresas coloquem a ética e a responsabilidade no topo da sua agenda de IA. Muitos magnatas da tecnologia representados por Musk também assinaram uma carta aberta. Antes de treinar um sistema de inteligência artificial mais poderoso que o GPT-4, todos deveriam desenvolver um protocolo de segurança compartilhado e revisá-lo e supervisioná-lo por especialistas externos.
Legisladores de vários países também começaram a expressar publicamente preocupações sobre o ChatGPT e a considerar a possibilidade de incluí-lo no sistema de supervisão legislativa. Em comparação com as preocupações sobre a segurança da inteligência artificial, mais funcionários do governo estão preocupados com a falta de compreensão da tecnologia por parte dos legisladores.
A Associated Press acredita que nos últimos 20 anos, os gigantes da tecnologia continuaram a liderar a inovação tecnológica nos Estados Unidos. Portanto, o governo sempre não esteve disposto a regular as grandes empresas de tecnologia e tornou-se um assassino de ideias. Portanto, quando estão determinados a reforçar a supervisão das tecnologias emergentes, um número considerável deles já sabe pouco sobre as novas tecnologias.
Afinal, a última vez que o Congresso dos EUA promulgou legislação para regular a tecnologia foi a Lei de Proteção à Privacidade Online das Crianças, de 1998.
Segundo a Reuters, muitos países começaram a introduzir regulamentos para regular a inteligência artificial representada pela OpenAI. Em março deste ano, a Itália proibiu brevemente o uso do OpenAI no país devido a preocupações com a segurança dos dados, e só retomou o uso um mês depois. Em maio, um funcionário do governo italiano disse à Reuters que o governo contrataria especialistas em inteligência artificial para supervisionar o uso regulamentado do OpenAI.
Diante das dúvidas dos governos, Mira Mulati, diretora de tecnologia da OpenAI, também disse em entrevista à Reuters que “a empresa dá as boas-vindas a todas as partes, incluindo agências reguladoras e governos, para começarem a intervir”. Mas face ao rápido desenvolvimento da inteligência artificial, ainda não se sabe como os legisladores podem acompanhar o ritmo da tecnologia.
A única coisa certa é que, uma vez aberta a caixa de Pandora, ela não poderá ser fechada tão facilmente.
A tecnologia de inteligência artificial é uma faca de dois gumes, que traz conveniência e risco. Precisamos de reforçar a supervisão e melhorar a sensibilização para a segurança pública, para que possamos utilizar melhor a tecnologia de IA e evitar que seja utilizada abusivamente para atividades criminosas. Só desta forma os benefícios da inteligência artificial podem ser maximizados e os seus riscos potenciais efetivamente prevenidos.