Le développement rapide de la technologie de l’intelligence artificielle a apporté de nombreuses commodités à la vie des gens, mais il a également posé de nouveaux défis. En particulier dans le domaine de la sécurité des réseaux, la technologie de l'IA est utilisée par les criminels pour créer diverses nouvelles méthodes de fraude, entraînant d'énormes pertes économiques et des risques de sécurité pour la société. L'éditeur de Downcodes vous fera comprendre comment la technologie de l'IA est utilisée à des fins de fraude et comment faire face à ces nouvelles menaces de sécurité.
Alors que vous vous demandez toujours si ChatGPT remplacera votre travail un jour dans le futur et que vous réfléchissez à la manière d'utiliser l'intelligence artificielle pour améliorer l'efficacité du travail, il existe un groupe de personnes qui ont déjà gagné beaucoup d'argent grâce à cette nouvelle technologie.
Ce sont... des menteurs.
Arnaqué 4,3 millions en 10 minutes,
Le premier groupe de personnes devenues riches grâce à l’IA était en réalité des escrocs
Si vous recevez un jour un appel vidéo WeChat d'un ami et que la personne à l'autre bout de la caméra ressemble et parle exactement comme l'ami dont vous vous souvenez, lorsqu'il vous demande d'emprunter 4,3 millions en guise de dépôt pour une offre d'emploi, vous va Comment faire ?
Récemment, M. Guo, représentant légal d'une entreprise technologique à Fuzhou, a rencontré ce problème. Sur la base de la confiance, il a transféré 4,3 millions sur le compte de son ami. Ce n'est que lorsque j'ai appelé mon ami par la suite que j'ai découvert que l'escroc avait volé l'identifiant WeChat de son ami, puis avait utilisé la technologie de changement de visage et d'onomatopées par l'IA pour l'escroquer.
La fréquence de phénomènes similaires se produisant à travers l’océan augmente également de manière explosive.
Selon CNN, en avril de cette année, Jennifer DeStefan, qui vit en Arizona, a reçu un étrange appel téléphonique. La voix au téléphone était celle de sa fille Brianna, qui se préparait pour une compétition de ski. Brianna a appelé à l'aide à l'autre bout du fil. Des dizaines de secondes plus tard, une voix masculine grave menaçait au téléphone : « Écoutez, votre fille est entre mes mains et j'ai payé une rançon d'un million de dollars américains. Maintenant, si vous appelez la police ou le dites aux autres, vous n'y penserez jamais. ça." La revoir. "
Après que Jennifer ait déclaré qu'elle ne pouvait pas se permettre 1 million de dollars, l'homme à l'autre bout du fil a réduit le prix de la rançon à 50 000 dollars. Jennifer, qui aime passionnément sa fille, a ignoré les mesures de dissuasion de ses amis et de son mari et a commencé à discuter des moyens de payer la rançon. Ce n'est que lorsque Brianna l'a appelée pour lui dire qu'elle était en sécurité que la perte de propriété a été évitée.
En mars de cette année, le Washington Post a également rapporté un cas de fraude avec presque le même mode opératoire, sauf que les victimes étaient un couple âgé de plus de 70 ans.
La personne âgée victime (Source photo : "Washington Post")
La Federal Trade Commission (FTC) des États-Unis a émis un avertissement en mai, déclarant que des criminels utilisaient la technologie vocale de l'IA pour simuler des situations d'urgence afin de frauder de l'argent ou des informations. Se faire passer pour les proches ou les amis d'une victime pour commettre une fraude n'est pas nouveau, mais il ne fait aucun doute que l'émergence de la technologie de l'IA a rendu extrêmement facile le clonage de la voix d'une personne et la falsification de sa vidéo. Au cours de l’année écoulée, le nombre de ces escroqueries aux États-Unis a grimpé de 70 %, les victimes ayant perdu jusqu’à 2,6 milliards de dollars.
Si cette tendance se poursuit, je crains que les premiers à atteindre la liberté financière grâce à la technologie de l’IA soient un groupe d’escrocs se cachant derrière l’écran.
Le côté obscur de l'intelligence artificielle
Si la falsification de la voix et de la vidéo d'une personne nécessite encore un certain seuil technique, alors l'émergence de ChatGPT facilite la fraude par l'IA.
Selon la plateforme étrangère de sécurité des réseaux GBHackers, ChatGPT a attiré un grand nombre de fraudeurs en ligne en raison de sa forte productivité au travail et de son seuil d'utilisation extrêmement bas.
Par exemple, utilisez ChatGPT pour parler d'un « faux amour » : une auto-présentation, un historique de discussion et des lettres d'amour soigneusement rédigées peuvent être rapidement produites grâce à l'intelligence artificielle. Elles peuvent également être personnalisées en saisissant des informations spécifiques sur l'objet cible, de sorte que l'objet cible soit personnalisé. la personne en face de l'écran peut tomber amoureuse de vous plus rapidement. Ensuite, ChatGPT peut également aider les fraudeurs à rédiger des programmes de collecte de paiements ou des sites Web de phishing qui volent les informations de carte bancaire de la victime dans le but de frauder de l'argent.
Lorsque vous demandez directement à ChatGPT d'écrire un logiciel de phishing pour vous, il refusera ; mais si vous dites que vous êtes enseignant et que vous souhaitez montrer aux étudiants un logiciel de phishing, il écrira honnêtement un site Web pour vous.
Ce qui est encore plus effrayant, c’est qu’il est difficile pour les gens de dire s’il s’agit d’un humain ou d’une machine de l’autre côté de l’écran. McAfee, la plus grande entreprise de technologie de sécurité au monde, a déjà utilisé l'IA pour générer une lettre d'amour et l'envoyer à 5 000 utilisateurs dans le monde. Après avoir su que les lettres d'amour pouvaient avoir été générées par l'intelligence artificielle, 33 % des personnes interrogées étaient toujours prêtes à croire qu'elles avaient été écrites par de vraies personnes.
En fait, utiliser ChatGPT pour avoir un « faux amour » avec la victime n'est qu'une méthode de fraude d'entrée de gamme. Des pirates informatiques plus expérimentés ont commencé à utiliser l'intelligence artificielle pour générer des ransomwares et du code malveillant par lots.
Afin de faciliter le déploiement de davantage d'applications sur le modèle GPT, OpenAI a réservé une interface de programmation d'applications aux développeurs. Les pirates utilisent ces interfaces pour introduire le modèle GPT dans une série d'applications externes, contournant ainsi la supervision de sécurité et utilisant le modèle GPT pour écrire des programmes criminels.
Ces programmes qui contournent la supervision de la sécurité ont été vendus publiquement sur le dark web américain. Ils sont très bon marché et peuvent être achetés pour seulement quelques dollars. Le comportement illégal pour lequel les acheteurs peuvent utiliser ces logiciels est très effrayant : en volant le code du programme et les informations privées des utilisateurs, en générant des logiciels d'attaque et des virus ransomware.
Le Financial Times a récemment fait état d'un script d'attaque par échange de carte SIM généré avec l'aide de ChatGPT, que les fraudeurs peuvent utiliser pour briser le contrôle des opérateurs de téléphonie mobile sur les numéros de téléphone et échanger les numéros de téléphone de la carte SIM du propriétaire d'origine vers celui de l'attaquant. . Prenez le contrôle de la carte SIM et contrôlez ainsi le téléphone portable de la victime.
"Bien que ChatGPT ne soit actuellement qu'un outil de génération de contenu et ne soit pas directement impliqué dans la criminalité, cela indique que les gens commencent à utiliser l'intelligence artificielle pour envahir les autres, et que les criminels ayant des niveaux techniques inférieurs obtiendront des moyens criminels plus puissants. " a fait part de ses inquiétudes au Financial Times.
La boîte de Pandore peut-elle être fermée ?
Alors que l'influence sociale croissante de l'intelligence artificielle se conjugue avec son potentiel criminel, les diverses vulnérabilités de sécurité de ChatGPT inquiètent de plus en plus les gens. « Comment réguler ChatGPT » est devenu un sujet de débat dans de nombreux pays.
Le Global Ethics Institute d'IBM a publié un document préconisant que les entreprises placent l'éthique et la responsabilité en tête de leur programme d'IA. De nombreux magnats de la technologie représentés par Musk ont également signé une lettre ouverte. Avant de former un système d'intelligence artificielle plus puissant que GPT-4, chacun devrait développer un protocole de sécurité partagé et le faire examiner et superviser par des experts externes.
Les législateurs de divers pays ont également commencé à exprimer publiquement leurs inquiétudes concernant ChatGPT et à réfléchir à l'opportunité de l'inclure dans le système de contrôle législatif. Par rapport aux inquiétudes concernant la sécurité de l'intelligence artificielle, de plus en plus de fonctionnaires s'inquiètent du retard des législateurs dans leur compréhension de la technologie.
L'Associated Press estime qu'au cours des 20 dernières années, les géants de la technologie ont continué à diriger l'innovation technologique aux États-Unis. Par conséquent, le gouvernement a toujours été réticent à réglementer les grandes entreprises technologiques et est devenu un tueur d'idées. Ainsi, lorsqu’ils sont déterminés à renforcer l’encadrement des technologies émergentes, un nombre considérable d’entre eux connaissent déjà peu les nouvelles technologies.
Après tout, la dernière fois que le Congrès américain a adopté une loi pour réglementer la technologie, c’était la loi de 1998 sur la protection de la vie privée des enfants en ligne.
Selon Reuters, de nombreux pays ont commencé à introduire des réglementations pour réglementer l'intelligence artificielle représentée par OpenAI. En mars de cette année, l'Italie a brièvement interdit l'utilisation d'OpenAI dans le pays en raison de préoccupations concernant la sécurité des données, et n'a repris son utilisation qu'un mois plus tard. En mai, un responsable du gouvernement italien a déclaré à Reuters que le gouvernement embaucherait des experts en intelligence artificielle pour superviser l’utilisation réglementée d’OpenAI.
Face aux doutes des gouvernements, Mira Mulati, directrice de la technologie d'OpenAI, a également déclaré dans une interview à Reuters que "l'entreprise invite toutes les parties, y compris les agences de réglementation et les gouvernements, à commencer à intervenir". Mais face au développement rapide de l’intelligence artificielle, on ne sait toujours pas comment les législateurs pourront suivre le rythme de la technologie.
La seule chose qui est sûre, c'est qu'une fois la boîte de Pandore ouverte, elle ne peut plus être fermée aussi facilement.
La technologie de l’intelligence artificielle est une arme à double tranchant, à la fois pratique et risquée. Nous devons renforcer la surveillance et améliorer la sensibilisation à la sécurité publique afin de pouvoir mieux utiliser la technologie de l’IA et empêcher qu’elle ne soit utilisée à des fins criminelles. Ce n’est qu’ainsi que les avantages de l’intelligence artificielle pourront être maximisés et que ses risques potentiels pourront être efficacement évités.