LLM SECURITY
1.0.0
Liens vers des articles, des outils, des articles, des livres, etc. contenant du matériel pédagogique utile pertinent pour le projet LLM Security.
Publication | Auteur | Date | Titre et lien |
---|---|---|---|
AvecSecure Labs | Benjamin Hull, Donato Capitella | 08-avril-24 | Détection d'injection rapide spécifique au domaine avec le classificateur BERT |
AvecSecure Labs | Donato Capitella | 21-fév-24 | Devriez-vous laisser ChatGPT contrôler votre navigateur ? /Vidéo YouTube |
Explication rapide de l'injection avec des exemples vidéo | Arnav Bathla | 12-déc-23 | Explication rapide de l'injection avec des exemples vidéo |
AvecSecure Labs | Donato Capitella | 04-déc-23 | Une étude de cas sur l'injection rapide pour les agents ReAct LLM/Vidéo YouTube |
Cybersécurité contre l'IA Wiki | Aditya Rana | 04-déc-23 | Wiki IA sur la cybersécurité |
Équipe iFood Cybersec | Emmanuel Valente | 04-sept.-23 | Injection rapide : exploration, prévention et identification des vulnérabilités de Langchain |
Sandy Dunn | 15-octobre-23 | Carte mentale des menaces IA | |
Moyen | Ken Huang | 11-juin-23 | Modèles d'architecture et contrôles de sécurité des applications basées sur LLM |
Moyen | Avinash Sinha | 02-fév-23 | AI-ChatGPT-Capacité de prise de décision – Une conversation trop amicale avec ChatGPT |
Moyen | Avinash Sinha | 06-fév-23 | AI-ChatGPT-Capacité de prise de décision - Piratage de la psychologie de ChatGPT - ChatGPT contre Siri |
Filaire | Matt Burgess | 13-avril-23 | Le piratage de ChatGPT ne fait que commencer |
La société mathématique | Arjun Menon | 23 janvier 23 | L'empoisonnement des données et son impact sur l'écosystème de l'IA |
Spectre IEEE | Payal Dhar | 24-mars-23 | Protéger les modèles d’IA contre « l’empoisonnement des données » |
Cryptomonnaie AMB | Suzuki Shillsalot | 30-avril-23 | Voici comment tout le monde peut jailbreaker ChatGPT avec ces 4 meilleures méthodes |
Techopédie | Kaushik Pal | 22-avril-23 | Qu’est-ce que le jailbreak dans les modèles d’IA comme ChatGPT ? |
Le registre | Thomas Claburn | 26-avril-23 | Comment les attaques par injection rapide détournent l’IA haut de gamme d’aujourd’hui – et c’est difficile à corriger |
Articleis | Rafael Tappé Maestro | 14-fév-23 | L'essor des grands modèles de langage ~ Partie 2 : Attaques, exploits et vulnérabilités des modèles |
Couche cachée | Eoin Wickens, Marta Janus | 23-mars-23 | Le côté obscur des grands modèles de langage : partie 1 |
Couche cachée | Eoin Wickens, Marta Janus | 24-mars-23 | Le côté obscur des grands modèles de langage : partie 2 |
Embrassez le rouge | Johann Rehberger (wunderwuzzi) | 29-mars-23 | Injections d'IA : injections rapides directes et indirectes et leurs implications |
Embrassez le rouge | Johann Rehberger (wunderwuzzi) | 15-avril-23 | Ne faites pas aveuglément confiance aux réponses LLM. Menaces sur les chatbots |
MufeedDVH | Mufeed | 9-déc-22 | La sécurité à l’ère des LLM |
danielmiessler.com | Daniel Miessler | 15-mai-23 | La carte de surface d'attaque AI v1.0 |
Lecture sombre | Gary McGraw | 20-avril-23 | Avis d'expert : dangers liés à l'utilisation de modèles linguistiques volumineux avant leur préparation |
Honeycomb.io | Philippe Carter | 25-mai-23 | Toutes les choses difficiles dont personne ne parle lors de la création de produits avec des LLM |
Filaire | Matt Burgess | 25-mai-23 | La faille de sécurité au cœur de ChatGPT et de Bing |
Examen BizPac | Terresa Monroe-Hamilton | 30-mai-23 | "Je n'étais pas au courant" : un avocat de New York fait face à des sanctions après avoir utilisé ChatGPT pour rédiger un mémoire rempli de "fausses" citations |
Washington Post | Pranshu Verma | 18-mai-23 | Un professeur accuse sa classe d'utiliser ChatGPT, mettant ainsi en péril les diplômes |
Recherche en sécurité Kudelski | Nathan Hamiel | 25-mai-23 | Réduire l'impact des attaques par injection rapide grâce à la conception |
Village IA | GTKlondike | 7-juin-23 | Applications LLM sur la modélisation des menaces |
Embrassez le rouge | Johann Rehberger | 28-mars-23 | Exploit du plugin ChatGPT expliqué |
Développeur NVIDIA | Will Pearce, Joseph Lucas | 14-juin-23 | NVIDIA AI Red Team : une introduction |
Kanaris | Naomi Clarkson | 7-avril-23 | Jailbreak de Google Bard |
Institution | Date | Titre et lien |
---|---|---|
NIST | 8 mars 2023 | Livre blanc NIST AI 100-2e2023 (ébauche) |
Bureau du commissaire à l'information du Royaume-Uni (ICO) | 3-avril-2023 | IA générative : huit questions que les développeurs et les utilisateurs doivent se poser |
Centre national de cybersécurité du Royaume-Uni (NCSC) | 2-juin-2023 | ChatGPT et grands modèles de langage : quel risque ? |
Centre national de cybersécurité du Royaume-Uni (NCSC) | 31 août 2022 | Principes pour la sécurité de l'apprentissage automatique |
Parlement européen | 31 août 2022 | EU AI Act : premier règlement sur l’intelligence artificielle |
Publication | Auteur | Date | Titre et lien |
---|---|---|---|
Arxiv | Samuel Gehman, et coll. | 24 septembre 2020 | REALTOXICITYPROMPTS : Évaluation de la dégénérescence neurotoxique dans les modèles de langage |
Arxiv | Fabio Pérez, Ian Ribeiro | 17-nov-22 | Ignorer l'invite précédente : techniques d'attaque pour les modèles de langage |
Arxiv | Nicolas Carlini, et coll. | 14-déc-20 | Extraction de données de formation à partir de grands modèles de langage |
Groupe CCN | Chris Anley | 06-juil.-22 | Attaques pratiques contre les systèmes d'apprentissage automatique |
Groupe CCN | José Selvi | 5-déc-22 | Explorer les attaques par injection rapide |
Arxiv | Varshini Subhash | 22 février 2023 | Les grands modèles linguistiques peuvent-ils modifier les préférences des utilisateurs de manière contradictoire ? |
? | Jing Yang et autres | 23 mai 2023 | Une revue systématique de la littérature sur la sécurité de l’information dans les chatbots |
Arxiv | Isaac et autres | 18 avril 2023 | Sécurité des produits IA : guide d'introduction pour les développeurs |
OpenAI | OpenAI | 15-mars-23 | Rapport technique GPT-4 |
Arxiv | Kai Greshake, et coll. | 05-Mai-23 | Ce n'est pas ce à quoi vous vous êtes inscrit : compromettre les applications intégrées au LLM du monde réel avec l'injection d'invite indirecte |
Arxiv | Alexandre Wan, et coll. | 01-Mai-23 | Empoisonnement des modèles de langage lors du réglage des instructions |
Arxiv | Léon Derczynski, et coll. | 31-mars-23 | Évaluation du déploiement de modèles linguistiques avec des cartes de risque |
Arxiv | Jan von der Assen, et al. | 11-mars-24 | Modélisation des menaces basée sur les actifs pour les systèmes basés sur l'IA |
Publication | Auteur | Date | Titre et lien |
---|---|---|---|
Deloitte | Institut d’IA Deloitte | 13-mars-23 | Une nouvelle frontière en intelligence artificielle - Implications de l'IA générative pour les entreprises |
Équipe8 | Village RSSI Team8 | 18-avril-23 | Risques d’entreprise liés à l’IA générative et à ChatGPT |
Sentier des morceaux | Heidy Khlaaf | 7 mars 23 | Vers des évaluations complètes des risques et une assurance des systèmes basés sur l’IA |
Implications sur la sécurité de ChatGPT | Alliance pour la sécurité du cloud (CSA) | 23-avril-2023 | Implications sur la sécurité de ChatGPT |
Service | Canal | Date | Titre et lien |
---|---|---|---|
YouTube | Chroniques LLM | 29-mars-24 | Injection rapide dans les agents de navigateur LLM |
YouTube | Superposition | 03-mars-24 | Les vers GenAI expliqués : la cybermenace émergente pour les LLM |
YouTube | RALF KAIROS | 05-fév-23 | ChatGPT pour l'attaque et la défense - Risques liés à l'IA : confidentialité, propriété intellectuelle, phishing, ransomware - Par Avinash Sinha |
YouTube | L'IA expliquée | 25-mars-23 | « Gouverner la superintelligence » - Agents pathogènes synthétiques, document sur l'arbre des pensées et conscience de soi |
YouTube | LiveOverflow | 14-avril-23 | «Attaquer le LLM - Injection rapide» |
YouTube | LiveOverflow | 27-avril-23 | "Porte dérobée accidentelle de LLM - Astuces rapides" |
YouTube | LiveOverflow | 11-mai-23 | 'Défendre le LLM - Injection rapide' |
YouTube | Podcast sur la sécurité du cloud | 30-mai-23 | « LES LLM PEUVENT-ILS ÊTRE ATTAQUÉS ! |
YouTube | Journées API | 28-juin-23 | Sécurité de l'IA du langage au niveau de l'API : éviter les piratages, les injections et les violations |
Service | Canal | Date | Titre et lien |
---|---|---|---|
YouTube | Journées API | 28-juin-23 | Sécuriser les API LLM et NLP : un parcours pour éviter les violations de données, les attaques et bien plus encore |
Nom | Taper | Note | Lien |
---|---|---|---|
DimSec | Attaque et Défense | Un défi d'attaque et de défense dans lequel les joueurs doivent protéger la phrase secrète de leur chatbot tout en attaquant le chatbot des autres joueurs pour exfiltrer le leur. | https://play.secdim.com/game/ai-battle |
Attaque rapide GPT | Attaque | Le but de ce jeu est de proposer l'entrée utilisateur la plus courte qui incite l'invite du système à vous renvoyer la clé secrète. | https://ggpt.43z.one |
Gandalf | Attaque | Votre objectif est de faire en sorte que Gandalf révèle le mot de passe secret de chaque niveau. Cependant, Gandalf passera au niveau supérieur à chaque fois que vous devinerez le mot de passe et fera de son mieux pour ne pas le révéler. | https://gandalf.lakera.ai |