Le chercheur allemand en sécurité Benjamin Flesch a récemment révélé une grave vulnérabilité de sécurité dans l'API ChatGPT d'OpenAI, qui peut être exploitée de manière malveillante pour lancer des attaques par déni de service distribué (DDoS). Un attaquant peut utiliser le programme d'exploration de ChatGPT pour envoyer un grand nombre de requêtes au site Web cible via une simple requête HTTP, provoquant ainsi la paralysie du site Web. Cette vulnérabilité provient d'une faille dans l'API ChatGPT lors du traitement des requêtes HTTP POST dirigées vers un site Web spécifique. Un attaquant peut contourner le mécanisme de sécurité et lancer une attaque à grande échelle sur le site Web cible.
Récemment, un chercheur allemand en sécurité, Benjamin Flesch, a publié un rapport sur le GitHub de Microsoft, soulignant que l'API ChatGPT d'OpenAI présente une grave vulnérabilité de sécurité qui pourrait être exploitée pour lancer des attaques par déni de service distribué (DDoS). Cette vulnérabilité permet à un attaquant d'utiliser le programme d'exploration de ChatGPT pour lancer des requêtes réseau à grande échelle vers n'importe quel site Web via une simple requête HTTP, ce qui peut même provoquer la paralysie du site Web cible.
Selon le rapport de Flesch, l'API de ChatGPT présente de sérieux défauts lors du traitement des requêtes HTTP POST vers des sites Web spécifiques. Lorsque ChatGPT fait référence à un site Web, il appelle un point de terminaison d'API appelé « attributions » pour demander des informations au site Web. Si un attaquant envoie une requête à l'API contenant un grand nombre de liens différents, le robot d'exploration de ChatGPT accédera à ces liens simultanément, inondant le site Web cible de requêtes.
Flesch a noté que l'API ne vérifie pas les liens entrants et ne limite pas non plus le nombre de liens. Cela signifie qu’un attaquant pourrait soumettre des milliers de liens en une seule requête, tous pointant vers le même site Web cible. Avec un outil simple, un attaquant peut envoyer une requête au point de terminaison de ChatGPT sans authentification, et les serveurs d'OpenAI enverront une requête pour chaque lien, envoyant potentiellement 20 à 5 000 requêtes par seconde au site Web cible.
Les requêtes provenant de différentes adresses IP, il est difficile pour la victime de détecter que l'attaque a eu lieu. Même si la victime active un pare-feu pour bloquer l'adresse IP de ChatGPT, le robot renverra toujours la demande dans la milliseconde suivante. Flesch a déclaré qu'il avait signalé le problème à OpenAI et Microsoft via plusieurs canaux, mais qu'il n'avait pas reçu de réponse jusqu'à présent.
En plus des vulnérabilités DDoS, Flesch a également mentionné qu'il existe d'autres problèmes de sécurité avec l'API, notamment des vulnérabilités d'injection rapide. Cela permet au robot d'exploration de répondre aux questions via le même point de terminaison de l'API au lieu d'obtenir simplement des informations sur le site Web. Flesch s'est demandé pourquoi OpenAI n'avait pas mis en œuvre de mesures de sécurité de base pour empêcher ces abus, soulignant qu'il s'agissait d'une simple logique de vérification couramment utilisée par les développeurs de logiciels depuis de nombreuses années.
Il estime que cette vulnérabilité peut indiquer qu'OpenAI n'a pas pleinement pris en compte la sécurité lors du développement de ses « agents IA ». Pour un programme d'exploration de sites Web d'une telle durée d'exécution, l'absence de limite sur le nombre de requêtes sur le même site Web semble particulièrement déraisonnable.
Souligner:
1. L'API ChatGPT d'OpenAI s'est avérée présenter des failles de sécurité et peut être utilisée pour lancer des attaques DDoS.
2. Un attaquant peut envoyer des milliers de liens vers le même site Web avec une seule requête, provoquant ainsi l'inondation du site Web cible.
3. Cette vulnérabilité a été signalée à OpenAI et Microsoft, mais aucune réponse n'a été reçue, démontrant une négligence dans la gestion de la sécurité.
Cet incident met en évidence l’importance de la sécurité des API des modèles de langage à grande échelle et expose également les lacunes d’OpenAI en matière de gestion de la sécurité. On espère qu'OpenAI pourra corriger cette vulnérabilité dès que possible et renforcer les mesures de protection de sécurité de son API pour éviter que des incidents similaires ne se reproduisent et garantir la sécurité des données des utilisateurs et du réseau.