Der deutsche Sicherheitsforscher Benjamin Flesch hat kürzlich eine schwerwiegende Sicherheitslücke in der ChatGPT-API von OpenAI aufgedeckt, die böswillig ausgenutzt werden kann, um DDoS-Angriffe (Distributed Denial of Service) zu starten. Ein Angreifer kann das Crawler-Programm von ChatGPT verwenden, um über eine einfache HTTP-Anfrage eine große Anzahl von Anfragen an die Zielwebsite zu senden, wodurch die Website lahmgelegt wird. Diese Sicherheitslücke beruht auf einem Fehler in der ChatGPT-API bei der Verarbeitung von HTTP-POST-Anfragen, die an eine bestimmte Website gerichtet sind. Ein Angreifer kann den Sicherheitsmechanismus umgehen und einen groß angelegten Angriff auf die Zielwebsite starten.
Kürzlich veröffentlichte der deutsche Sicherheitsforscher Benjamin Flesch einen Bericht auf GitHub von Microsoft, in dem er darauf hinwies, dass die ChatGPT-API von OpenAI eine schwerwiegende Sicherheitslücke aufweist, die für DDoS-Angriffe (Distributed Denial of Service) ausgenutzt werden kann. Diese Schwachstelle ermöglicht es einem Angreifer, das Crawler-Programm von ChatGPT zu nutzen, um über eine einfache HTTP-Anfrage umfangreiche Netzwerkanfragen an jede beliebige Website zu initiieren, was sogar dazu führen kann, dass die Zielwebsite lahmgelegt wird.
Dem Bericht von Flesch zufolge weist die API von ChatGPT schwerwiegende Mängel bei der Verarbeitung von HTTP-POST-Anfragen an bestimmte Websites auf. Wenn ChatGPT auf eine Website verweist, ruft es einen API-Endpunkt namens „Attributionen“ auf, um Informationen von der Website anzufordern. Wenn ein Angreifer eine Anfrage an die API sendet, die eine große Anzahl verschiedener Links enthält, greift der Crawler von ChatGPT gleichzeitig auf diese Links zu und überschwemmt die Zielwebsite mit Anfragen.
Flesch stellte fest, dass die API eingehende Links weder überprüft noch die Anzahl der Links begrenzt. Dies bedeutet, dass ein Angreifer in einer einzigen Anfrage Tausende von Links senden könnte, die alle auf dieselbe Zielwebsite verweisen. Mit einem einfachen Tool kann ein Angreifer ohne Authentifizierung eine Anfrage an den Endpunkt von ChatGPT senden, und die Server von OpenAI senden für jeden Link eine Anfrage, wobei möglicherweise 20 bis 5.000 Anfragen pro Sekunde an die Zielwebsite gesendet werden.
Da die Anfragen von unterschiedlichen IP-Adressen kommen, ist es für das Opfer schwierig zu erkennen, dass der Angriff stattgefunden hat. Selbst wenn das Opfer eine Firewall aktiviert, um die IP-Adresse von ChatGPT zu blockieren, sendet der Crawler die Anfrage in der nächsten Millisekunde erneut. Flesch sagte, er habe das Problem über mehrere Kanäle an OpenAI und Microsoft gemeldet, aber bisher keine Antwort erhalten.
Zusätzlich zu den DDoS-Schwachstellen erwähnte Flesch auch, dass es weitere Sicherheitsprobleme mit der API gebe, darunter Schwachstellen bei der sofortigen Injektion. Dadurch kann der Crawler Fragen über denselben API-Endpunkt beantworten, anstatt nur Website-Informationen abzurufen. Flesch stellte die Frage, warum OpenAI keine grundlegenden Sicherheitsmaßnahmen implementiert habe, um diese Missbräuche zu verhindern, und wies darauf hin, dass es sich dabei um einfache Verifizierungslogiken handele, die von Softwareentwicklern seit vielen Jahren häufig verwendet würden.
Er glaubt, dass diese Schwachstelle darauf hindeuten könnte, dass OpenAI bei der Entwicklung seiner „KI-Agenten“ die Sicherheit nicht vollständig berücksichtigt hat. Für ein so lang laufendes Webcrawler-Programm erscheint das Fehlen einer Begrenzung der Anzahl der Anfragen an dieselbe Website besonders unangemessen.
Highlight:
1. Es wurde festgestellt, dass die ChatGPT-API von OpenAI Sicherheitslücken aufweist und möglicherweise zum Starten von DDoS-Angriffen verwendet wird.
2. Ein Angreifer kann mit einer einzigen Anfrage Tausende von Links zur gleichen Website senden, was zu einer Überflutung der Zielwebsite führt.
3. Diese Sicherheitslücke wurde OpenAI und Microsoft gemeldet, es wurde jedoch keine Antwort erhalten, was auf Nachlässigkeit bei der Sicherheitsverwaltung hinweist.
Dieser Vorfall unterstreicht die Bedeutung der API-Sicherheit großer Sprachmodelle und deckt auch die Mängel von OpenAI im Sicherheitsmanagement auf. Es besteht die Hoffnung, dass OpenAI diese Schwachstelle so schnell wie möglich beheben und die Sicherheitsmaßnahmen seiner API verstärken kann, um zu verhindern, dass sich ähnliche Vorfälle wiederholen, und um die Sicherheit der Benutzerdaten und des Netzwerks zu gewährleisten.