Mit der rasanten Entwicklung der Technologie der künstlichen Intelligenz, insbesondere der großen Sprachmodelle (LLMs), sind deren Sicherheitsprobleme immer wichtiger geworden. Allerdings reichen bestehende Gesetze und Vorschriften, insbesondere der Computer Fraud and Abuse Act (CFAA) in den USA, nicht aus, um rechtlichen Risiken in der KI-Sicherheitsforschung zu begegnen. Wissenschaftler der Harvard University wiesen kürzlich auf der Black Hat-Konferenz darauf hin, dass die CFAA es versäumt habe, KI-Sicherheitsforscher wirksam zu schützen, und sie stattdessen möglicherweise rechtlichen Risiken aussetze, was in der Branche große Aufmerksamkeit und Diskussion über den rechtlichen Rahmen für die KI-Sicherheitsforschung auslöste. Dieser Artikel wird eine ausführliche Analyse hierzu liefern.
Heutzutage, mit der rasanten Entwicklung moderner Technologie, rückt künstliche Intelligenz, insbesondere große Sprachmodelle (LLMs), allmählich in den Fokus. Allerdings scheinen die US-amerikanischen Cybersicherheitsgesetze mit diesem sich schnell verändernden Bereich nicht Schritt zu halten. Kürzlich wies eine Gruppe von Wissenschaftlern der Harvard University auf der Black Hat-Konferenz darauf hin, dass der aktuelle Computer Fraud and Abuse Act (CFAA) diejenigen, die in der KI-Sicherheitsforschung tätig sind, nicht wirksam schützt und sie stattdessen möglicherweise rechtlichen Risiken aussetzt.
Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Zu diesen Wissenschaftlern gehören Kendra Albert, Ram Shankar Siva Kumar und Jonathon Penney von der Harvard Law School. Albert erwähnte in einem Interview, dass bestehende Gesetze Verhaltensweisen wie „Hint-Injection-Angriffe“ nicht klar definieren, was es für Forscher schwierig macht zu beurteilen, ob ihre Handlungen gegen das Gesetz verstoßen. Sie sagte, dass zwar einige Aktionen, wie etwa der Zugriff auf Modelle ohne Erlaubnis, eindeutig illegal seien, es aber auch die Frage stelle, ob Forscher, die Zugriff auf KI-Systeme erhalten hätten, diese Modelle auf eine Art und Weise nutzten, die sie nicht beabsichtigt hätten.
Im Jahr 2021 änderte der Fall Van Buren gegen die Vereinigten Staaten des Obersten Gerichtshofs der USA die Auslegung des CFAA und legte fest, dass das Gesetz nur für diejenigen gilt, die unbefugten Zugriff auf Informationen in einem Computer haben. Dieses Urteil ist in herkömmlichen Computersystemen sinnvoll, greift jedoch zu kurz, wenn es um große Sprachmodelle geht. Albert wies darauf hin, dass die Verwendung natürlicher Sprache zur Interaktion mit KI diese rechtliche Definition komplizierter macht und die Reaktion der KI oft nicht mit dem Abrufen von Informationen aus der Datenbank gleichzusetzen ist.
Gleichzeitig erwähnte Sivakumar auch, dass rechtliche Diskussionen zur KI-Sicherheitsforschung weitaus weniger Beachtung gefunden hätten als Themen wie das Urheberrecht, und er selbst sei sich nicht sicher, ob er bei der Durchführung bestimmter Angriffstests geschützt sei. Albert sagte, dass diese Frage angesichts der Unsicherheit des bestehenden Rechts möglicherweise in Zukunft durch einen Rechtsstreit vor Gericht geklärt werden könne, aber derzeit seien viele „gut gemeinte“ Forscher ratlos.
In diesem rechtlichen Umfeld rät Albert Sicherheitsforschern, rechtliche Unterstützung in Anspruch zu nehmen, um sicherzustellen, dass ihre Handlungen nicht gegen das Gesetz verstoßen. Sie befürchtet außerdem, dass vage gesetzliche Bestimmungen potenzielle Forscher abschrecken und es böswilligen Angreifern ermöglichen könnten, ungeschoren davonzukommen, was zu größeren Sicherheitsrisiken führt.
Highlight:
Der US-amerikanische Computer Fraud and Abuse Act bietet unzureichenden Schutz für KI-Sicherheitsforscher und kann mit rechtlichen Risiken verbunden sein.
In den geltenden Gesetzen fehlen klare Definitionen für Aktionen wie Tip-Injection-Angriffe, was es für Forscher schwierig macht, die Rechtmäßigkeit festzustellen.
Wissenschaftler glauben, dass in Zukunft möglicherweise Gerichtsverfahren erforderlich sein könnten, um relevante Rechtsvorschriften zu klären und seriöse Forscher zu schützen.
Insgesamt erfordern die rechtlichen Dilemmata im Bereich der KI-Sicherheitsforschung Aufmerksamkeit. Angesichts der Merkmale großer Sprachmodelle müssen klarere und gezieltere Gesetze und Vorschriften formuliert werden, um die Rechte und Interessen legitimer Forscher zu schützen, die gesunde Entwicklung der KI-Sicherheitsforschung zu fördern und böswillige Angriffe wirksam zu bekämpfen. Nur so können wir eine gesunde Entwicklung der Technologie der künstlichen Intelligenz sicherstellen und der gesamten Menschheit zugute kommen.