Avec le développement rapide de la technologie de l’intelligence artificielle, en particulier des grands modèles de langage (LLM), les problèmes de sécurité sont devenus de plus en plus importants. Cependant, les lois et réglementations existantes, notamment le Computer Fraud and Abuse Act (CFAA) aux États-Unis, sont insuffisantes pour faire face aux risques juridiques liés à la recherche sur la sécurité de l’IA. Des universitaires de l’Université Harvard ont récemment souligné lors de la conférence Black Hat que la CFAA n’avait pas réussi à protéger efficacement les chercheurs en sécurité de l’IA et qu’elle risquait plutôt de les exposer à des risques juridiques, déclenchant ainsi une attention et un débat généralisés dans l’industrie sur le cadre juridique de la recherche sur la sécurité de l’IA. Cet article en fournira une analyse approfondie.
Aujourd’hui, avec le développement rapide de la technologie moderne, l’intelligence artificielle, en particulier les grands modèles de langage (LLM), devient progressivement une priorité. Cependant, les lois américaines sur la cybersécurité semblent ne pas suivre le rythme de ce domaine en évolution rapide. Récemment, un groupe d'universitaires de l'Université Harvard a souligné lors de la conférence Black Hat que l'actuelle loi sur la fraude et les abus informatiques (CFAA) ne protège pas efficacement les personnes engagées dans la recherche sur la sécurité de l'IA et peut au contraire les exposer à des risques juridiques.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Ces chercheurs comprennent Kendra Albert, Ram Shankar Siva Kumar et Jonathon Penney de la Harvard Law School. Albert a mentionné dans une interview que les lois existantes ne définissent pas clairement des comportements tels que les « attaques par injection d'indices », ce qui rend difficile pour les chercheurs de juger si leurs actions violent la loi. Elle a déclaré que même si certaines actions, telles que l'accès à des modèles sans autorisation, sont clairement illégales, la question est également de savoir si les chercheurs qui ont accès aux systèmes d'IA utilisent ces modèles d'une manière qu'ils n'ont pas l'intention de faire. Cela devient flou.
En 2021, l'affaire Van Buren c. États-Unis de la Cour suprême des États-Unis a modifié l'interprétation de la CFAA, stipulant que la loi ne s'applique qu'à ceux qui ont un accès non autorisé aux informations contenues dans un ordinateur. Ce verdict est logique dans les systèmes informatiques traditionnels, mais ne suffit pas lorsqu'il s'agit de grands modèles de langage. Albert a souligné que l'utilisation du langage naturel pour interagir avec l'IA complique cette définition juridique et que, bien souvent, la réponse de l'IA n'équivaut pas à récupérer des informations dans la base de données.
Dans le même temps, Sivakumar a également mentionné que les discussions juridiques sur la recherche sur la sécurité de l'IA ont reçu beaucoup moins d'attention que les questions telles que le droit d'auteur, et lui-même n'est pas sûr d'être protégé lors de certains tests d'attaque. Albert a déclaré qu'étant donné l'incertitude de la loi existante, cette question pourrait être clarifiée par le biais d'un procès devant les tribunaux à l'avenir, mais qu'à l'heure actuelle, de nombreux chercheurs « bien intentionnés » se sentent perdus.
Dans cet environnement juridique, Albert conseille aux chercheurs en sécurité de rechercher une assistance juridique pour s'assurer que leurs actions ne violent pas la loi. Elle craint également que des dispositions juridiques vagues puissent effrayer les chercheurs potentiels et permettre à des attaquants malveillants de s'en tirer impunément, créant ainsi des risques de sécurité plus importants.
Souligner:
La loi américaine sur la fraude et les abus informatiques offre une protection insuffisante aux chercheurs en sécurité de l’IA et peut être confrontée à des risques juridiques.
Les lois actuelles manquent de définitions claires pour des actions telles que les attaques par injection de pourboires, ce qui rend difficile pour les chercheurs d'en déterminer la légalité.
Les chercheurs estiment que des procédures judiciaires pourraient être nécessaires à l’avenir pour clarifier les dispositions juridiques pertinentes et protéger les chercheurs de bonne foi.
Dans l’ensemble, les dilemmes juridiques dans le domaine de la recherche sur la sécurité de l’IA nécessitent une attention particulière. Compte tenu des caractéristiques des grands modèles linguistiques, des lois et réglementations plus claires et plus ciblées doivent être formulées pour protéger les droits et les intérêts des chercheurs légitimes, promouvoir le développement sain de la recherche sur la sécurité de l'IA et lutter efficacement contre les attaques malveillantes. Ce n’est qu’ainsi que nous pourrons garantir le développement sain de la technologie de l’intelligence artificielle et bénéficier à toute l’humanité.