Microsoft a récemment intenté une action en justice contre une organisation accusée d'avoir utilisé des outils personnalisés pour contourner les mesures de protection de sécurité du service Azure OpenAI du produit cloud AI de Microsoft, accédant et utilisant illégalement les logiciels et les serveurs Microsoft pour générer du contenu illégal « offensant » et « préjudiciable ». Le groupe aurait utilisé des identifiants client volés et un logiciel personnalisé « de3u » pour mettre en œuvre un système de « piratage en tant que service » permettant aux utilisateurs d'utiliser DALL-E pour générer des images sans écrire de code et tenter de contourner les mécanismes de filtrage de contenu de Microsoft. Microsoft a demandé une injonction au tribunal et des dommages-intérêts, et a pris des contre-mesures pour renforcer la sécurité de son service Azure OpenAI et a saisi des sites Web liés aux actions des défendeurs pour recueillir des preuves.
Le procès intenté par Microsoft contre le groupe souligne l’importance de la sécurité de l’IA et les efforts continus des acteurs malveillants pour contourner les mesures de sécurité. Cet incident nous rappelle que même les systèmes d’IA avancés nécessitent des mécanismes de sécurité solides pour prévenir les abus. Les actions juridiques actives et les mesures techniques de Microsoft démontrent sa détermination à maintenir la sécurité de la plateforme et à protéger les intérêts des clients, ce qui mérite attention.