À l'ère numérique d'aujourd'hui, les problèmes de sécurité en ligne des enfants deviennent de plus en plus importants. Récemment, Roblox, Discord, OpenAI et Google ont lancé conjointement une organisation à but non lucratif appelée Roost (Strong Open Security Tool), visant à construire une infrastructure de sécurité évolutive et interconnectée pour l'ère de l'IA. La nouvelle organisation vise à fournir des outils de sécurité open source pour les institutions publiques et privées pour les aider à renforcer la protection sur leurs propres plateformes, en mettant particulièrement l'accent sur la sécurité des enfants.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Un perchoir a été fondé en réponse au développement rapide de l'IA générative. À mesure que l'environnement du réseau change, les enfants sont confrontés à des risques croissants, de sorte que la nécessité d'une «infrastructure de sécurité fiable et accessible» est devenue plus urgente. Roost espère éviter les petites entreprises ou les organisations à partir de zéro lors du développement de ces outils en fournissant des outils de sécurité prêts à l'emploi, mais peuvent plutôt utiliser directement ces solutions gratuites.
Dans le programme de Roost, les organisations se concentreront sur la fourniture d'outils pour détecter, examiner et signaler les matériaux d'abus sexuels sur les enfants (CSAM). Cette décision aidera diverses plateformes à identifier et à traiter un contenu inapproprié et à protéger la sécurité des enfants dans l'environnement du réseau. À cette fin, les sociétés participantes fourniront non seulement un soutien financier, mais contribueront également à la force technique correspondante.
Les problèmes de sécurité en ligne des enfants ont reçu l’attention, en particulier pendant la période de la loi sur la protection de la vie privée pour les enfants et les jeunes et la loi sur la sécurité en ligne des enfants étaient à l’étude du Congrès. Bien que les projets de loi n'ont pas réussi le vote de la Chambre, les entreprises technologiques participantes, y compris Google et Openai, se sont engagées à cesser d'utiliser la technologie de l'IA pour générer du matériel d'abus sexuel pour enfants.
Pour Roblox, les problèmes de sécurité des enfants sont particulièrement importants. Selon les données de 2020, les deux tiers des enfants âgés de neuf à douze aux États-Unis utilisent Roblox. La plate-forme a été confrontée à de nombreux défis dans la sécurité des enfants. Dès 2024, Bloomberg Business Week a indiqué que la société souffrait de "problèmes pédophiles", donc Roblox a dû renforcer les restrictions sur les messages privés des enfants et la mise en œuvre de nouvelles politiques.
Bien que le lancement de Roost ne puisse pas résoudre tous les problèmes, il fournit une réponse plus simple pour Roblox et d'autres plateformes similaires, faisant des efforts pour assurer la sécurité des enfants à l'ère de l'IA.