En la era digital actual, los problemas de seguridad en línea de los niños son cada vez más importantes. Recientemente, Roblox, Discord, OpenAI y Google lanzaron conjuntamente una organización sin fines de lucro llamada Roost (Herramienta de seguridad en línea Strong Open), con el objetivo de construir una infraestructura de seguridad escalable e interconectada para la era de la IA. La nueva organización tiene como objetivo proporcionar herramientas de seguridad de código abierto para instituciones públicas y privadas para ayudarlos a fortalecer la protección en sus propias plataformas, con un enfoque particular en la seguridad de los niños.
Notas de fuente de imagen: La imagen es generada por AI y el proveedor de servicios autorizado de imagen MidJourney
Roost se fundó en respuesta al rápido desarrollo de IA generativa. A medida que cambia el entorno de la red, los niños enfrentan riesgos crecientes, por lo que la necesidad de una "infraestructura de seguridad confiable y accesible" se ha vuelto más urgente. Roost espera evitar pequeñas empresas u organizaciones desde cero al desarrollar estas herramientas al proporcionar herramientas de seguridad preparadas, pero en su lugar puede usar directamente estas soluciones gratuitas.
En el programa de Roost, las organizaciones se centrarán en proporcionar herramientas para detectar, revisar e informar materiales de abuso sexual infantil (CSAM). Este movimiento ayudará a varias plataformas a identificar y procesar contenido incorrecto y proteger la seguridad de los niños en el entorno de red. Con este fin, las empresas participantes no solo proporcionarán apoyo financiero, sino que también contribuirán con la fuerza técnica correspondiente.
Los problemas de seguridad en línea de los niños han recibido atención, especialmente durante el tiempo en que la Ley de Protección de Privacidad en línea para niños y jóvenes y la Ley de Seguridad en línea de los niños se consideraron en el Congreso. Aunque los proyectos de ley no lograron aprobar el voto de la Cámara de Representantes, las compañías tecnológicas participantes, incluidas Google y OpenAI, se han comprometido a dejar de usar la tecnología de IA para generar material de abuso sexual infantil.
Para Roblox, los problemas de seguridad infantil son particularmente importantes. Según los datos de 2020, dos tercios de los niños de nueve a doce en los Estados Unidos usan Roblox. La plataforma ha enfrentado muchos desafíos en la seguridad infantil. Ya en 2024, Bloomberg Business Week informó que la compañía sufría de "problemas pedófilos", por lo que Roblox tuvo que fortalecer las restricciones en los mensajes privados de los niños y la implementación de nuevas políticas.
Aunque el lanzamiento de Roost no puede resolver todos los problemas, proporciona una respuesta más simple para Roblox y otras plataformas similares, haciendo esfuerzos para garantizar la seguridad de los niños en la era de la IA.