Na era digital de hoje, os problemas de segurança on -line das crianças estão se tornando cada vez mais importantes. Recentemente, Roblox, Discord, Openai e Google lançaram em conjunto uma organização sem fins lucrativos chamada Roost (forte ferramenta de segurança on-line aberta), com o objetivo de criar uma infraestrutura de segurança escalável e interconectada para a era da IA. A nova organização pretende fornecer ferramentas de segurança de código aberto para instituições públicas e privadas para ajudá -las a fortalecer a proteção em suas próprias plataformas, com um foco particular na segurança das crianças.
Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
O Roost foi fundado em resposta ao rápido desenvolvimento de IA generativa. À medida que o ambiente da rede muda, as crianças enfrentam riscos crescentes, portanto, a necessidade de uma "infraestrutura de segurança confiável e acessível" se tornou mais urgente. A Roost espera evitar pequenas empresas ou organizações do zero ao desenvolver essas ferramentas, fornecendo ferramentas de segurança prontas, mas podem usar diretamente essas soluções gratuitas.
No programa de Roost, as organizações se concentrarão em fornecer ferramentas para detectar, revisar e relatar materiais de abuso sexual infantil (CSAM). Esse movimento ajudará várias plataformas a identificar e processar conteúdo inadequado e proteger a segurança das crianças no ambiente de rede. Para esse fim, as empresas participantes não apenas fornecerão apoio financeiro, mas também contribuirão com força técnica correspondente.
Os problemas de segurança on -line das crianças têm recebido atenção, especialmente durante o tempo em que a Lei de Proteção à Privacidade Online de Crianças e Juntos e a Lei de Segurança Online das Crianças estavam em consideração no Congresso. Embora os projetos de lei não aprovassem a votação da Câmara, as empresas de tecnologia participantes, incluindo Google e OpenAI, se comprometeram a parar de usar a tecnologia de IA para gerar material de abuso sexual infantil.
Para o Roblox, os problemas de segurança infantil são particularmente importantes. De acordo com os dados de 2020, dois terços das crianças de nove a doze anos nos Estados Unidos usam Roblox. A plataforma enfrentou muitos desafios na segurança infantil. Já em 2024, a Bloomberg Business Week informou que a empresa estava sofrendo de "problemas de pedófilos", então a Roblox teve que fortalecer as restrições às mensagens privadas das crianças e a implementação de novas políticas.
Embora o lançamento do ROOT não possa resolver todos os problemas, ele fornece uma resposta mais simples para o Roblox e outras plataformas semelhantes, fazendo esforços para garantir a segurança das crianças na era da IA.