오늘날의 디지털 시대에는 어린이의 온라인 안전 문제가 점점 더 중요 해지고 있습니다. 최근 Roblox, Discord, OpenAi 및 Google은 공동으로 AI 시대를위한 확장 가능하고 상호 연결된 보안 인프라를 구축하는 것을 목표로 Roost (Strong Open Online Security Tool)라는 비영리 조직을 공동으로 시작했습니다. 새로운 조직은 공공 및 민간 기관이 어린이 안전에 중점을 둔 자체 플랫폼의 보호를 강화할 수 있도록 오픈 소스 보안 도구를 제공하는 것을 목표로합니다.
이미지 소스 참고 : 이미지는 AI에 의해 생성되며 이미지 공인 서비스 제공 업체 Midjourney
Roost는 생성 AI의 빠른 개발에 대한 응답으로 설립되었습니다. 네트워크 환경이 변함에 따라 어린이는 위험에 직면하여 "신뢰할 수 있고 접근 가능한 보안 인프라"의 필요성이 더 시급 해졌습니다. Roost는 기성품 보안 도구를 제공하여 이러한 도구를 개발할 때 소기업이나 조직을 처음부터 피하기를 희망하지만 대신 이러한 무료 솔루션을 직접 사용할 수 있습니다.
Roost의 프로그램에서 조직은 아동 성 학대 자료 (CSAM)를 탐지, 검토 및보고하는 도구를 제공하는 데 중점을 둘 것입니다. 이러한 움직임은 다양한 플랫폼이 부적절한 컨텐츠를 식별하고 처리하고 네트워크 환경에서 어린이의 안전을 보호하는 데 도움이됩니다. 이를 위해 참여 회사는 재정 지원을 제공 할뿐만 아니라 해당 기술 강점에도 기여할 것입니다.
어린이의 온라인 안전 문제는 특히 아동 및 청소년 온라인 개인 정보 보호법과 어린이 온라인 안전법이 의회에서 고려중인시기에주의를 기울이고 있습니다. 이 법안은 하원 투표를 통과하지 못했지만 Google과 Openai를 포함한 참여 기술 회사는 아동 성 학대 자료를 생성하기 위해 AI 기술 사용을 중단하겠다고 약속했습니다.
Roblox의 경우 아동 안전 문제가 특히 중요합니다. 2020 년 데이터에 따르면 미국에서 9 세에서 12 세 사이의 어린이의 3 분의 2가 Roblox를 사용합니다. 이 플랫폼은 아동 안전에 많은 어려움에 직면 해 있습니다. Bloomberg Business Week는 2024 년 초에 회사가 "소아 성 문제"로 고통 받고 있다고보고 했으므로 Roblox는 어린이의 개인 메시지와 새로운 정책의 구현에 대한 제한을 강화해야했습니다.
Roost의 출시는 모든 문제를 해결할 수는 없지만 Roblox 및 기타 유사한 플랫폼에 대한 간단한 반응을 제공하여 AI 시대의 어린이 안전을 보장하기 위해 노력합니다.