在當今的數字時代,兒童的在線安全問題愈發引起重視。近日,Roblox、Discord、OpenAI 與穀歌聯合推出了一個名為ROOST(強大開放在線安全工具)的非營利組織,旨在為AI 時代構建一個可擴展且互聯互通的安全基礎設施。這個新組織的目標是為公共和私人機構提供開源安全工具,以幫助它們在自身平台上加強保護,特別關注兒童的安全。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
ROOST 的成立是在對生成式AI 快速發展的回應下。隨著網絡環境的變化,孩子們面臨的風險日益增加,因此對“可靠且易於訪問的安全基礎設施” 的需求也變得更加迫切。 ROOST 希望通過提供現成的安全工具,避免小型公司或組織在開發這些工具時需要從零開始,而是能夠直接使用這些免費的解決方案。
在ROOST 的計劃中,組織將著重提供檢測、審核和報告兒童性虐待材料(CSAM)的相關工具。這一舉措將幫助各類平台識別和處理不當內容,保護兒童在網絡環境中的安全。為此,參與的公司不僅會提供資金支持,還將貢獻相應的技術力量。
兒童在線安全問題一直受到關注,尤其是在《兒童與青少年在線隱私保護法案》和《兒童在線安全法案》在國會審議期間。儘管這些法案未能通過眾議院的投票,參與的科技公司,包括谷歌和OpenAI,已承諾停止使用AI 技術生成兒童性虐待材料。
對於Roblox 而言,兒童安全問題尤其重要。根據2020年的數據,美國九至十二歲的兒童中,有三分之二在使用Roblox。而該平台在兒童安全方面曾面臨諸多挑戰。早在2024年,《彭博商業周刊》就曾報導公司遭遇“戀童癖問題”,因此Roblox 不得不加強對兒童私信的限制和新政策的實施。
ROOST 的推出雖然無法解決所有問題,但它為Roblox 及其他類似平台提供了一個更簡便的應對方案,為保障兒童在AI 時代的安全做出努力。