Di era digital saat ini, masalah keamanan online anak -anak menjadi semakin penting. Baru-baru ini, Roblox, Discord, Openai, dan Google bersama-sama meluncurkan organisasi nirlaba yang disebut Roost (Alat Keamanan Online Terbuka yang kuat), yang bertujuan untuk membangun infrastruktur keamanan yang dapat diskalakan dan saling berhubungan untuk era AI. Organisasi baru ini bertujuan untuk menyediakan alat keamanan open source untuk lembaga publik dan swasta untuk membantu mereka memperkuat perlindungan pada platform mereka sendiri, dengan fokus khusus pada keselamatan anak -anak.
Catatan Sumber Gambar: Gambar dihasilkan oleh AI, dan Penyedia Layanan Resmi Gambar Midjourney
Roost didirikan sebagai respons terhadap perkembangan cepat AI generatif. Ketika lingkungan jaringan berubah, anak -anak menghadapi risiko yang meningkat, sehingga kebutuhan akan "infrastruktur keamanan yang dapat diandalkan dan dapat diakses" menjadi lebih mendesak. Roost berharap untuk menghindari perusahaan atau organisasi kecil dari awal saat mengembangkan alat-alat ini dengan menyediakan alat keamanan siap pakai, tetapi sebaliknya dapat secara langsung menggunakan solusi gratis ini.
Dalam program Roost, organisasi akan fokus pada penyediaan alat untuk mendeteksi, meninjau dan melaporkan materi pelecehan seksual anak (CSAM). Langkah ini akan membantu berbagai platform mengidentifikasi dan memproses konten yang tidak tepat dan melindungi keselamatan anak -anak di lingkungan jaringan. Untuk tujuan ini, perusahaan yang berpartisipasi tidak hanya akan memberikan dukungan keuangan, tetapi juga akan berkontribusi kekuatan teknis yang sesuai.
Masalah keselamatan online anak -anak telah mendapat perhatian, terutama selama Undang -Undang Perlindungan Privasi Anak -Anak dan Remaja dan Undang -Undang Keselamatan Online Anak -anak sedang dipertimbangkan di Kongres. Meskipun tagihan gagal memberikan suara DPR, perusahaan teknologi yang berpartisipasi, termasuk Google dan Openai, telah berkomitmen untuk berhenti menggunakan teknologi AI untuk menghasilkan materi pelecehan seksual anak.
Untuk Roblox, masalah keselamatan anak sangat penting. Menurut data 2020, dua pertiga anak-anak berusia sembilan hingga dua belas tahun di Amerika Serikat menggunakan roblox. Platform ini menghadapi banyak tantangan dalam keselamatan anak. Pada awal tahun 2024, Bloomberg Business Week melaporkan bahwa perusahaan itu menderita "masalah pedofil", sehingga Roblox harus memperkuat pembatasan pesan pribadi anak -anak dan implementasi kebijakan baru.
Meskipun peluncuran Roost tidak dapat menyelesaikan semua masalah, ini memberikan respons yang lebih sederhana untuk Roblox dan platform serupa lainnya, melakukan upaya untuk memastikan keselamatan anak -anak di era AI.