今日のデジタル時代では、子供のオンライン安全性の問題がますます重要になっています。最近、Roblox、Discord、Openai、およびGoogleは、AI時代のスケーラブルで相互接続されたセキュリティインフラストラクチャを構築することを目指して、Roost(Strong Open Online Security Tool)と呼ばれる非営利組織を共同で発売しました。新しい組織は、子供の安全性に特に焦点を当てて、公共および民間機関にオープンソースのセキュリティツールを提供するためのオープンソースセキュリティツールを提供することを目的としています。
画像ソースノート:画像はAIによって生成され、画像認定サービスプロバイダーMidjourney
ねぐらは、生成AIの急速な発展に応じて設立されました。ネットワーク環境が変化するにつれて、子どもたちはリスクの増加に直面するため、「信頼できるアクセス可能なセキュリティインフラストラクチャ」の必要性がより緊急になりました。 Roostは、既製のセキュリティツールを提供することにより、これらのツールを開発する際に、中小企業や組織をゼロから避けることを望んでいますが、代わりにこれらの無料ソリューションを直接使用できます。
Roostのプログラムでは、組織は、児童性虐待資料(CSAM)を検出、レビュー、報告するためのツールの提供に焦点を当てます。この動きは、さまざまなプラットフォームが不適切なコンテンツを特定して処理し、ネットワーク環境で子供の安全を保護するのに役立ちます。この目的のために、参加企業は財政的支援を提供するだけでなく、対応する技術的強さにも貢献します。
子供のオンライン安全性の問題は、特に子供と青少年のオンラインプライバシー保護法と子供のオンライン安全法が議会で検討されていた間に注目を集めています。法案は下院の投票に合格することに失敗しましたが、GoogleやOpenaiを含む参加ハイテク企業は、AIテクノロジーの使用を停止して児童の性的虐待資料を生成することを約束しました。
Robloxの場合、子供の安全性の問題は特に重要です。 2020年のデータによると、米国の9歳から12歳の子供の3分の2がRobloxを使用しています。このプラットフォームは、子どもの安全性に多くの課題に直面しています。早くも2024年には、ブルームバーグビジネスウィークは、同社が「小児性愛者の問題」に苦しんでいると報告したため、Robloxは子供のプライベートメッセージと新しいポリシーの実施に関する制限を強化しなければなりませんでした。
Roostの発売はすべての問題を解決することはできませんが、Robloxやその他の同様のプラットフォームに対してより単純な反応を提供し、AI時代の子供の安全を確保する努力をします。