최근 Downcodes의 편집자는 Meta가 Instagram 플랫폼에서 10대 사용자의 안전을 보장하기 위해 적극적으로 조치를 취하고 있다는 사실을 알게 되었습니다. 소셜 미디어가 청소년 정신 건강에 미치는 영향에 대한 대중의 우려가 커지는 가운데 Meta는 보다 안전하고 건강한 온라인 환경을 조성하기 위한 여러 가지 계획을 시작했습니다.
이러한 움직임은 소셜 미디어 플랫폼이 젊은이들의 정신 건강에 미치는 영향에 대한 광범위한 대중의 우려 속에서 나온 것입니다. Meta는 올해 9월에 십대 계정을 도입했습니다. 청소년 계정은 13~17세 사용자를 위해 설계되었으며 연락할 수 있는 사람과 볼 수 있는 내용을 제한하는 등 다양한 기본 제한 사항이 있습니다. 동시에 계정은 잠재적으로 공격적인 댓글과 메시지 요청을 자동으로 차단합니다.
그러나 안전한 청소년 계정은 사용자가 자발적으로 또는 정직하게 연령 정보를 입력한 경우에만 유효합니다. 그래서 Meta는 내년에 출시될 Adult Classifier라는 독점 소프트웨어 도구를 개발했습니다. 이 도구는 사용자를 18세 이상 또는 미만으로 분류하고 프로필, 상호 작용 및 관심 목록을 분석하여 연령을 결정하도록 설계되었습니다. 일반적인 "생일 축하합니다" 메시지도 사용자의 실제 나이를 확인하는 데 도움이 될 수 있습니다.
Meta는 2019년 연구에서 소셜 미디어 앱, 특히 Instagram이 십대의 정신 건강에 부정적인 영향을 미친다는 사실을 지적했습니다. 2021년 월스트리트 저널 보고서에 따르면 Meta는 Instagram이 10대, 특히 10대 소녀의 정신 건강에 해로운 영향을 미친다는 사실을 알고 있었으며, 연구에 따르면 이 플랫폼이 소녀 중 1/3의 신체 이미지 문제를 악화시키는 것으로 나타났습니다.
현재 청소년 계정은 아직 자율 단계이기 때문에 아직도 상당수의 청소년이 일반 성인 계정을 사용하고 있습니다. 메타는 연령 정보를 제공한 10대 사용자를 새로운 계정으로 이동하기 시작하고 내년에는 '성인 분류' 기능을 출시할 계획입니다. 이번 일련의 조치는 여론 및 청소년 정신 건강 문제에 대한 메타의 최신 대응으로, 청소년 사용자를 위한 보다 안전한 사회 환경을 조성하는 것을 목표로 하고 있습니다.
Meta는 십대 계정과 "성인 분류자"를 출시함으로써 십대 사용자의 안전과 정신 건강을 중요하게 생각한다는 것을 보여주었습니다. 앞으로도 우리는 이 분야에서 Meta의 발전을 계속해서 주목하고 보다 건강하고 안전한 소셜 미디어 환경을 구축하는 데 기여할 수 있기를 기대합니다.