최근 Downcodes의 편집자는 Meta가 Instagram 사용자, 특히 10대라고 주장하는 사람들의 실제 연령을 식별하기 위해 인공 지능 기술을 적극적으로 사용하고 있다는 사실을 알게 되었습니다. 이러한 움직임은 십대 사용자를 위한 플랫폼의 보호 조치를 강화하고 소셜 미디어가 십대의 정신 건강에 미치는 영향에 대한 대중의 우려에 대응하는 것을 목표로 합니다. Meta는 9월에 13~17세 청소년을 위해 특별히 고안된 새로운 계정을 출시했습니다. 이 계정에는 10대 사용자의 안전과 개인 정보 보호를 보장하기 위해 여러 가지 제한 사항이 있습니다.
이러한 청소년 계정에는 연락할 수 있는 사람, 볼 수 있는 콘텐츠 등 많은 기본 제한 사항이 있습니다. 또한 불쾌감을 줄 수 있는 댓글과 메시지 요청은 자동으로 숨겨집니다. 문제는 이러한 보안 계정은 청소년이 자발적으로 또는 정직하게 연령을 입력하는 경우에만 효과적이라는 것입니다. 따라서 Meta는 올바른 계정 할당을 보장할 수 있는 방법을 고안했습니다. 그들은 내년에 출시할 계획인 Adult Classifier라는 독점 소프트웨어 도구를 개발했으며, 사용자를 18세 이상과 18세 미만의 두 그룹으로 분류하도록 설계되었습니다.
Meta의 제품 관리 이사인 Alison Hartnett에 따르면 이 도구는 사용자의 프로필, 사용자가 상호 작용하는 콘텐츠, 팔로어 목록을 스캔하여 실제 나이를 결정합니다. 겉으로는 무해해 보이는 '생일 축하합니다' 메시지도 사용자의 나이를 짐작할 수 있는 단서가 될 수 있습니다.
Meta의 2019년 자체 연구에 따르면 Instagram과 같은 소셜 미디어 앱은 청소년의 정신 건강에 부정적인 영향을 미칠 수 있습니다. 이 문제를 해결하기 위해 Meta는 연령 정보를 제공하는 청소년을 가능한 한 빨리 새로운 청소년 계정으로 마이그레이션하고 내년 초에 이 "성인 분류기"를 출시할 계획입니다.
이 조치는 플랫폼이 청소년 정신 건강에 미치는 영향에 대한 대중의 우려를 해소하려는 Meta의 최근 시도입니다. 2021년에 월스트리트저널(Wall Street Journal) 보고서는 인스타그램이 십대, 특히 소녀들의 정신 건강에 해롭다는 것을 이해하고 있음을 보여주는 Meta의 내부 보고를 공개했습니다. Meta의 2019년 내부 보고서 슬라이드에는 "우리는 십대 소녀 3명 중 1명에게 신체 이미지 문제를 더욱 고통스럽게 만들고 있습니다."라고 나와 있습니다.
메타의 이러한 움직임은 10대 사용자의 안전과 신체적, 정신적 건강에 대한 관심이 커지고 있음을 반영하지만, '성인 분류기'의 정확성과 개인 정보 보호 조치에는 여전히 더 많은 관찰과 고려가 필요합니다. 앞으로는 메타가 사용자 개인정보 보호와 플랫폼 보안의 균형을 효과적으로 맞출 수 있을지 기대해 볼 만하다.