Récemment, l'éditeur de Downcodes a appris que Meta utilisait activement la technologie de l'intelligence artificielle pour identifier le véritable âge des utilisateurs d'Instagram, en particulier ceux qui prétendent être des adolescents. Cette décision vise à renforcer les mesures de protection de la plateforme pour les utilisateurs adolescents et à répondre aux inquiétudes du public concernant l'impact des médias sociaux sur la santé mentale des adolescents. Meta a lancé en septembre un nouveau compte spécialement conçu pour les adolescents âgés de 13 à 17 ans, qui comporte un certain nombre de restrictions pour garantir la sécurité et la confidentialité des utilisateurs adolescents.
Ces comptes pour adolescents comportent de nombreuses restrictions intégrées, telles que : qui peut les contacter, quel contenu peut être vu, et bien plus encore. De plus, les commentaires et demandes de messages potentiellement offensants sont automatiquement masqués. Le problème est que ces comptes sécurisés ne sont efficaces que si les adolescents les utilisent volontairement ou indiquent honnêtement leur âge. Par conséquent, Meta a trouvé un moyen de garantir une allocation correcte des comptes. Ils ont développé un outil logiciel propriétaire appelé Adult Classifier, qu'ils prévoient de lancer l'année prochaine, et conçu pour classer les utilisateurs en deux groupes : ceux de plus de 18 ans et ceux de moins de 18 ans.
Selon Alison Hartnett, directrice de la gestion des produits chez Meta, l'outil analysera le profil d'un utilisateur, le contenu avec lequel il interagit et sa liste de followers pour déterminer son âge réel. Même un message « Joyeux anniversaire » apparemment inoffensif peut être un indice sur l’âge d’un utilisateur.
Selon les propres recherches de Meta réalisées en 2019, les applications de médias sociaux comme Instagram peuvent avoir un impact négatif sur la santé mentale des adolescents. Pour lutter contre cela, Meta prévoit de commencer dès que possible à migrer les adolescents qui communiquent leurs informations d'âge vers de nouveaux comptes adolescents et de déployer ce « classificateur pour adultes » au début de l'année prochaine.
Cette mesure est la dernière tentative de Meta pour répondre aux inquiétudes du public concernant l'impact de sa plateforme sur la santé mentale des jeunes. En 2021, un rapport du Wall Street Journal a révélé un rapport interne de Meta montrant qu'il comprenait qu'Instagram était nocif pour la santé mentale des adolescents, en particulier des filles. « Nous rendons les problèmes d’image corporelle plus douloureux pour une adolescente sur trois », peut-on lire dans une diapositive du rapport interne de Meta de 2019.
La décision de Meta reflète sa préoccupation croissante pour la sécurité et la santé physique et mentale des utilisateurs adolescents, mais l’exactitude et les mesures de protection de la vie privée de son « classificateur pour adultes » nécessitent encore une observation et une considération plus approfondies. À l’avenir, il convient de se demander si Meta pourra efficacement équilibrer la confidentialité des utilisateurs et la sécurité de la plate-forme.