Face à la technologie de l'IA de plus en plus sophistiquée, comment distinguer efficacement les vrais personnes des robots d'IA est devenu un problème urgent à résoudre. Les limites des codes de vérification traditionnelles (CAPTCHA) deviennent de plus en plus apparentes, et pour cette raison, les chercheurs ont proposé un nouveau système de vérification appelé "Identité d'identité humaine" (PHC). Le système a été proposé par une équipe de scientifiques de l'Ivy League et des sociétés technologiques bien connues pour utiliser la technologie de chiffrement pour vérifier l'identité des utilisateurs, protéger la confidentialité des utilisateurs et remplacer le captcha et les technologies biométriques existantes. Cependant, ce système fait également face à des défis et des risques potentiels, tels que l'utilisation abusive des références et la concentration de pouvoir, qui nécessitent une attention particulière et des recherches plus approfondies.
Récemment, avec le développement rapide de la technologie de l'intelligence artificielle, les chercheurs ont proposé une idée convaincante: pour mieux confirmer que les utilisateurs en ligne sont des personnes réelles plutôt que des robots d'IA, "les informations d'identification de la personnalité" devraient être utilisées. L'équipe de recherche comprend des scientifiques de l'Ivy League et d'Openai, de Microsoft et d'autres sociétés, qui ont proposé le concept dans un article évalué par des pairs.
Ils craignent que, à mesure que l'IA ne devienne plus populaire, les acteurs malveillants utiliseront les capacités puissantes de l'IA pour inculquer une grande quantité de contenu non humain dans le réseau. L'IA peut désormais générer du contenu "humain" et même se déguiser en vrais humains pour les activités en ligne, ce qui rend les méthodes de vérification traditionnelles telles que le captcha semble de plus en plus inefficace. Par conséquent, l'idée des systèmes PHC a commencé à gagner en popularité. Les chercheurs envisagent que les gouvernements ou d'autres services numériques pourraient émettre une information d'identité unique à chaque utilisateur, et les utilisateurs peuvent vérifier qu'ils sont de vraies personnes grâce à une technologie de chiffrement appelée "zéro preuve de connaissances" sans révéler des informations spécifiques.
Les informations d'identification sont stockées numériquement par l'utilisateur sur son appareil personnel, protégeant ainsi l'anonymat en ligne de l'utilisateur dans une certaine mesure. Ce système peut non seulement remplacer les technologies CAPTCHA et biométriques existantes, mais peut même améliorer l'efficacité de la vérification humaine. Cependant, les chercheurs ont également réalisé que le système PHC n'est pas sans défauts. Par exemple, de nombreuses personnes peuvent vendre leurs PHC à des spammeurs d'IA, ce qui peut à son tour contribuer à la prolifération du contenu des spams en ligne. Dans le même temps, la centralisation des institutions émettrices de certificat est également inquiétante, ce qui peut entraîner une puissance excessivement forte entre les mains de quelques sociétés.
De plus, pour certains utilisateurs qui ne sont pas très compétents sur Internet, comme les personnes âgées, le système d'identification peut provoquer des obstacles utilisés. Par conséquent, les chercheurs suggèrent que le gouvernement devrait envisager de tester la faisabilité du PHC par le biais de projets pilotes. Mais le problème est que les systèmes PHC mettront sans aucun doute de nouveaux charges numériques sur les utilisateurs, et la cause profonde de ces problèmes est les entreprises technologiques. Les chercheurs soulignent que les entreprises technologiques devraient assumer la responsabilité de résoudre des problèmes, tels que le filigrane du contenu généré par l'IA, ou les technologies en développement qui peuvent identifier le contenu généré par l'IA. Bien que de telles mesures ne soient pas infaillibles, elles renvoient au moins la responsabilité à la source de la technologie.
Points clés:
Les chercheurs ont proposé un système «d'identité d'identité humaine», conçu pour remplacer la vérification traditionnelle du CAPTCHA pour confirmer que les utilisateurs en ligne sont de vraies personnes.
Les systèmes PHC utilisent la technologie de chiffrement pour protéger la confidentialité des utilisateurs, mais peuvent entraîner des abus d'identification et une centralisation de l'énergie.
Les entreprises technologiques doivent être responsables des problèmes causés par l'IA et envisager le filigrane et l'identification du contenu généré par l'IA.
En bref, la proposition du système PHC fournit une nouvelle idée pour résoudre le problème de la vérification de l'identité en ligne, mais sa faisabilité et sa sécurité nécessitent toujours une considération et une amélioration supplémentaires. Les entreprises technologiques doivent assumer activement la responsabilité et explorer conjointement des solutions plus sûres et plus pratiques pour relever les défis relevés par la technologie de l'intelligence artificielle. À l'avenir, les perspectives d'application des systèmes PHC valent la peine d'être attendues, mais en même temps, elle doit être soigneusement promue pour éviter les risques potentiels.