Comment permettre à l’intelligence artificielle d’atteindre la justice cognitive
Auteur:Eve Cole
Date de mise à jour:2024-11-22 17:54:01
Ces dernières années, l'intelligence artificielle a été appliquée dans de nombreuses industries et est devenue une « bonne aide » pour l'humanité. Mais au cours de ce processus, divers problèmes sont également apparus. Parmi eux, le système d'intelligence artificielle génère des « connaissances » erronées basées sur des sources de données médiocres et une conception d'algorithme défectueuse, et n'a pas la capacité de porter des jugements de valeur sur le contenu de sortie et ne peut pas assumer les responsabilités cognitives correspondantes, conduisant à des biais cognitifs systémiques. est une question assez importante. Du point de vue de l’éthique scientifique et technologique, cela viole le principe de justice cognitive. La justice dite cognitive consiste à garantir que les voix de tous les individus et de tous les groupes puissent être entendues et comprises équitablement dans le processus de génération, de diffusion et d’acquisition des connaissances, et qu’elles aient des chances égales d’être transformées en connaissances publiques sur l’humanité. Dans le passé, la génération de connaissances reposait principalement sur la perception, la mémoire, le raisonnement et le témoignage des individus humains. Cependant, avec l’itération rapide de l’intelligence artificielle, en particulier l’application généralisée de l’intelligence artificielle conversationnelle, les méthodes traditionnelles de génération et de diffusion des connaissances subissent des changements majeurs. L'intelligence artificielle d'aujourd'hui est non seulement efficace pour collecter des informations et effectuer des tâches, mais aussi une « technologie cognitive » capable de générer et de diffuser des connaissances. Elle est utilisée pour traiter des contenus cognitifs (tels que des propositions, des modèles, des données) et effectuer des opérations cognitives (telles que). comme analyse statistique, reconnaissance de formes, prédiction, inférence et simulation). La « connaissance machine » basée sur des données et des algorithmes remet en question les connaissances humaines antérieures basées sur l'expérience et le jugement professionnel, conduisant à une « fragmentation » cognitive et sapant la justice cognitive des systèmes de connaissances humaines traditionnels. Aujourd’hui, l’intelligence artificielle générative commence à être pleinement intégrée dans tous les scénarios et processus sociaux susceptibles de remplacer techniquement la cognition et la prise de décision. Face au défi de justice cognitive posé par l’intelligence artificielle dans la génération de connaissances, comment rendre l’intelligence artificielle plus intelligente ? Comment en faire une aide pour améliorer la cognition et garantir que la science et la technologie sont bonnes ? L’auteur estime qu’il est nécessaire de partir des dimensions d’amélioration de la qualité des données, d’amélioration de la conception des algorithmes, d’optimisation de la collaboration homme-machine et de renforcement de la gouvernance éthique. La conception responsable d’algorithmes est une architecture essentielle pour parvenir à la justice épistémique. En tant que technologie cognitive puissante, l’intelligence artificielle identifie les modèles et les tendances de l’information grâce à l’exploration de données et à l’analyse statistique, et participe à la génération de connaissances publiques humaines. Étant donné que l'algorithme se concentre sur des modèles d'informations qui apparaissent fréquemment dans les données d'entraînement, les données qui ne sont pas assez courantes ou statistiquement suffisamment solides sont souvent négligées et exclues, empêchant l'algorithme de comprendre pleinement et de répondre de manière appropriée. La conception d’algorithmes qui s’appuient sur des fréquences statistiques constitue un type spécifique d’« obéissance cognitive aveugle », qui conduit à son tour à la marginalisation systématique des voix de certains groupes. Ce défaut de conception limite non seulement les capacités cognitives de l’algorithme, mais exacerbe également les inégalités et l’oppression cognitive dans la société, sapant ainsi la justice cognitive. La cause profonde du comportement « d’obéissance aveugle » est le manque de compréhension des contextes culturels des différents groupes dans le processus de conception et de formation des algorithmes. Par conséquent, outre la transparence et l’explicabilité des algorithmes dont nous parlons souvent, la conception d’algorithmes qui répondent aux exigences de justice cognitive devrait également prendre en compte la diversité cognitive impliquant les différentes communautés. La fourniture de données de qualité est l’infrastructure nécessaire à la réalisation de la justice épistémique. Un autre facteur important qui amène l’IA à saper la justice épistémique est la qualité des données. Les mégadonnées constituent la base cognitive et la base décisionnelle de la technologie intelligente. Elles peuvent présenter les caractéristiques et les tendances de tous les aspects de la vie sociale humaine de manière plus claire et intuitive. Cependant, contrairement aux connaissances publiques humaines traditionnelles, les données ne sont pas universellement partagées. Plus précisément, les données qui peuvent être collectées et utilisées à des fins d’analyse, la manière dont ces données seront classées et extraites et à qui elles serviront en fin de compte sont toutes floues, ce qui entraîne une qualité inégale des données. Les données de formation des algorithmes proviennent souvent de grandes bases de données et de communautés sur Internet, et ces données sont susceptibles de contenir des biais et de la discrimination. La génération de connaissances par l'intelligence artificielle nécessite de s'assurer que la source des données est fiable et que le contenu est diversifié, que les données doivent être biaisées et que les données doivent être continuellement surveillées et mises à jour pour faire face aux nouveaux problèmes provoqués par les changements sociaux et culturels. Ce n’est qu’avec une fourniture de données de haute qualité que les systèmes d’intelligence artificielle peuvent fournir des connaissances plus précises et une aide à la décision dans des structures sociales multiculturelles et complexes. La collaboration homme-machine à grande échelle est un moyen efficace de parvenir à la justice cognitive. De la traduction des signaux dans les interfaces cerveau-ordinateur aux actions conjointes homme-machine telles que la prise de décision médicale intelligente et l'IA pour la science, la collaboration homme-machine à différents niveaux implique des processus cognitifs tels que la transmission, l'interprétation et l'intégration des connaissances humaines et de la machine. connaissance. Compte tenu des caractéristiques cognitives typiques des humains et des machines, une « division cognitive du travail homme-machine » rationnelle et à grande échelle évitera efficacement davantage de biais cognitifs homme-machine. Par exemple, dans la recherche scientifique, il peut y avoir une telle division du travail : les humains fixent des objectifs, proposent des hypothèses et interprètent les résultats, et sont chargés de fournir une pensée créative, une prise de décision sur place, un jugement éthique et une compréhension intuitive. de problèmes non structurés ; tandis que l'intelligence artificielle traite de grandes quantités de données structurées, effectue une reconnaissance de formes et une analyse prédictive pour fournir des modèles et des corrélations inaperçus. Dans ce type de collaboration, l’IA devient davantage un « partenaire » qui inspire de nouvelles idées plutôt qu’une « machine » qui génère des connaissances erronées. Une gouvernance éthique de haut niveau constitue le soutien institutionnel nécessaire à la réalisation de la justice cognitive. La justice cognitive nécessite une génération diversifiée de connaissances, une acquisition égale des connaissances, une diffusion impartiale des connaissances et une utilisation responsable des connaissances, qui nécessitent toutes un niveau élevé de gouvernance éthique de l’intelligence artificielle. Pour les entreprises, les besoins et les perspectives des différents groupes sociaux doivent être pris en compte dans la conception des algorithmes, et une surveillance continue des risques et une évaluation de la valeur des algorithmes doivent être effectuées ; un modèle de crowdsourcing éthique d'intelligence artificielle doit également être exploré pour encourager les chercheurs et les utilisateurs de différents horizons ; participer à l'intelligence artificielle Dans la recherche et le jugement des risques éthiques intelligents, les risques éthiques peuvent être résolus en temps opportun. Pour le gouvernement, il devrait encourager activement la transformation des données privées en données publiques, accélérer l'ouverture et le partage des données publiques à l'ensemble de la société, élargir la diversité des données et renforcer la fiabilité des données. Il devrait également rechercher des solutions sociales pour faire face à ce potentiel ; risques éthiques de l’intelligence artificielle et établir un système qui couvre Un mécanisme de gouvernance agile avec une prospective, une évaluation en temps réel et un ajustement systématique.