Garantir que l’intelligence artificielle est sûre, fiable et contrôlable est propice au progrès de la civilisation humaine et constitue une question importante qui doit être résolue pour le développement de l’intelligence artificielle. La « Décision » de la troisième session plénière du 20e Comité central du Parti communiste chinois a pris des dispositions importantes telles que « l'établissement d'un système de supervision de la sécurité de l'intelligence artificielle » et « l'amélioration du mécanisme de développement et de gestion de l'intelligence artificielle générative ». Comment renforcer la gouvernance de l'intelligence artificielle, prévenir et résoudre efficacement les divers risques de sécurité induits par le développement de l'intelligence artificielle, et améliorer continuellement l'institutionnalisation et la légalisation de la supervision de la sécurité de l'intelligence artificielle ? Cette édition académique se concentre sur ces questions.
Le secrétaire général Xi Jinping a souligné : « L'intelligence artificielle est un moteur important pour un nouveau cycle de révolution scientifique et technologique et de transformation industrielle, et aura un impact profond sur le développement économique et social mondial et sur le progrès de la civilisation humaine. » L'intelligence fait référence à la génération d'intelligence artificielle basée sur des algorithmes, des modèles et des règles technologiques pour les textes, images, sons, vidéos, codes et autres contenus. Soutenue par des données massives et une puissance de calcul puissante, l'intelligence artificielle générative capable de comprendre, de parler et d'interagir est rapidement mise à niveau de manière itérative, présentant des caractéristiques telles qu'une bonne interactivité, une grande polyvalence et une générativité intelligente, et fonctionne avec tous les horizons de l'industrie. a formé des connexions plus rigides, à haute fréquence, omniprésentes et profondes, ce qui conduit également à des risques potentiels de plus en plus réels. La « Décision » de la troisième session plénière du 20e Comité central du Parti communiste chinois a saisi scientifiquement les lois et les caractéristiques du développement de l'intelligence artificielle et a proposé « d'établir un système de supervision de la sécurité de l'intelligence artificielle » et « d'améliorer le développement et mécanisme de gestion de l'intelligence artificielle générative", qui reflète la nécessité d'un développement et d'une sécurité mieux coordonnés. Il s'agit d'une nécessité objective d'indiquer la voie à suivre pour promouvoir le progrès technologique, le développement industriel et la sécurité dans le domaine de l'intelligence artificielle.
Le fonctionnement technique de l'intelligence artificielle générative peut être divisé en trois étapes, à savoir l'étape préparatoire de la formation préalable et de la mise à niveau manuelle de l'algorithme assistée par annotation, l'étape de calcul consistant à saisir les données pour le traitement de l'algorithme afin d'obtenir les produits générés, et l'étape de calcul consistant à saisir les données pour le traitement de l'algorithme afin d'obtenir les produits générés. produits entrant dans la société pour être utilisés au stade de la génération. Nous devons analyser en profondeur le mécanisme de fonctionnement de l'intelligence artificielle générative, saisir les caractéristiques de la formation et du développement des risques de sécurité à chaque étape, utiliser des moyens juridiques pour renforcer la gouvernance systémique et garantir que l'énorme pouvoir contenu dans l'intelligence artificielle générative joue toujours un rôle. sur la voie de l’État de droit.
Au cours de la phase de préparation de l’intelligence artificielle générative, les risques liés à la sécurité des données sont susceptibles de se produire fréquemment et sont plus importants. L'intelligence artificielle générative affine les informations et prédit les tendances grâce à la formation, au traitement et à l'analyse des données. Cela nécessite une classification appropriée des données et l'établissement de modèles d'utilisation et de méthodes de protection pour différents types de données afin de répondre correctement aux risques de sécurité des données pertinents et d'éviter une utilisation illégale ou une divulgation inappropriée des données, entraînant des litiges pour contrefaçon. Par exemple, les données gouvernementales formées au cours du processus de traitement gouvernemental sont un élément essentiel du gouvernement numérique. Afin de tirer des conclusions relativement précises, l’intelligence artificielle générative collecte et analyse inévitablement les données gouvernementales. Les règles juridiques relatives à l'acquisition et à l'utilisation des données gouvernementales par l'intelligence artificielle générative devraient être clarifiées, ce qui non seulement répond aux besoins d'utilisation des données gouvernementales au service de la société, mais soutient également fortement le développement, la formation et l'application de grands modèles d'intelligence artificielle gouvernementale. services, et améliore le niveau intelligent des services publics et de la gouvernance sociale ; et Standardiser ses méthodes de traitement pour éviter que les résultats obtenus grâce à l'utilisation des données gouvernementales ne portent atteinte aux droits de la personne et ne perturbent l'ordre social et public. Pour les données personnelles, l’intelligence artificielle générative explore leur valeur potentielle grâce à une analyse combinée, et sa collecte et son utilisation de données personnelles ainsi que ses résultats peuvent porter atteinte aux droits civils. Dans la pratique, l’intelligence artificielle générative a tendance à collecter excessivement des données personnelles pour améliorer l’exactitude des conclusions, par exemple en analysant des données médicales et de santé pour déterminer la localisation des personnes et prédire leurs trajectoires de vie. À cette fin, nous devons insister sur la collecte conformément à la loi, collecter les données personnelles selon la portée minimale requise par la technologie, fixer une profondeur raisonnable de traitement des données et éviter la surexploitation des informations potentielles. En résumé, les exigences en matière de surveillance de la sécurité des données classifiées et hiérarchiques devraient être intégrées dès la phase de préparation de l’intelligence artificielle générative afin d’éviter que les risques liés à la sécurité des données ne se transforment en conséquences juridiques spécifiques.
Au stade informatique de l’intelligence artificielle générative, le risque de biais algorithmique inhérent aux grands modèles d’intelligence artificielle mérite d’être vigilant. L'intelligence artificielle générative analyse et traite principalement les données via des modèles algorithmiques. Différent des modèles d'algorithmes traditionnels, l'intelligence artificielle générative effectue non seulement l'apprentissage automatique, mais utilise également un grand nombre d'annotations manuelles pour corriger les conclusions de l'apprentissage automatique et promouvoir l'évolution de l'intelligence artificielle. Cependant, « l'apprentissage automatique + l'annotation manuelle » en tant que noyau de la technologie algorithmique donnera également à la volonté et aux préférences humaines un impact plus important que l'apprentissage automatique pur. L’influence des préférences personnelles se superpose au biais du modèle algorithmique lui-même, ce qui doublera les effets négatifs du biais algorithmique, rendant ainsi l’apparition de biais algorithmiques plus difficile à retracer et à prévenir. Pour prévenir et résoudre le risque de biais algorithmique, une gouvernance ciblée doit être mise en œuvre sur la base des principes et des sites où se produisent les biais algorithmiques. Il est nécessaire d'intégrer profondément les exigences des réglementations juridiques dans le modèle algorithmique de l'intelligence artificielle générative, de promouvoir la technologie pour le bien, d'éliminer les biais algorithmiques, de garantir l'utilisation rationnelle des algorithmes d'intelligence artificielle générative et d'allouer des ressources informatiques. Sur la base du concept de combinaison de technologie et de gestion, nous renforcerons la supervision de la sécurité du cycle complet des algorithmes et mettrons en œuvre les exigences des réglementations légales dans l'ensemble du processus de fonctionnement de l'intelligence artificielle générative. Au début de la mise en place de l'algorithme, il est nécessaire de suivre les règles juridiques et les normes techniques pertinentes, de mettre en œuvre les exigences normatives de « apprentissage automatique + annotation manuelle », de revoir les modules d'algorithme à risque et de mieux découvrir les risques techniques dans l'algorithme d'intelligence artificielle générative. modèle ; une fois découvert. Lorsqu'il existe un biais algorithmique inné, des corrections sont apportées à l'intérieur de l'algorithme d'intelligence artificielle générative conformément aux exigences légales pour garantir que l'algorithme modifié peut fonctionner normalement lorsque des problèmes surviennent par la suite, la gestion de la traçabilité de l'algorithme d'intelligence artificielle est effectuée ; mené pour obtenir une attribution et une correction précises. Promouvoir et améliorer les normes de supervision des algorithmes pour l'intelligence artificielle générative, combler les lacunes de l'examen préventif préalable et utiliser des moyens techniques et juridiques en parallèle pour mettre l'accent sur un niveau égal de développement et de gestion.
Dans la phase de génération de l'intelligence artificielle générative, il existe divers risques tels que les risques de propriété intellectuelle liés aux produits générés et les risques de mauvaise utilisation des produits générés. Parce que l'intelligence artificielle générative est très intelligente, elle peut réaliser une compilation automatique de contenu, un polissage intelligent, une conversion multimodale et une génération créative, modifiant directement la méthode de production et le modèle de fourniture de contenu. Par rapport aux systèmes d'intelligence artificielle précédents, des changements subversifs se sont produits. a conduit à des questions telles que la propriété des droits de propriété intellectuelle et la protection de la propriété intellectuelle des produits générés par l'intelligence artificielle générative. Certains pensent que les produits de l'intelligence artificielle générative sont les conclusions d'algorithmes de données, qui sont essentiellement des calculs et des imitations, plutôt que du travail intellectuel, et ne peuvent pas faire l'objet de droits de propriété intellectuelle. Les opposants estiment que l'intelligence artificielle générative simule la structure des réseaux neuronaux du cerveau humain pour obtenir et produire des données, et contrôle sa propre conception et sa fabrication via des réseaux neuronaux convolutifs. Ses produits originaux et innovants devraient être protégés par les lois sur la propriété intellectuelle. Dans le même temps, l'intelligence artificielle générative augmente également le risque de litiges en matière de propriété intellectuelle et la difficulté de protection. Certains produits générés peuvent contenir du contenu qui porte atteinte aux droits de propriété intellectuelle d'autrui, ou peuvent être intégrés dans des œuvres originales dotées de droits de propriété intellectuelle complets. par le traitement et d’autres moyens, déclenchant des problèmes de droits de propriété intellectuelle connexes. Afin de résoudre les problèmes connexes en temps opportun, les modèles techniques et les principes techniques de l'intelligence artificielle générative doivent être analysés de manière approfondie conformément aux normes du droit de la propriété intellectuelle si la technologie nécessite l'intervention de la volonté humaine pour permettre aux produits générés de fonctionner. produire de l'originalité et de l'innovation, les droits de propriété intellectuelle devraient être accordés Et clarifier sa propriété et renforcer la protection systématique des droits de propriété intellectuelle dans le domaine de l'intelligence artificielle générative, en même temps, il est nécessaire de déterminer raisonnablement l'étendue de la protection des droits de propriété intellectuelle générés ; droits de propriété pour éviter une expansion illimitée de la portée de la protection et entraver la promotion, l’application et le développement technologique de l’intelligence artificielle générative. Il faut également renforcer la gestion des risques de mauvaise utilisation des produits. Par exemple, les travaux doivent identifier clairement le rôle de l'intelligence artificielle générative dans la création de l'auteur, et la surveillance précise et normalisée de la contrefaçon profonde, du changement de visage de l'IA et d'autres produits générés pouvant impliquer des crimes illégaux sera renforcée, etc.
L’intelligence artificielle générative a de nombreux impacts diffus dans les applications sociales. Outre les risques mentionnés ci-dessus, il existe de nombreux autres types de risques, tels que l’exacerbation de l’asymétrie de l’information, l’élargissement de la fracture numérique et la atteinte aux intérêts des groupes numériquement défavorisés. Les réponses doivent être fondées sur les conditions réelles afin de minimiser l'impact négatif des nouvelles technologies sur le développement social.
Le secrétaire général Xi Jinping a souligné : « Adhérer à une approche axée sur l'humain et à la sagesse pour le bien ». À l'heure actuelle, la technologie de l'intelligence artificielle évolue chaque jour, ce qui non seulement modifie profondément la production et le mode de vie des gens, accélère le processus de développement économique et social, mais a également un impact sur les normes juridiques, l'éthique morale, la gouvernance publique, etc. Parmi elles, les menaces à la vie privée et à la sécurité des informations personnelles sont des questions importantes qui méritent attention. La « Décision » de la troisième session plénière du 20e Comité central du Parti communiste chinois a pris des dispositions importantes pour « établir un système de supervision de la sécurité de l'intelligence artificielle. La protection du droit à la vie privée et de la sécurité des informations personnelles fait partie intégrante de la supervision de la sécurité de l'intelligence artificielle ». . La protection de la vie privée à l’ère de l’intelligence artificielle doit être renforcée pour garantir la sécurité des informations personnelles.
À l’ère de l’intelligence artificielle, le droit à la vie privée est confronté à de graves défis. La vie privée fait référence à la paix et à l'espace privé d'une personne physique, à ses activités privées et aux informations privées qu'elle ne souhaite pas que les autres connaissent. Le Code civil stipule : « Les personnes physiques jouissent du droit à la vie privée. Aucune organisation ou individu ne peut porter atteinte au droit à la vie privée d'autrui par le biais d'espionnage, d'intrusion, de fuite, de divulgation, etc. les droits de la personnalité, constituent un fondement important pour l’édification de la dignité personnelle. Ne pas être divulgué et ne pas être connu sont les principales exigences du droit à la vie privée. À l'heure actuelle, l'intelligence artificielle est discrètement impliquée dans tous les aspects de la production et de la vie des gens, ce qui donne lieu à de nombreux scénarios d'application tels que des soins médicaux intelligents, des transports intelligents et des recommandations intelligentes. Certains défauts de la technologie elle-même et des règles imparfaites ne peuvent être ignorés. Évitez les problèmes de violation de la vie privée. Par exemple, collecter et utiliser illégalement des informations personnelles, utiliser et analyser ces informations personnelles pour diffuser fréquemment des « publicités de précision » dites « personnalisées », divulguer des informations personnelles à des tiers, provoquant l'invasion fréquente de la vie privée par des informations de spam ; informations pour mener des « mégadonnées » « Tuer des personnes familières » pour obtenir une discrimination de prix précise « un client, un prix », provoquant des pertes de biens pour les citoyens ; les informations personnelles désensibilisées sont ré-identifiées, entraînant une fuite de données en raison de mesures de protection inappropriées ; , et l'achat et la vente illégaux d'informations personnelles sont courants, portant atteinte à la sécurité des informations personnelles. Utiliser des informations personnelles pour procéder à une falsification profonde, utiliser la simulation vocale, le changement de visage par l'IA et d'autres moyens pour commettre des fraudes et d'autres actes illégaux et criminels. ; et ainsi de suite. Cela montre que la violation du droit à la vie privée porte non seulement atteinte à la dignité personnelle des citoyens, mais entraîne également d'autres conséquences sociales graves.
Les caractéristiques techniques de la privatisation exacerbent les risques de sécurité des informations personnelles. Au début de l’application de l’intelligence artificielle basée sur le Big Data, de nombreuses personnes considéraient cette nouvelle technologie avec une attitude attentiste et sceptique. Alors que l'intelligence artificielle continue d'améliorer l'expérience produit et les sentiments psychologiques des utilisateurs grâce à des formes externes anthropomorphiques, une fourniture de services personnalisés et des processus interactifs immersifs, de plus en plus de personnes deviennent progressivement des utilisateurs fidèles de l'intelligence artificielle et profitent de toutes sortes de commodités qu'apporte l'intelligence artificielle. toi. Avec la popularisation de la technologie IoT pour l'interaction homme-machine et l'interconnexion de toutes choses, les scénarios d'application de l'intelligence artificielle tels que les maisons intelligentes, les bureaux intelligents, les usines intelligentes et la conduite intelligente sont également en constante expansion. Les individus peuvent présenter des demandes et obtenir des services dans le domaine. l'espace numérique sous la forme d'humains numériques, et transmettent également sans le savoir des informations personnelles à l'intelligence artificielle. Toutes les traces laissées par les individus dans l'espace numérique sont numérisées pour former des informations personnelles et jouent une fonction importante en tant que « moyen de connexion avec le monde » pour les personnes. Dans le même temps, l’intelligence artificielle a également tendance à collecter et à utiliser de manière excessive des informations personnelles afin d’améliorer la qualité des services. Tout cela confère à l’intelligence artificielle des caractéristiques techniques distinctives en matière de privatisation. C’est également dans le flux d’informations personnelles auquel les utilisateurs de l’intelligence artificielle sont habitués que les big data mélangées aux données publiques et privées sont extraites, intégrées, analysées et utilisées. Il est difficile pour les gens de détecter avec leurs propres sens cette confidentialité. les droits ont été violés et les informations personnelles ont été violées. La sécurité est plus à risque.
Respectez les choix individuels et insistez sur le consentement éclairé. Différentes personnes acceptent différemment que les informations personnelles soient connues et utilisées. Les souhaits individuels doivent être respectés et le principe du « consentement éclairé » doit être mis en œuvre de manière scientifique et rationnelle. Le principe du consentement éclairé comprend deux aspects : le consentement éclairé et le consentement doit être éclairé sans une connaissance et une compréhension complètes, il ne peut y avoir de véritable consentement. L'information, la compréhension et le caractère volontaire sont les trois éléments du principe du consentement éclairé. En étant pleinement « informés », les individus peuvent exprimer leur « consentement » de manière indépendante. Cela nécessite de fournir des instructions claires et faciles à comprendre lorsque les utilisateurs utilisent l'intelligence artificielle, et d'obtenir le consentement des utilisateurs à la collecte et à l'utilisation d'informations personnelles. Si des informations personnelles circulent entre différentes plateformes, les utilisateurs doivent être informés de la portée, de la cible et des limites d’utilisation du flux. Pour une expérience utilisateur fluide et fluide, les utilisateurs peuvent également avoir la possibilité d'obtenir une autorisation en une seule fois ou par étapes. Les utilisateurs doivent être informés de l'étendue, de la méthode et du but de la collecte d'informations personnelles et des personnes avec qui les informations personnelles sont partagées, et les utilisateurs doivent également pouvoir se désinscrire à tout moment. Lors de l'analyse des informations personnelles, les utilisateurs doivent être invités à y prêter attention et à autoriser en temps réel via des fenêtres contextuelles ou d'autres formulaires. Définir le cycle de vie des données et supprimer les informations personnelles à temps sont également des moyens efficaces de protéger la sécurité des informations personnelles.
Améliorer les moyens techniques pour assurer le renseignement pour de bon. Pour les problèmes causés par la technologie, nous devons être capables de trouver des idées pour résoudre les problèmes d'un point de vue technique. À l’ère de l’intelligence artificielle, le droit à la vie privée est confronté à des défis, et le déclencheur direct est l’évolution de la technologie. De l’intelligence artificielle analytique à l’intelligence artificielle générative, chaque mise à niveau itérative de la technologie de l’intelligence artificielle peut avoir de nouveaux impacts sur le droit à la vie privée. Par conséquent, les solutions techniques doivent occuper une place clé et des pare-feu qui protègent le droit à la vie privée et la sécurité des informations personnelles doivent être établis en améliorant la sécurité des bases de données, le cryptage des données de base, la désensibilisation des données personnelles et d'autres technologies. Les informations personnelles passent généralement par trois étapes de collecte, de stockage et d'utilisation, et ces trois étapes peuvent impliquer des risques de violation du droit à la vie privée et de la sécurité des informations personnelles. Une protection technique efficace doit être assurée en fonction des différentes situations des informations personnelles à différents stades. Au stade de la collecte de renseignements personnels, renforcer la promotion et l’application de la technologie d’anonymisation. Bien que la collecte d’informations personnelles soit inévitable, tant qu’elles sont anonymisées et ne font pas correspondre les informations personnelles avec l’identité, le droit à la vie privée ne sera pas violé. Au stade du stockage des informations personnelles, la technologie de cryptage doit être améliorée. Actuellement, il existe deux méthodes principales de stockage de données : le stockage par base de données et le stockage dans le cloud. Les intrusions et vols externes, ainsi que la consultation, l'utilisation et les fuites non autorisées par des internes sont les principales menaces à la sécurité des informations personnelles pendant la phase de stockage. Il est nécessaire de renforcer le cryptage des données et de contrôler strictement les droits d'accès aux données. Au cours de la phase d'utilisation des informations personnelles, il est nécessaire de renforcer techniquement les interventions, les interférences et le blocage en temps réel des utilisations illégales des informations personnelles, afin d'ajouter une couche supplémentaire de protection aux droits à la vie privée et à la sécurité des informations personnelles.
Alors que les règles juridiques de mon pays se perfectionnent de plus en plus et que la protection continue d'être renforcée, en particulier le Code civil et la loi sur la protection des informations personnelles, qui contiennent des dispositions détaillées sur le droit à la vie privée et la protection des informations personnelles, clarifiant les limites des droits et obligations dans les activités de traitement des informations personnelles. , mon pays à l'ère de l'intelligence artificielle La protection juridique du droit à la vie privée et de la sécurité des informations personnelles atteindra sûrement un niveau plus élevé, offrant une protection juridique solide pour le développement sain de l'intelligence artificielle et un meilleur bénéfice pour la population.
La prospérité de la science et de la technologie fera prospérer la nation, et une science et une technologie fortes rendront le pays fort. Depuis le 18e Congrès national du Parti communiste chinois, la Chine attache une grande importance au développement de l'intelligence artificielle, encourage activement l'intégration profonde de l'Internet, du Big Data, de l'intelligence artificielle et de l'économie réelle, cultive et développe les industries intelligentes, a accéléré le développement de nouvelles forces productives et a donné un nouvel élan à un développement de haute qualité. Le secrétaire général Xi Jinping a souligné : « Nous devons adhérer à l'unité de promotion du développement et de la gestion conformément à la loi, non seulement cultiver vigoureusement les nouvelles technologies et les nouvelles applications telles que l'intelligence artificielle, l'Internet des objets et les réseaux de communication de nouvelle génération, mais aussi utilisent également activement les lois, réglementations et normes pour guider l'application des nouvelles technologies. " Xi Jinping L'important exposé du secrétaire général fournit des directives fondamentales de conformité et d'action pour le développement de l'intelligence artificielle dans notre pays. Pour développer vigoureusement l'intelligence artificielle et améliorer le niveau de gouvernance de la sécurité de l'intelligence artificielle, nous devons pleinement mettre en œuvre l'important déploiement de « l'établissement d'un système de supervision de la sécurité de l'intelligence artificielle » proposé par la « Décision » de la troisième session plénière du 20e Comité central de l'Union européenne. Parti communiste chinois, et saisir avec précision le développement des tendances de l'intelligence artificielle, en se concentrant sur la technologie de pointe de l'intelligence artificielle et les risques et défis qu'elle entraîne, en renforçant la réflexion prospective et en explorant constamment des solutions innovantes pour la gouvernance de l'intelligence artificielle.
Actuellement, l'intelligence artificielle générative a créé un nouveau paradigme d'interaction homme-machine. Grâce à ses puissantes capacités d'interaction, de compréhension et de génération, elle a développé un modèle de langage naturel à grande échelle comme composant central, intégrant la mémoire, la planification et l'utilisation d'outils. la capacité de percevoir et d’agir. Les capacités des agents artificiels ouvrent de vastes perspectives. L'intelligence artificielle est devenue l'orientation de recherche de pointe la plus importante de l'intelligence artificielle générale et une nouvelle voie que les entreprises technologiques rivalisent pour tracer. Il utilise un grand modèle de langage naturel comme « moteur intelligent » et présente les caractéristiques d'autonomie, d'adaptabilité et d'interactivité. Il peut améliorer considérablement l'efficacité de la production, améliorer l'expérience utilisateur, fournir une aide à la décision au-delà des capacités humaines et peut être appliqué au développement et au développement de logiciels. la recherche scientifique et d’autres scénarios réels. Bien que la commercialisation à grande échelle en soit encore au stade préliminaire d’exploration et d’incubation, des tendances telles que l’intégration virtuelle et réelle et l’interaction homme-machine approfondie représentée par l’intelligence artificielle ont une importance directrice importante pour le développement économique et social. Cependant, en raison de limitations techniques, les agents artificiels peuvent également entraîner des risques et des inquiétudes complexes, dynamiques et imprévus.
Du point de vue de la logique de conception, l'intelligence artificielle doit obtenir des capacités cognitives via l'extrémité de contrôle, obtenir et utiliser des informations de l'environnement via l'extrémité de détection, et enfin devenir un système intelligent qui perçoit et agit sur la base d'entités physiques lors de l'action. fin.
Du côté du contrôle, le modèle de langage naturel à grande échelle sert de « cerveau » au corps artificiel. Il forme des connaissances en apprenant des données massives et constitue le module de mémoire du système de contrôle du corps artificiel. Cependant, il existe des risques en matière de fiabilité. et l'exactitude du contenu généré. Par exemple, le contenu généré par le modèle peut ne pas suivre la source d'information ou être incompatible avec la situation réelle du monde réel, ce qui entraîne ce que l'on appelle des « hallucinations de la machine » en raison de préjugés humains dans les données de formation, cela peut affecter le ; prise de décision équitable de l’intelligence artificielle, etc.
Du côté de la perception, afin de comprendre pleinement les informations explicites et implicites dans des situations spécifiques et de percevoir avec précision les intentions humaines, les agents d'intelligence artificielle élargissent le champ de perception du texte pur aux champs multimodaux incluant les modes textuels, visuels et auditifs. Bien que cela améliore les capacités de prise de décision, cela peut entraîner une série de fuites de confidentialité et de risques pour la sécurité des données lors de l'intégration et de l'analyse de données multi-sources provenant de différents canaux et types. Par exemple, l’utilisation et le partage inappropriés de données biométriques hautement personnalisées et permanentes telles que les informations faciales, les empreintes digitales et les empreintes vocales peuvent entraîner des risques à long terme, voire permanents, pour la confidentialité. Afin de mieux gérer des tâches complexes, les systèmes multi-agents qui déploient plusieurs agents artificiels pour planifier, coopérer et même rivaliser pour accomplir et améliorer les performances des tâches deviendront courants et normaux. L’interaction système de plusieurs agents artificiels peut entraîner des risques systémiques imprévus pour la sécurité. Même si chaque algorithme semble sûr et raisonnable lorsqu’il fonctionne seul, la combinaison et l’interaction peuvent néanmoins produire des risques complètement différents et imprévisibles qui peuvent évoluer et s’aggraver rapidement. Par exemple, sur le marché boursier, si l'intelligence artificielle est largement utilisée et que plusieurs algorithmes identifient automatiquement de petits changements dans les cours des actions et exécutent simultanément un grand nombre de transactions à haute fréquence à des fins d'arbitrage, cela peut déclencher un incident de sécurité systémique tel qu'un crash éclair. en bourse.
Du côté mobile, les agents artificiels déployés dans des environnements physiques réels seront probablement présentés sous une image plus tridimensionnelle et anthropomorphique. Contrairement à l'espace virtuel, l'espace réel repose sur des méthodes d'apprentissage interactives. Les agents d'intelligence artificielle ont besoin d'une perception d'informations riche et complète pour observer, apprendre et agir. Grâce à des capacités d'optimisation de l'apprentissage basées sur le feedback, cela peut constituer une approche globale et intrusive de la vie privée. . Les risques du sexe et de l'invisibilité. Par exemple, interpréter le langage corporel des utilisateurs, détecter des activités plus complexes et continuer à collecter secrètement des données sans autorisation de l'utilisateur peuvent entraîner d'énormes risques pour la sécurité des données en cas de faille de sécurité dans le système. En outre, à mesure que l'autonomie de l'intelligence artificielle continue de croître, elle peut non seulement interférer et affecter la cognition et les émotions humaines, mais également remettre en question les capacités et le statut des humains en tant que décideurs et acteurs indépendants. Par exemple, certains chatbots produisent des résultats qui affectent les émotions des utilisateurs lors des interactions avec les utilisateurs, parfois de manière négative et manipulatrice.
Face aux risques et aux défis posés par les agents d'intelligence artificielle, afin de rendre le comportement des agents artificiels conforme aux intentions et aux valeurs humaines, il est nécessaire d'explorer des solutions de gouvernance innovantes pour garantir l'efficacité du système de supervision de la sécurité de l'intelligence artificielle. Le développement de l’intelligence artificielle se trouve dans une période critique « de zéro à un ». Le plan de gouvernance doit avoir la capacité de rester inchangé en réponse à des changements en constante évolution, garantissant que le développement et l'application de la technologie soient toujours sur une voie contrôlable. Le développement, la formation, le déploiement, l’exploitation et le service des agents d’intelligence artificielle ont fait l’objet d’une division du travail hautement spécialisée, formant une structure hiérarchique complexe. Chaque couche compte différents acteurs, parties prenantes et facteurs de risque potentiels, conférant aux entités d’intelligence artificielle les caractéristiques d’une chaîne industrielle « modulaire ». Par conséquent, un cadre de gouvernance modulaire peut être construit qui couvre l'ensemble de la chaîne industrielle et chaque couche finale, et les modules de gouvernance correspondants sont conçus à partir de nœuds clés tels que les modules de données, les modules d'algorithmes et les architectures de modèles. Par exemple, dans le processus de déploiement, différents modules de gouvernance peuvent être sélectionnés de manière flexible et combinés de manière collaborative en fonction des caractéristiques du scénario d'application et du mode de déploiement pour créer une solution de gouvernance adaptée. Le cadre de gouvernance modulaire fournit une méthode de décomposition opérationnelle. En décomposant les objectifs de gouvernance en modules de gouvernance relativement indépendants mais couplés, il favorise progressivement la formation d'un système de gouvernance, qui améliore non seulement la flexibilité et la pertinence de la gouvernance, mais améliore également la flexibilité et la pertinence. de gouvernance. Elle peut également s’adapter aux itérations rapides de la technologie. Lors de la création de modules de gouvernance basés sur des dimensions telles que les données, les algorithmes, les modèles et les scénarios, la technologie doit être utilisée pour renforcer la supervision et créer des outils de gouvernance intelligents compatibles avec le cadre de gouvernance modulaire des entités d'intelligence artificielle, comblant ainsi la dynamique des risques et la tension. entre les statiques réglementaires permet une gouvernance précise de scénarios spécifiques à haut risque.
Il est nécessaire de construire un écosystème de gouvernance interactif pour les entités d’intelligence artificielle. Les agents d’intelligence artificielle sont profondément interactifs, hautement interconnectés et adaptables de manière dynamique. En conséquence, les méthodes de gouvernance devraient transcender la gouvernance traditionnelle centrée sur l’individu et promouvoir la formation d’un écosystème de gouvernance doté d’une interconnexion étendue, d’une participation multipartite et d’une collaboration à plusieurs niveaux. Parmi eux, les communautés techniques telles que les développeurs techniques et le personnel d’exploitation et de maintenance joueront un rôle essentiel de « lanceur d’alerte » dans la gouvernance des entités d’intelligence artificielle. Les avantages de supervision de la communauté technique devraient être mieux utilisés pour construire un mécanisme de retenue efficace au sein des entreprises d’intelligence artificielle. Nous devons également améliorer activement les connaissances numériques de la majorité des utilisateurs, les sensibiliser à l'utilisation de l'intelligence artificielle de manière légale, sûre et responsable, parvenir à une interaction positive avec l'intelligence artificielle et promouvoir la formation d'un état de fonctionnement ascendant et bon.