Construisez l’avenir de l’intelligence artificielle avec un cadre de gouvernance de la sécurité
Auteur:Eve Cole
Date de mise à jour:2024-11-22 11:00:02
Avec le développement rapide de la science et de la technologie, l’intelligence artificielle est devenue l’une des principales forces favorisant le progrès social. Cependant, à mesure que les scénarios d’application de l’intelligence artificielle continuent de se développer, les défis et les risques en matière de sécurité auxquels elle est confrontée deviennent de plus en plus complexes. Le 9 septembre, lors du forum principal de la Semaine nationale de publicité sur la cybersécurité 2024, le Comité technique national de normalisation de la cybersécurité a publié la version 1.0 du « Cadre de gouvernance de la sécurité de l'intelligence artificielle » (ci-après dénommé le « Cadre »). , qui apporte sans aucun doute des solutions aux problèmes de cette époque. Des idées importantes pour résoudre les problèmes. La sécurité est une condition préalable au développement. Les risques endogènes tels que la sécurité des algorithmes de modèles, la sécurité des données et la sécurité des systèmes, ainsi que les risques de sécurité des applications dans le domaine réseau, le domaine réel, le domaine cognitif et le domaine éthique, peuvent sembler être des problèmes mineurs, mais ils peuvent déclencher des réactions en chaîne et provoquer des problèmes mineurs. de graves répercussions. Par exemple, en Corée du Sud, la technologie deepfake a récemment été utilisée pour créer de fausses informations, ce qui constitue une menace pour l’ordre social et la vie privée. De toute évidence, face à l'évolution rapide de la technologie de l'intelligence artificielle, nous devons non seulement prêter attention au développement de la technologie elle-même, mais également prendre en compte les facteurs sociaux, éthiques, juridiques et autres, et utiliser un cadre complet pour guider l'intelligence artificielle. gouvernance de la sécurité du renseignement. Examinez de plus près ce « Cadre », qui est divisé en quatre sections principales : les risques de sécurité, les contre-mesures techniques, les mesures de gestion complètes et les directives de développement et d'application sûres. Il clarifie non seulement les principes de base de la gouvernance de la sécurité de l'intelligence artificielle, mais également. clarifie les exigences pour les développeurs d'algorithmes de modèles d'intelligence artificielle. Les règles de sécurité pour différentes entités telles que les fournisseurs de services, les utilisateurs dans des domaines clés et le public fournissent des lignes directrices techniques de base et cadres pour promouvoir le développement sain et l'application standardisée de l'intelligence artificielle. Il convient particulièrement de mentionner que ce « Cadre » met en avant le principe de gouvernance « d'inclusion, de prudence et d'assurance de la sécurité ». Il indique clairement que le développement et l'innovation sont encouragés et qu'une attitude inclusive envers la recherche, le développement et l'application de l'intelligence artificielle est adoptée. Dans le même temps, les principes fondamentaux de sécurité sont strictement respectés et des mesures sont prises en temps opportun contre les risques. mettre en danger la sécurité nationale, les intérêts sociaux publics et les droits et intérêts légitimes du public. Il faut dire que cela laisse non seulement suffisamment de place à la libre exploration de la technologie de l’intelligence artificielle, mais crée également un solide pare-feu contre les risques possibles. Tout comme le disaient les anciens : « Le sage change selon les temps, et le sage change selon les circonstances. » La gouvernance de l'intelligence artificielle doit également être méticuleuse et détendue. En clarifiant les règles de sécurité et les normes techniques, guider le développement sain de l'industrie de l'intelligence artificielle contribuera non seulement à améliorer la compétitivité globale de l'industrie de l'intelligence artificielle de mon pays, mais apportera également la sagesse chinoise et les solutions chinoises au développement de l'intelligence artificielle mondiale. Bien entendu, la publication du Cadre n’est que la première étape. La gouvernance de la sécurité de l’intelligence artificielle nécessite la participation conjointe des gouvernements, des entreprises, des instituts de recherche scientifique et du public. Par exemple, les ministères devraient renforcer la surveillance pour protéger le développement sûr de l'intelligence artificielle ; les entreprises devraient augmenter leurs investissements dans la recherche et le développement technologique pour améliorer la sécurité et la fiabilité de l'intelligence artificielle ; les institutions de recherche scientifique devraient mener des recherches approfondies sur les questions de sécurité de l'intelligence artificielle ; fournir des solutions aux problèmes pratiques ; le public doit également renforcer sa sensibilisation à la sécurité, utiliser correctement les produits d'intelligence artificielle et créer conjointement un environnement de développement de l'intelligence artificielle sûr, fiable, équitable et transparent. La technologie est axée sur les personnes. Dans la vague de l’intelligence artificielle, nous devons avoir le courage de surfer sur la vague et la sagesse de nous préparer aux jours de pluie. Désormais, en établissant un cadre solide de gouvernance de la sécurité, nous sommes évidemment plus confiants dans notre capacité à relever les défis posés par l’intelligence artificielle et à avancer ensemble vers un avenir plus sûr et plus durable en matière d’intelligence artificielle.