Actuellement, la technologie de l'intelligence artificielle se développe rapidement, mais ses problèmes de fiabilité et de sécurité attirent également une attention croissante. Le professeur Eerke Boiten, professeur de cybersécurité à l'Université de De Montford, a remis en question la fiabilité des systèmes d'IA existants, estimant qu'ils sont en danger dans des applications importantes. Il a souligné que l'IA génératrice et les grands modèles de langage basés sur de grands réseaux de neurones, tels que Chatgpt, ont des complexités qui rendent difficile la prévision et la vérification de leur comportement, ce qui le rend potentiellement risqué dans les applications qui nécessitent un sens des responsabilités.
Dans l'environnement technologique actuel, l'intelligence artificielle (IA) a déclenché une discussion généralisée. Eerke Boiten, professeur de cybersécurité à l'Université de De Montford, a déclaré que les systèmes d'IA existants ont des lacunes fondamentales en gestion et en fiabilité et ne devraient pas être utilisées dans des applications importantes.
Le professeur Boiten a souligné que la plupart des systèmes d'IA actuels reposent sur de grands réseaux de neurones, en particulier l'IA génératif et les modèles de gros langues (tels que le chatppt). Le principe de travail de ces systèmes est relativement complexe. Bien que le comportement de chaque neurone soit déterminé par des formules mathématiques précises, le comportement global est imprévisible.
Du point de vue de l'ingénierie logicielle, le professeur Boiten a souligné que les systèmes d'IA manquent de composibilité et ne peuvent pas être développés modulant comme les logiciels traditionnels. Sans une structure interne claire, les développeurs ne peuvent pas segmenter et gérer efficacement la complexité, et il leur est également difficile de mener un développement étape par étape ou des tests efficaces. Cela rend la vérification des systèmes d'IA limités aux tests globaux, ce qui est extrêmement difficile en raison des entrées excessives et de l'espace d'état.
De plus, le mauvais comportement des systèmes d'IA est souvent difficile à prévoir et à réparer. Cela signifie que même si des erreurs sont trouvées pendant la formation, le recyclage ne garantit pas que ces erreurs seront efficacement corrigées et peuvent même introduire de nouveaux problèmes. Par conséquent, le professeur Boiten estime que dans toute application qui nécessite un sens des responsabilités, les systèmes d'IA actuels doivent être évités.
Cependant, le professeur Boiten n'a pas complètement perdu espoir. Il estime que bien que les systèmes d'IA génératifs actuels aient atteint un goulot d'étranglement, en combinant l'intelligence symbolique et l'IA basée sur une base intuitive, il est toujours possible de développer des systèmes d'IA plus fiables à l'avenir. Ces nouveaux systèmes peuvent générer des modèles de connaissances ou des niveaux de confiance clairs qui améliorent la fiabilité de l'IA dans les applications pratiques.
Les opinions du professeur Boiten ont déclenché une réflexion approfondie des gens sur la fiabilité et la portée de l'intelligence artificielle et ont également souligné un nouveau chemin pour la direction future de développement de la technologie de l'intelligence artificielle. Tout en poursuivant les progrès de la technologie de l'intelligence artificielle, nous devons attacher une grande importance à sa sécurité et à sa fiabilité pour nous assurer qu'elle peut être contrôlée et gérée efficacement dans les applications et éviter les risques potentiels.