Depuis que le concept d’intelligence artificielle a été proposé pour la première fois en 1956, l’IA s’est développée vers une intelligence cognitive basée sur l’intelligence computationnelle et l’intelligence perceptuelle. Ces dernières années, avec l’émergence de ChatGPT et de sora, le développement de l’IA a progressé rapidement. Cependant, lors du séminaire sino-singapourien sur les frontières et la gouvernance de l'intelligence artificielle organisé par l'Académie chinoise d'ingénierie et l'Académie d'ingénierie de Singapour et accueilli par l'Université de Tongji aujourd'hui (28 octobre), de nombreux académiciens ont versé de l'eau froide sur la « fièvre de l'IA ». "Les problèmes de sécurité endogènes des réseaux remettent en question de manière globale le paradigme sous-jacent à l'écosystème numérique actuel." Wu Jiangxing, académicien de l'Académie chinoise d'ingénierie et professeur à l'Université de Fudan, a déclaré sans ambages qu'il est regrettable que ni le système de sécurité lui-même ni le système de sécurité ne soient en place. Les agents de sécurité du réseau qui gardent les maisons de retraite et les maisons de retraite sont actuellement capables de répondre aux trois principales questions de torture de l'âme : « Y a-t-il des failles ? » « Y a-t-il des portes dérobées/trappes ? » Il a sérieusement souligné que le système actuel d'application de l'IA présente un grave déséquilibre entre les responsabilités et les risques en matière de sécurité. Aucun commerçant ne peut garantir que ses produits ne présentent pas de vulnérabilités de sécurité ni de portes dérobées, et aucune agence de test ne peut garantir que les produits soumis à l'inspection seront exempts de vulnérabilités et de portes dérobées. C’est devenu un cauchemar incontournable pour tous les pays à l’ère de l’IA. Lors de la réunion, de nombreux experts ont analysé que l'intelligence artificielle apparemment puissante et les grands modèles présentent également des lacunes en termes de consommation, de sécurité et d'éthique. Le développement de l’intelligence artificielle est toujours en cours et il reste encore beaucoup de marge de développement. Les chercheurs de Chine et de Singapour devraient renforcer leur coopération et travailler ensemble pour que l’IA soit plus économe en énergie, plus sûre et plus vertueuse. Une intelligence artificielle apparemment puissante regorge en réalité de dangers cachés. En ce qui concerne les risques de sécurité des réseaux, de nombreuses personnes ont été particulièrement impressionnées par l'incident de l'écran bleu de Microsoft survenu en juillet de cette année. Le 19 juillet, des utilisateurs de nombreux pays du monde ont découvert que les ordinateurs de leur entreprise avaient un écran bleu, indiquant : « L'appareil a rencontré un problème et doit être redémarré. Par la suite, il a été confirmé que le problème d'écran bleu était lié à une mise à jour logicielle. par la société de sécurité des réseaux Crowd Strike. Selon Wu Jiangxing, il s'agit du réseau Un cas typique de « gardes du corps » de sécurité poignardant des humains dans le dos « L'intelligence artificielle et les problèmes de sécurité sont étroitement liés, et la sécurité est une faille génétique provoquée par. la mère dans l'architecture informatique moderne. Il faut prêter attention aux problèmes de sécurité de l'environnement d'exploitation de l'IA. " À cet égard, Zheng Qinghua, président de l'Université de Tongji et académicien de l'Académie chinoise d'ingénierie, partage le même point de vue. « Même si nous affirmons hautement les réalisations majeures des grands modèles, nous devons également être profondément conscients qu'il existe certains défauts inhérents à ces derniers. grands modèles." Zheng Qinghua a donné un exemple. La première performance est une consommation excessive de données et de puissance de calcul. "Un jour, les informations précieuses que les humains extraient des données open source sur Internet atteindront un plafond, tout comme les humains extraient des métaux rares à partir de ressources minérales, il y aura un moment où ils seront épuisés." d'oubli catastrophique et de faible capacité de traction de la scène. Zheng Qinghua a expliqué que les grands modèles aiment le nouveau et détestent l'ancien, et qu'il est difficile de tirer des conclusions à partir d'un exemple. Souvent, il est difficile de s'adapter à A, mais il est difficile de s'adapter à B. Ce n'est pas facile à trouver. un équilibre entre les deux. Le troisième est une faible capacité de raisonnement. Le grand modèle utilise un algorithme d'entraînement autorégressif, ce qui le rend incapable de former la capacité de raisonnement logique basée sur le raisonnement causal construit par les humains. La méthode de génération autorégressive est également difficile à gérer avec des tâches de raisonnement complexes qui nécessitent un retour en arrière et des essais et erreurs, ce qui conduit souvent au phénomène selon lequel les grands modèles apprennent des informations erronées pour résoudre les tâches. Ce phénomène est appelé « effet Hans intelligent ». Le quatrième défaut inhérent est que le grand modèle ne sait pas où et pourquoi il s’est trompé, et encore moins le corriger lorsqu’il est connu. Zheng Qinghua a déclaré sans ambages que ces défauts inhérents ont conduit à des problèmes tels que des hallucinations et une mauvaise contrôlabilité dans les grands modèles. "En particulier dans les applications d'
ingénierie et dans d'autres scénarios où nous avons besoin de savoir ce qui se passe et pourquoi, on peut dire que les grands modèles sont impuissants." entre dans une période de double transformation de l’ère de la numérisation et de la durabilité. En particulier dans la transformation numérique, un grand nombre d'activités sont passées du hors ligne au en ligne, ce qui consomme beaucoup de ressources informatiques et de serveurs. Les prévisions montrent que d'ici 2030, la consommation électrique des centres de données de Singapour atteindra 12 % de la consommation électrique totale de la société. Ce qui est encore plus alarmant, c’est que l’utilisation massive de l’IA augmentera également le volume des émissions de carbone et aura un impact dévastateur sur l’environnement. Guider l’IA pour qu’elle coure dans la bonne direction. Quand l’IA court les yeux fermés, comment les humains, les développeurs de technologie, peuvent-ils saisir le volant ? Lors de la réunion, les experts ont également formulé des suggestions réalisables basées sur des recherches à long terme. Wu Jiangguang a créé les théories de la sécurité endogène et de la défense mimique depuis 2013. Sur la base des fondements théoriques, l'équipe a construit une architecture de sécurité endogène pour renforcer les systèmes de conduite intelligents dans le laboratoire de Nanjing. Le système comporte plus de 20 scénarios d'application et plus de 100 individus d'application différenciés. Il présente un taux de réussite d'identification complet de plus de 90 % sur les problèmes courants d'IA tels que les contre-attaques et les vulnérabilités de porte dérobée. Zheng Qinghua a déclaré que l'histoire et l'expérience ont prouvé que chaque progrès humain dans la science du cerveau a une référence, une inspiration et une orientation pour la recherche sur les réseaux neuronaux artificiels et l'intelligence artificielle. "Les grands modèles d'aujourd'hui ne sont que la référence la plus préliminaire et la plus simple au cerveau humain. Si nous pouvons tirer des références approfondies de la science du cerveau, en particulier des mécanismes de représentation, d'activation, de récupération et de codage de la mémoire qui sont propres aux humains, nous sont censés résoudre les problèmes rencontrés par les grands modèles d'aujourd'hui. "Il existe donc plusieurs défauts inhérents, a-t-il proposé : la Chine doit avoir son propre modèle d'intelligence artificielle". L'Université de Tongji ouvre actuellement les frontières disciplinaires, favorise l'intégration de l'informatique et des sciences du cerveau, étudie la corrélation entre la mémoire du cerveau humain et la mémoire des machines et explore de nouvelles façons d'utiliser la science de l'information pour étudier la science du cerveau. L'intelligence artificielle d'aujourd'hui a fait tomber les frontières des disciplines traditionnelles et s'étend à presque toutes les disciplines. Guo Guisheng, académicien de l'Académie d'ingénierie de Singapour et professeur à l'Université de technologie et de design de Singapour, est également membre de l'association AI-RAN. Il est entendu que AI-RAN fait référence à « Intelligence artificielle (IA) – Réseau d'accès radio (RAN) » et est une association industrielle visant à revitaliser l'intégration de l'intelligence artificielle et des communications sans fil et à diriger l'innovation technologique. Guo Guisheng a présenté qu'un grand nombre de projets liés à l'IA et à l'informatique quantique sont promus grâce à l'interconnexion interdisciplinaire. Selon lui, guider l’IA vers le bien nécessite non seulement de sortir des cercles universitaires, mais également de s’associer activement à la sagesse mondiale. Il espère qu'à l'avenir, davantage de laboratoires et d'entreprises d'universités chinoises rejoindront le cercle d'amis de l'IA et établiront des partenariats. Le journaliste a appris que Singapour, en tant que « capitale de l'intelligence artificielle » de renommée mondiale, a été l'un des premiers pays au monde à lancer une stratégie nationale d'intelligence artificielle et a réalisé de nombreux travaux pionniers en matière de gouvernance de l'intelligence artificielle. Sur place, Zheng Qinghua a également proposé qu'à l'avenir, si nous voulons réaliser la belle image de « tout le monde a de l'intelligence, les machines ont de l'intelligence, chacun a sa propre sagesse, et la sagesse et la sagesse sont partagées », experts dans le domaine de L'intelligence artificielle de Chine et de Singapour doit travailler ensemble pour créer quelque chose pour ce monde.