Lors de la conférence sur les sources intelligentes de Pékin, les grands modèles d’IA sont à nouveau au centre de l’attention. De nombreux dirigeants nationaux et étrangers de l’IA et lauréats du prix Turing se sont réunis pour mener des discussions animées sur le développement et la supervision futurs de l’IA. Le fondateur d'OpenAI, Sam Altman, le scientifique en chef de l'IA de Meta, Yann LeCun, et d'autres leaders de l'industrie ont exprimé leurs opinions, déclenchant des débats féroces sur l'avenir du modèle GPT, la supervision de l'IA et d'autres aspects. L'éditeur de Downcodes vous fera revivre les merveilleux moments de la conférence et interpréter les informations clés derrière ce festin d'IA.
La popularité de Chat GPT ne s'est pas encore dissipée et une conférence a poussé l'attention des grands modèles d'IA vers de nouveaux sommets.
Lors de la récente conférence Zhiyuan de Pékin, de nombreux magnats légendaires de l'IA se sont réunis, dont Zhang Bo et Zhang Hongjiang, les dirigeants nationaux les plus avant-gardistes de l'IA, ainsi que quatre personnalités dont Geoffery Hinton, Yann LeCun, Yao Qizhi et Joseph Sifakis. Lauréat du Spirit Award, Sam Altman, fondateur d'Open AI, PaLM-E et RoBERTa et d'autres dirigeants d'entreprises d'IA.
Parce que chaque conférence de Zhiyuan adhère à une ligne idéologique académique professionnelle, elle jouit d'une très grande réputation parmi les cercles d'élite dans le domaine de l'intelligence artificielle au pays et à l'étranger, mais pour le public, elle est un peu froide. Lors de cette conférence, Sam Altman a souligné que pour comprendre le développement de la technologie générale de l'IA, l'Open AI doit promouvoir les changements dans la recherche sur l'IA.
Cependant, cette déclaration a été contestée par de nombreux magnats de l’IA. Parmi eux, Stuart Russell, professeur à l'Université de Californie à Berkeley, a critiqué Chat GPT et GPT-4 développés par Open AI pour ne pas « répondre » aux questions. Ils ne comprennent pas le monde et ne constituent pas une étape de développement pour l'IA générale. Yang Likun a même directement souligné que le modèle autorégressif GPT actuel manque de capacités de planification et de raisonnement, et que le système GPT pourrait être abandonné à l'avenir.
Outre les débats académiques acharnés, la manière de réguler l’IA actuelle et l’orientation ultérieure du développement de l’IA sont également devenues le centre des discussions lors de cette réunion.
Comment l’IA sera-t-elle réglementée à l’avenir ?
Depuis 2023, alors que l’IA générative a balayé de nombreux domaines à une vitesse fulgurante, divers problèmes causés par l’IA ont également intensifié les inquiétudes du monde extérieur.
Dans notre pays, la « fraude à l’IA » est devenue l’un des sujets de préoccupation sociale récents. Il y a quelques jours, la police de Baotou, en Mongolie intérieure, a signalé un cas de fraude utilisant AI. M. Guo, le représentant légal d'une entreprise de Fuzhou, a été escroqué de 4,3 millions de yuans en 10 minutes. Selon certaines informations, les escrocs ont utilisé la technologie de changement de visage et d'onomatopées de l'IA pour se faire passer pour des connaissances afin de commettre une fraude. Par coïncidence, Xiao Liu de Changzhou, province du Jiangsu, a été trompé par un escroc se faisant passer pour son camarade de classe pour lui envoyer des appels vocaux et vidéo. Après avoir vu la « vraie personne », Xiao Liu l'a cru et a « prêté » 6 000 yuans à l'escroc.
Source : Douyin
En fait, la raison derrière l’apparition de cas de fraude à l’IA est liée au développement rapide de la technologie actuelle de l’IA et à l’abaissement continu du seuil de synthèse technologique. Dans une perspective de suivi, si la technologie des grands modèles d'IA continue de faire des percées, à l'avenir, elle passera progressivement de la synthèse faciale à la synthèse corporelle complète et à la technologie de synthèse 3D, et l'effet de synthèse sera plus réaliste.
Aux États-Unis, la question de savoir si l’IA aura un impact sur les élections est devenue un sujet de discussion dans les médias locaux. Selon l'Associated Press, les outils sophistiqués d'IA générative d'aujourd'hui peuvent « cloner » la voix et l'image d'une personne en quelques secondes, créant ainsi un grand nombre de « faux matériaux ». Tant qu’elle est liée à un puissant algorithme de médias sociaux, l’IA peut rapidement cibler le public et diffuser le message, détruisant ainsi l’élection à une échelle et à une vitesse sans précédent.
D'autres médias américains prédisent que, étant donné que la prochaine élection présidentielle aura lieu l'année prochaine, il n'est pas exclu que les deux partis américains utilisent la technologie de l'IA à des fins de propagande, de collecte de fonds et d'autres activités. Plus important encore, Chat GPT offre d'excellentes performances en termes de capacités de texte. Ainsi, l’équipe d’un candidat peut générer un discours magnifiquement formulé en quelques secondes seulement.
Sur la base de diverses préoccupations concernant l'IA du monde extérieur, il y a quelques jours, "AI Godfather" Jeffrey Hinton, le PDG d'Anthropic Dario Amodai, le PDG de Google Deep Mind Demis Hassabis, etc. Plus de 350 dirigeants et experts dans le domaine de l'IA ont signé une déclaration commune déclarant que "l'atténuation du risque d'extinction posé par l'IA devrait devenir une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les épidémies et la guerre nucléaire".
Concernant la question de savoir comment réguler l'IA ultérieure, Sam Altman a souligné lors de l'Intelligent Source Conference que l'Open AI résout actuellement ce problème de diverses manières. Premièrement, dès le 26 mai, Open AI a lancé un programme d’incitation, investissant 1 million de dollars pour solliciter auprès de la société des solutions efficaces de gouvernance de l’IA.
Deuxièmement, Sam Altman estime que les humains sont incapables de détecter certains modèles malveillants qui font des choses malveillantes. L’Open AI investit actuellement dans des directions nouvelles et complémentaires, dans l’espoir de réaliser des percées. Mais la supervision évolutive est une tentative d'utiliser les systèmes d'IA pour aider les humains à découvrir des défauts dans d'autres systèmes, tandis que la capacité d'explication consiste à utiliser GPT-4 pour expliquer les neurones GPT-2. Bien qu'il reste encore un long chemin à parcourir, Open AI y croit. technologie d'apprentissage automatique Cela peut encore améliorer l'explicabilité de l'IA. Dans le même temps, Sam Altman estime également qu'à l'avenir, ce n'est qu'en rendant les modèles plus intelligents et plus utiles que nous pourrons mieux tirer parti des avantages visés de l'IA générale et réduire les risques liés à l'IA.
Enfin, même si Open AI ne lancera pas de version GPT-5 à court terme, le monde pourrait disposer de systèmes d’IA plus puissants dans les dix prochaines années, et le monde doit se préparer à l’avance. Les travaux de base ultérieurs d'Open AI sur les grands modèles d'IA sont encore en formation et se préparent à établir une base de données mondiale pour refléter les valeurs et les préférences mondiales de l'IA et partager la recherche sur la sécurité de l'IA avec le monde en temps réel.
Outre les propres efforts d'Open AI, Sam Altman a également appelé à des efforts conjoints à l'échelle mondiale pour améliorer la supervision de l'IA. Par exemple, Sam Altman a souligné que la Chine possède actuellement certains des meilleurs talents en IA au monde, estimant que pour résoudre la difficulté d’aligner les systèmes d’IA, il faut faire appel aux meilleurs esprits du monde entier.
Par conséquent, Sam Altman espère également que les chercheurs chinois en IA pourront contribuer aux risques liés à l’IA à l’avenir. Tegmark estime également qu'actuellement, c'est la Chine qui a fait le plus en matière de réglementation de l'intelligence artificielle, suivie par l'Europe et enfin par les États-Unis.
Source de l'image : Conférence de sagesse
En outre, Sam Altman a également souligné qu'il existe des difficultés dans la coopération en matière de supervision mondiale de l'IA, mais qu'il s'agit en réalité d'une opportunité. Si l’IA rassemble le monde, elle doit également introduire à l’avenir un cadre systématique et des normes de sécurité.
Cependant, compte tenu de l’intensification actuelle du jeu entre les puissances mondiales, des conflits géopolitiques qui éclatent à de multiples moments et des gouvernements de différents pays qui ont des attitudes différentes à l’égard de l’IA générative, il sera difficile de mettre en œuvre une coopération mondiale en matière de réglementation de l’IA dans le monde. à court terme. Impact sur le marché des entreprises d’IA générative.
L'Europe a toujours été à l'avant-garde de la réglementation de l'IA. En mai, l'UE était sur le point d'adopter une législation sur la réglementation de la technologie de l'intelligence artificielle. Cela devrait également devenir le premier projet de loi complet sur l'intelligence artificielle au monde et pourrait devenir un précédent pour les économies développées. .
La présidente de la Commission européenne, Ursula von der Leyen, a déclaré précédemment dans une interview aux médias : « Nous voulons que les systèmes d'intelligence artificielle soient précis, fiables, sûrs et non discriminatoires, quelle que soit leur source. L'introduction de lois et réglementations européennes pertinentes pourrait rendre l'ouverture possible. L’IA se retirera ensuite du marché de l’UE. Par conséquent, la manière d’améliorer continuellement son modèle d’IA générative conformément aux ajustements des politiques réglementaires mondiales n’est pas seulement un problème rencontré par l’Open AI elle-même, mais aussi un problème que l’ensemble du secteur doit continuer à résoudre. faites attention à.
Dans l’ensemble, la Conférence sur les sources intelligentes de Pékin a présenté une scène de développement vigoureux dans le domaine de l’IA, et a également souligné l’urgence de la réglementation de l’IA et l’importance de la coopération mondiale. À l’avenir, la manière d’équilibrer le développement et la supervision de la technologie de l’IA nécessitera encore des efforts conjoints à l’échelle mondiale. L'éditeur de Downcodes continuera de prêter attention aux tendances dans le domaine de l'IA et vous proposera des rapports plus passionnants.