L'assistant en intelligence artificielle de Meta a suscité la controverse après avoir faussement affirmé qu'une tentative d'assassinat contre l'ancien président Trump n'avait jamais eu lieu. Cet incident met en évidence la gravité du problème de « l'illusion » dans la technologie de l'intelligence artificielle générative, c'est-à-dire la capacité des modèles d'IA à générer de fausses informations. L'incident a non seulement conduit à des excuses publiques de la part des dirigeants de Meta, mais a également soulevé des inquiétudes du public quant à l'exactitude et à la fiabilité de l'IA, et a incité les gens à réexaminer les risques potentiels et les problèmes éthiques des grands modèles de langage. Cet article fournira une analyse détaillée des erreurs de Meta AI et des défis auxquels d’autres entreprises technologiques ont été confrontées pour faire face à des problèmes similaires.
Récemment, l'assistant en intelligence artificielle de Meta a affirmé à tort que la tentative d'assassinat contre l'ancien président Donald Trump n'avait jamais eu lieu. L'erreur a suscité une large publicité et les dirigeants de Meta ont exprimé leurs regrets.
Dans un article de blog de l'entreprise, Joel Kaplan, responsable de la politique mondiale de Meta, a admis que l'erreur était due à la technologie qui alimente les systèmes d'IA tels que les chatbots.
Initialement, Meta avait programmé l'IA pour ne pas répondre aux questions sur la tentative d'assassinat de Trump, mais après que les utilisateurs ont commencé à le remarquer, Meta a décidé de supprimer cette restriction. Ce changement a conduit l'IA à continuer de fournir des réponses incorrectes dans quelques cas, affirmant même que l'incident ne s'était pas produit. Kaplan a souligné que cette situation n'est pas rare dans l'industrie et est appelée « hallucination », qui est un défi courant auquel est confrontée l'intelligence artificielle générative.
Outre Meta, Google se trouve dans une situation similaire. Plus récemment, Google a dû nier les allégations selon lesquelles sa fonction de saisie semi-automatique de recherche censurait les résultats concernant la tentative d’assassinat de Trump. Trump a exprimé son fort mécontentement à ce sujet sur les réseaux sociaux, affirmant qu'il s'agissait d'une nouvelle tentative de manipulation des élections et a appelé tout le monde à prêter attention au comportement de Meta et de Google.
Depuis l’avènement de l’IA générative telle que ChatGPT, l’ensemble du secteur technologique est aux prises avec le problème de l’IA générant de fausses informations. Des entreprises comme Meta tentent d’améliorer leurs chatbots en fournissant des données de haute qualité et des résultats de recherche en temps réel, mais cet incident montre que ces grands modèles de langage sont toujours enclins à générer de la désinformation, un défaut inhérent à leur conception.
Kaplan a déclaré que Meta continuerait à travailler pour résoudre ces problèmes et continuerait à améliorer sa technologie en fonction des commentaires des utilisateurs afin de mieux gérer les événements en temps réel. Cette série d’événements met non seulement en évidence les problèmes potentiels de la technologie de l’IA, mais attire également davantage l’attention du public sur l’exactitude et la transparence de l’IA.
Points forts:
1. Meta AI a affirmé à tort que l’assassinat de Trump n’avait pas eu lieu, ce qui suscite des inquiétudes.
2. ❌ Les dirigeants affirment que cette erreur, appelée « illusion », est un problème courant dans l'industrie.
3. Google a également été accusé de censurer les résultats de recherche pertinents, provoquant le mécontentement de Trump.
Dans l’ensemble, les erreurs de Meta AI nous rappellent une fois de plus que tout en profitant de la commodité apportée par la technologie de l’IA, nous devons être attentifs à ses risques potentiels et renforcer la supervision et l’orientation de la technologie de l’IA pour assurer son développement sain et éviter son abus ou sa mauvaise utilisation. utiliser. Ce n’est qu’ainsi que l’IA pourra réellement profiter à l’humanité.