La nouvelle fonctionnalité de résumé des actualités d’Apple sur l’IA a suscité une énorme controverse en raison de la désinformation fréquente. Cette fonctionnalité est conçue pour fournir aux utilisateurs des informations d'actualité pratiques, mais elle a été largement critiquée pour avoir résumé de manière incorrecte les rapports de la BBC et du New York Times. L'organisation internationale de défense de la liberté de la presse Reporters sans frontières a même publiquement appelé Apple à retirer immédiatement cette fonctionnalité, estimant qu'elle diffuse de fausses informations, porte atteinte à la crédibilité des médias et menace le droit du public à obtenir une information fiable. Cet incident met également en évidence les défis et les risques auxquels sont confrontées les technologies émergentes d’IA dans le domaine de la communication d’information, ainsi que les difficultés rencontrées par les médias face à l’évolution rapide des technologies.
Les fonctionnalités d’intelligence artificielle récemment lancées par Apple ont suscité une large attention et une large controverse. La fonctionnalité a été conçue pour fournir aux utilisateurs un résumé de l’actualité, mais elle a été critiquée pour désinformation. L'organisation internationale de défense de la liberté de la presse Reporters sans frontières a publiquement appelé Apple à retirer immédiatement cette fonctionnalité après avoir résumé de manière incorrecte un rapport de la BBC dans une notification aux utilisateurs.
Plus précisément, le système d'IA d'Apple a déclaré à tort que Luigi Manchione, le suspect soupçonné du meurtre du PDG d'UnitedHealthcare, s'était suicidé. Cependant, la BBC n’en a pas parlé dans son rapport original. La BBC a déclaré avoir contacté Apple à propos de ce problème et espère résoudre le problème dans les plus brefs délais, mais elle n'a pas confirmé si Apple avait répondu à cette question.
Vincent Bertier, directeur de la technologie et de l'information à Reporters sans frontières, a déclaré qu'Apple devrait être responsable de l'incident et retirer cette fonctionnalité dans les meilleurs délais. Il a souligné que l’intelligence artificielle n’est qu’une machine probabiliste et ne peut pas simplement juger des faits par sélection aléatoire. Il a souligné que la désinformation générée automatiquement porte non seulement atteinte à la crédibilité des médias, mais menace également le droit du public à obtenir des informations fiables.
En outre, l'organisation a également exprimé ses inquiétudes quant aux risques posés aux médias par les nouveaux outils d'intelligence artificielle, estimant que la technologie actuelle de l'IA est immature et ne devrait pas être autorisée à être utilisée pour la diffusion d'informations publiques.
En réponse, la BBC a répondu qu'il était essentiel de garantir que le public ait confiance dans les informations et les actualités qu'elle publie, et que tout le contenu, y compris les notifications push, devait être véridique et digne de confiance.
Apple a lancé l'outil d'IA générative aux États-Unis en juin de cette année, vantant sa capacité à résumer un contenu spécifique dans des paragraphes, des puces ou des tableaux concis. Cette fonctionnalité est conçue pour aider les utilisateurs à obtenir plus facilement des informations d'actualité. Les utilisateurs peuvent choisir de recevoir de telles notifications push centralisées sur les appareils iPhone, iPad et Mac. Cependant, depuis le lancement officiel de la fonctionnalité fin octobre, les utilisateurs ont découvert qu'elle résumait également de manière incorrecte un article du New York Times affirmant que le Premier ministre israélien Benjamin Netanyahu avait été arrêté, alors qu'en réalité c'était simplement la Cour pénale internationale qui avait émis un mandat d'arrêt contre lui.
Le problème de cet incident est que les agences de presse n’ont aucun contrôle sur le contenu récapitulatif de l’IA d’Apple. Bien que certains éditeurs aient choisi d'utiliser l'IA pour faciliter la rédaction d'articles, cela reste à leur discrétion. Cependant, le résumé d’Apple AI a été publié au nom d’un organisme d’édition, ce qui non seulement diffuse de potentielles informations erronées, mais met également en péril la crédibilité des médias.
Apple n'a pas réagi à l'incident, et la controverse sur les capacités de l'IA reflète également les défis auxquels le secteur de l'édition d'informations est confronté dans un environnement technologique en évolution rapide. Depuis le lancement de ChatGPT, plusieurs géants de la technologie ont lancé leurs propres modèles linguistiques à grande échelle, et de nombreux modèles ont été accusés d'utiliser du contenu protégé par le droit d'auteur, notamment des reportages, pendant la formation. Bien que certaines organisations médiatiques aient engagé des poursuites judiciaires, d'autres, comme Axel Springer, ont choisi de conclure des accords de licence avec les développeurs concernés.
Souligner:
La nouvelle fonctionnalité d'IA d'Apple a été largement critiquée pour ses faux positifs.
Reporters sans frontières a appelé Apple à retirer cette fonctionnalité, soulignant que la technologie de l'IA ne doit pas être utilisée pour résumer l'actualité.
La BBC a déclaré qu'il était vital de garantir la crédibilité de l'information et a contacté Apple à ce sujet.
Cet incident a déclenché de vastes discussions sur les questions d'éthique et de sécurité liées à la technologie de l'intelligence artificielle dans le domaine de la communication d'informations. Il a également averti les entreprises technologiques qu'elles doivent être prudentes lors du développement et de l'application de la technologie de l'IA afin d'éviter de diffuser de fausses informations et de protéger les intérêts publics. La réponse d'Apple à cet incident et la manière dont elle améliorera ses capacités d'IA à l'avenir seront surveillées de près.