La nueva función de resumen de noticias mediante IA de Apple ha causado una gran controversia debido a la frecuente desinformación. Esta función está diseñada para proporcionar a los usuarios información de noticias conveniente, pero ha sido ampliamente criticada por resumir incorrectamente informes de la BBC y el New York Times. La organización internacional de libertad de prensa Reporteros sin Fronteras incluso pidió públicamente a Apple que retirara inmediatamente esta función, al considerar que difunde información falsa, daña la credibilidad de los medios y amenaza el derecho del público a obtener información fiable. Este incidente también pone de relieve los desafíos y riesgos que enfrentan las tecnologías emergentes de IA en el campo de la comunicación de noticias, así como las dificultades que enfrentan las organizaciones de medios frente a las tecnologías en rápido desarrollo.
Las funciones de inteligencia artificial lanzadas recientemente por Apple han atraído una atención y una controversia generalizadas. La función fue diseñada para proporcionar a los usuarios un resumen de noticias, pero ha sido criticada por desinformación. La organización internacional de libertad de prensa Reporteros sin Fronteras ha pedido públicamente a Apple que retire inmediatamente la función después de que resumiera incorrectamente un informe de la BBC en una notificación a los usuarios.
Específicamente, el sistema de inteligencia artificial de Apple declaró incorrectamente que Luigi Manchione, el sospechoso del asesinato del director ejecutivo de UnitedHealthcare, se había suicidado. Sin embargo, la BBC no mencionó esto en su informe original. La BBC afirmó que se ha puesto en contacto con Apple sobre este problema y espera resolverlo lo antes posible, pero no ha confirmado si Apple ha respondido al respecto.
Vincent Bertier, director de tecnología y noticias de Reporteros sin Fronteras, dijo que Apple debería ser responsable del incidente y retirar esta función a tiempo. Señaló que la inteligencia artificial es sólo una máquina de probabilidades y no puede simplemente juzgar hechos mediante selección aleatoria. Destacó que la información errónea generada automáticamente no sólo daña la credibilidad de los medios, sino que también amenaza el derecho del público a obtener información confiable.
Además, la organización también expresó su preocupación por los riesgos que plantean las herramientas emergentes de inteligencia artificial para los medios, creyendo que la tecnología actual de IA es inmadura y no se debe permitir su uso para la difusión de información pública.
En respuesta, la BBC dijo que es vital garantizar que el público confíe en la información y las noticias que publica, y que todo el contenido, incluidas las notificaciones push, debe ser verdadero y digno de confianza.
Apple lanzó la herramienta de inteligencia artificial generativa en los Estados Unidos en junio de este año, promocionando su capacidad para resumir contenido específico en párrafos concisos, viñetas o tablas. Esta función está diseñada para ayudar a los usuarios a obtener información de noticias de manera más conveniente. Los usuarios pueden optar por recibir dichas notificaciones automáticas centralizadas en dispositivos iPhone, iPad y Mac. Sin embargo, desde que la función se lanzó oficialmente a finales de octubre, los usuarios han descubierto que también resumía incorrectamente un informe del New York Times que afirmaba que el primer ministro israelí, Benjamín Netanyahu, había sido arrestado, cuando en realidad era sólo la Corte Penal Internacional emitiendo una orden de arresto para él.
El desafío en este incidente es que las organizaciones de noticias no tienen control sobre el contenido resumido de Apple AI. Si bien algunos editores han optado por utilizar la IA para ayudar con la redacción de artículos, esto queda a su discreción. Sin embargo, el resumen de Apple AI se publicó en nombre de una organización editorial, lo que no sólo difunde posible información errónea sino que también pone en peligro la credibilidad de los medios.
Apple no respondió al incidente y la controversia sobre las capacidades de la IA también refleja los desafíos que enfrenta la industria editorial de noticias en un entorno tecnológico que cambia rápidamente. Desde el lanzamiento de ChatGPT, varios gigantes de la tecnología han lanzado sus propios modelos de lenguaje a gran escala, y muchos modelos han sido acusados de utilizar contenido protegido por derechos de autor, incluidos informes de noticias, durante la capacitación. Aunque algunos medios de comunicación han emprendido acciones legales, otros, como Axel Springer, han optado por llegar a acuerdos de licencia con desarrolladores relevantes.
Reflejos:
La nueva función de inteligencia artificial de Apple ha sido ampliamente criticada por falsos positivos.
Reporteros sin Fronteras pidió a Apple que retire esta función y destacó que la tecnología de inteligencia artificial no debería utilizarse para resumir noticias.
La BBC dijo que era vital garantizar la credibilidad de la información y se había puesto en contacto con Apple sobre el tema.
Este incidente desencadenó extensos debates sobre las cuestiones éticas y de seguridad de la tecnología de inteligencia artificial utilizada en el campo de la comunicación de noticias. También advirtió a las empresas de tecnología que deben tener cuidado al desarrollar y aplicar tecnología de inteligencia artificial para evitar la difusión de información falsa y salvaguardar los intereses públicos. Se seguirá de cerca la respuesta de Apple a este incidente y cómo mejora sus capacidades de IA en el futuro.