O novo recurso de resumo de notícias de IA da Apple causou grande controvérsia devido à frequente desinformação. Esse recurso foi projetado para fornecer aos usuários informações de notícias convenientes, mas tem sido amplamente criticado por resumir incorretamente reportagens da BBC e do New York Times. A organização internacional de liberdade de imprensa Repórteres Sem Fronteiras até apelou publicamente à Apple para retirar imediatamente esta funcionalidade, acreditando que espalha informações falsas, prejudica a credibilidade dos meios de comunicação e ameaça o direito do público de obter informações fiáveis. Este incidente também destaca os desafios e riscos enfrentados pelas tecnologias emergentes de IA no domínio da comunicação de notícias, bem como as dificuldades enfrentadas pelas organizações de comunicação social face às tecnologias em rápido desenvolvimento.
Os recursos de inteligência artificial lançados recentemente pela Apple atraíram ampla atenção e controvérsia. O recurso foi pensado para fornecer aos usuários um resumo das notícias, mas tem sido criticado por desinformação. A organização internacional de liberdade de imprensa Repórteres Sem Fronteiras apelou publicamente à Apple para retirar imediatamente o recurso depois de resumir incorretamente uma reportagem da BBC em uma notificação aos usuários.
Especificamente, o sistema de IA da Apple afirmou incorretamente que Luigi Manchione, o suspeito suspeito de matar o CEO da UnitedHealthcare, cometeu suicídio. No entanto, a BBC não mencionou isto no seu relatório original. A BBC afirmou que entrou em contato com a Apple sobre este problema e espera resolver o assunto o mais rápido possível, mas não confirmou se a Apple respondeu a isso.
Vincent Bertier, diretor de tecnologia e notícias da Repórteres Sem Fronteiras, disse que a Apple deveria ser responsável pelo incidente e retirar esse recurso em tempo hábil. Ele ressaltou que a inteligência artificial é apenas uma máquina de probabilidades e não pode simplesmente julgar os fatos por meio de seleção aleatória. Ele enfatizou que a desinformação gerada automaticamente não só prejudica a credibilidade dos meios de comunicação, mas também ameaça o direito do público de obter informações confiáveis.
Além disso, a organização também expressou preocupações sobre os riscos que as ferramentas emergentes de inteligência artificial representam para os meios de comunicação social, acreditando que a atual tecnologia de IA é imatura e não deve ser autorizada a ser utilizada para a divulgação de informação pública.
Em resposta, a BBC respondeu que é vital garantir que o público confie nas informações e notícias que publica, e que todo o conteúdo, incluindo notificações push, deve ser verdadeiro e confiável.
A Apple lançou a ferramenta generativa de IA nos Estados Unidos em junho deste ano, elogiando sua capacidade de resumir conteúdo específico em parágrafos concisos, marcadores ou tabelas. Este recurso foi projetado para ajudar os usuários a obter informações de notícias de maneira mais conveniente. Os usuários podem optar por receber essas notificações push centralizadas em dispositivos iPhone, iPad e Mac. No entanto, desde que o recurso foi lançado oficialmente no final de outubro, os usuários descobriram que ele também resumia incorretamente uma reportagem do New York Times alegando que o primeiro-ministro israelense, Benjamin Netanyahu, havia sido preso, quando na verdade foi apenas o Tribunal Penal Internacional emitindo um mandado de prisão para ele.
O desafio neste incidente é que as organizações de notícias não têm controle sobre o conteúdo resumido da Apple AI. Embora alguns editores tenham optado por usar IA para ajudar na redação de artigos, isso fica a seu critério. No entanto, o resumo da Apple AI foi publicado em nome de uma organização editorial, o que não só espalha potencial desinformação, mas também compromete a credibilidade da mídia.
A Apple não respondeu ao incidente, e a controvérsia sobre as capacidades da IA também reflecte os desafios que a indústria editorial de notícias enfrenta num ambiente tecnológico em rápida mudança. Desde o lançamento do ChatGPT, vários gigantes da tecnologia lançaram seus próprios modelos de linguagem em grande escala, e muitos modelos foram acusados de usar conteúdo protegido por direitos autorais, incluindo reportagens, durante o treinamento. Embora algumas organizações de mídia tenham tomado medidas legais, outras, como Axel Springer, optaram por chegar a acordos de licenciamento com desenvolvedores relevantes.
Destaque:
O novo recurso de IA da Apple foi amplamente criticado por falsos positivos.
A Repórteres Sem Fronteiras pediu à Apple que retirasse esse recurso, enfatizando que a tecnologia de IA não deveria ser usada para resumir notícias.
A BBC disse que era vital garantir a credibilidade das informações e entrou em contato com a Apple sobre o assunto.
Este incidente desencadeou extensas discussões sobre as questões éticas e de segurança da tecnologia de inteligência artificial no domínio da comunicação de notícias e alertou também as empresas tecnológicas para a necessidade de serem cautelosas ao desenvolver e aplicar tecnologia de IA para evitar a propagação de informações falsas e salvaguardar os interesses públicos. A resposta da Apple a este incidente e a forma como melhorará as suas capacidades de IA no futuro serão observadas de perto.