A Asia News International (ANI) levou recentemente a OpenAI ao Supremo Tribunal de Delhi, acusando-a de usar conteúdo ANI para treinar modelos de IA e gerar informações falsas sem autorização. Esta medida pode estabelecer novas leis para empresas globais de inteligência artificial no tratamento de conteúdo de notícias protegido por direitos autorais. . Este caso atraiu atenção generalizada e envolve muitas questões importantes, como direitos autorais, a fonte de dados de treinamento de modelos de IA e a disseminação de informações falsas. O editor do Downcodes explicará detalhadamente o andamento do caso e a opinião de ambas as partes.
A Asia News International (ANI), uma das maiores organizações de notícias da Índia, entrou recentemente com uma ação judicial contra a OpenAI no Tribunal Superior de Delhi, acusando-a de usar ilegalmente o conteúdo da organização para treinar modelos de IA e gerar informações falsas. Considera-se que este caso provavelmente estabelecerá novos padrões legais para empresas globais de inteligência artificial no tratamento de conteúdo de notícias protegido por direitos autorais.
Durante a audiência na terça-feira, o juiz Amit Bansal emitiu uma intimação à OpenAI depois que a OpenAI confirmou que o ChatGPT não acessou o site da ANI. O tribunal declarou que, como o caso envolvia questões complexas, não consideraria emitir uma liminar por enquanto e precisaria de realizar um julgamento detalhado. A próxima audiência judicial está marcada para o próximo ano.
Um porta-voz da OpenAI disse ao TechCrunch: “Atribuímos grande importância à cooperação com organizações de notícias em nossos processos de produto e design. Estamos colaborando ativamente e de forma construtiva com muitas organizações de notícias em todo o mundo, inclusive na Índia, discutindo oportunidades, ouvindo comentários e trabalhando. junto."
O processo faz parte da crescente pressão global sobre as empresas de IA para usarem material protegido por direitos autorais. A OpenAI enfrenta atualmente mais de dez ações judiciais semelhantes nos Estados Unidos, bem como duas no Canadá e uma na Alemanha.
O advogado da OpenAI, Amit Sibal, defendeu a empresa, dizendo que a lei de direitos autorais não protege os fatos e observando que o ChatGPT permite que os sites optem por não coletar dados. Ele também mencionou que a OpenAI não possui servidores na Índia e, portanto, argumentou que o caso não tinha jurisdição.
No entanto, o advogado da ANI, Sidhant Kumar, rebateu que a disponibilidade pública não significa utilização gratuita do conteúdo. A ANI expressou preocupação com isso, especialmente com as informações falsas que o ChatGPT atribuiu à agência em entrevistas fictícias, incluindo conversas não genuínas com o atual rival do partido, Rahul Gandhi.
Na sua denúncia, a ANI observou que este fenómeno de “alucinação” representava uma ameaça real à sua reputação, sublinhando que a propagação de notícias falsas poderia levar à desordem pública. O tribunal planeia nomear um perito independente para consultar sobre as implicações dos direitos de autor dos modelos de IA que utilizam conteúdo disponível publicamente. O juiz examinará mais detalhadamente os detalhes técnicos de como o conteúdo das notícias é distribuído em múltiplas plataformas em audiências futuras.
O resultado deste processo judicial entre a ANI e a OpenAI terá um impacto profundo na forma como as empresas de inteligência artificial utilizam a informação pública na Internet e também fornecerá um importante caso de referência para o desenvolvimento de conformidade da tecnologia de IA no futuro. Continuaremos a prestar atenção ao progresso subsequente deste caso e a fornecer-lhe relatórios oportunos.