Recentemente, o Tribunal Distrital dos EUA para o Distrito Sul de Nova York rejeitou o processo de direitos autorais movido pela Alternet e Raw Story contra a OpenAI, provocando preocupação generalizada na indústria sobre a questão dos direitos autorais dos dados de treinamento de modelos de IA. O editor do Downcodes conduzirá uma interpretação aprofundada deste julgamento, analisará as razões subjacentes e as tendências de desenvolvimento futuro e explorará as diferentes atitudes em relação às questões de direitos autorais de IA em diferentes países ao redor do mundo.
De acordo com relatos da mídia, o Tribunal Distrital dos EUA para o Distrito Sul de Nova York rejeitou recentemente o processo de direitos autorais movido pela mídia Alternet e Raw Story contra a OpenAI, mas essa vitória pode ser apenas temporária. A decisão do tribunal não abordou a questão central mais controversa no campo da inteligência artificial: se o uso de conteúdo protegido por direitos autorais para treinar modelos de IA requer autorização.
Dois meios de comunicação entraram com uma ação judicial em fevereiro deste ano, acusando a OpenAI de excluir informações de gerenciamento de direitos autorais (CMI) durante o processo de dados de treinamento, incluindo nomes de autores, termos de uso e títulos de trabalhos. A ação busca indenização de pelo menos US$ 2.500 por cada violação e pede ao tribunal que proíba a OpenAI de continuar a usar seus trabalhos protegidos por direitos autorais.
A principal razão para a rejeição da ação pelo tribunal foi que o autor não conseguiu provar os danos específicos sofridos como resultado da remoção de informações protegidas por direitos autorais. A OpenAI afirmou em sua defesa que o autor não poderia provar que o ChatGPT recebeu treinamento em seu trabalho, nem provar perdas específicas. O juiz concordou com essa visão e destacou que, considerando o tamanho do banco de dados, é menos provável que o ChatGPT produza o conteúdo do artigo do reclamante.
You Yunting, sócio sênior do Shanghai Dabang Law Firm, disse que a prova sempre foi um problema importante nas disputas de direitos autorais de IA. Devido à natureza de caixa preta dos grandes modelos, é difícil provar se um trabalho específico foi utilizado para treinamento. No âmbito do quadro jurídico existente, faltam sistemas relevantes para ajudar as partes vulneráveis a obter provas.
Atualmente, a OpenAI também enfrenta pelo menos seis ações judiciais relacionadas, incluindo ações judiciais do New York Times, do Daily News e de outros meios de comunicação, bem como ações judiciais coletivas de escritores. Todos esses casos envolvem uma questão central: se as empresas de IA precisam de autorização para usar conteúdo protegido por direitos autorais para treinar modelos.
Vale a pena notar que os países têm atitudes diferentes em relação a esta questão. O Japão classificou o uso de obras protegidas por direitos autorais para treinamento em IA como uso justo, mas os tribunais da China e dos Estados Unidos ainda não deram uma resposta clara sobre isso. Yao Zhiwei, professor da Faculdade de Direito da Universidade de Finanças e Economia de Guangdong, destacou que a teoria do uso justo carece de base legislativa na China e há grande incerteza no seu reconhecimento judicial.
Embora a ação tenha sido julgada improcedente, o juiz afirmou na sentença que o autor poderia voltar a processar a questão da OpenAI usar o trabalho para treinar IA, mas não pagar a taxa. Os advogados do Raw Story e da AlterNet afirmaram que irão alterar a acusação e continuar a defender os seus direitos.
Este julgamento não encerrou a disputa de direitos autorais de IA, mas destacou o atraso no quadro jurídico e a urgência da supervisão da indústria de IA. No futuro, a legislação relevante e as interpretações judiciais terão um impacto profundo no desenvolvimento da IA e merecem atenção contínua. O editor do Downcodes continuará acompanhando os relatórios relevantes e trazendo as informações mais recentes aos leitores.