Recentemente, a OpenAI apresentou um protesto contra a decisão do Supremo Tribunal de Delhi na Índia de excluir os dados de treinamento do ChatGPT, o que atraiu a atenção. O caso decorre de uma ação movida pela agência de notícias indiana ANI, que acusou a OpenAI de usar seu conteúdo para treinar ChatGPT sem autorização e solicitou a exclusão de dados relevantes. A medida desencadeou discussões generalizadas sobre a utilização de direitos de autor e a jurisdição de dados por empresas de inteligência artificial, e também destacou a relação cada vez mais tensa entre o desenvolvimento da inteligência artificial e a regulamentação legal em todo o mundo.
Recentemente, a empresa americana de inteligência artificial OpenAI apresentou uma defesa contra a decisão do Supremo Tribunal de Delhi, na Índia, argumentando que o tribunal não tinha o direito de exigir a exclusão dos dados de treinamento do ChatGPT. O caso decorre de uma ação movida pela agência de notícias indiana ANI em novembro do ano passado, alegando que a OpenAI usou seu conteúdo publicado sem autorização para treinar o ChatGPT. ANI solicitou que seu conteúdo fosse removido do conjunto de dados de treinamento do modelo e acusou a OpenAI de violação de direitos autorais.
Em um documento de 86 páginas apresentado ao Supremo Tribunal de Delhi em 10 de janeiro, a OpenAI disse que, de acordo com a lei dos EUA, os dados de treinamento devem ser retidos enquanto o processo estiver em andamento. A ordem de eliminação de dados da Índia está, portanto, em conflito com as suas responsabilidades legais. A OpenAI enfatizou que, como a empresa não tem presença física ou servidores na Índia, o tribunal não tem jurisdição sobre suas operações. “Os servidores que armazenam os dados de treinamento do ChatGPT estão localizados fora da Índia”, observou a OpenAI no documento.
Embora a OpenAI tenha declarado que deixará de usar conteúdo ANI no futuro, a ANI ainda está preocupada que o material que foi integrado ao conjunto de dados ChatGPT continue a causar cópias não autorizadas. A ANI também expressou preocupação com os acordos comerciais da OpenAI com organizações de mídia internacionais, que acredita que poderiam levar à concorrência desleal. ANI disse que o ChatGPT copiou o conteúdo de seus artigos quase literalmente quando os usuários fizeram perguntas.
A audiência do caso está marcada para 28 de janeiro. A ANI é uma organização parcialmente controlada pela Reuters, e a Reuters deixou claro que não está envolvida nas decisões comerciais ou em disputas legais da ANI. O processo faz parte de um desafio mais amplo contra empresas de inteligência artificial que utilizam indevidamente material protegido por direitos autorais para treinar modelos. Nos Estados Unidos, a OpenAI também se defende contra acusações semelhantes, inclusive num caso de grande repercussão apresentado pelo New York Times. A OpenAI sempre sustentou que seus sistemas de inteligência artificial dependem de dados disponíveis publicamente e cumprem as proteções de uso justo.
Destaque:
A OpenAI alegou que o Supremo Tribunal de Delhi não tinha autoridade para ordenar a exclusão de seus dados de treinamento porque seus servidores estavam localizados no exterior.
ANI processou a OpenAI por uso não autorizado de seu conteúdo, solicitou exclusão de dados relevantes e suposta violação.
A audiência do caso está marcada para 28 de janeiro. A OpenAI também enfrenta desafios semelhantes de direitos autorais nos Estados Unidos.
O veredicto final neste caso terá implicações de longo alcance para o uso de dados e questões de direitos autorais das empresas de IA, e poderá abrir um precedente para disputas semelhantes no futuro. O desfecho do caso merece atenção contínua.