Fonte: Revisão de Tecnologia do MIT
No final de outubro, a News Corp entrou com uma ação judicial contra o Perplexity AI, um popular mecanismo de busca de IA. À primeira vista, isto pode não parecer incomum. Afinal, é um dos muitos casos que exigem que os desenvolvedores de IA forneçam atribuições, obtenham consentimento ou paguem compensação pelo uso de dados. Este processo, porém, é diferente e pode ser o mais importante de todos.
No centro deste debate está o futuro da pesquisa de IA, nomeadamente chatbots capazes de extrair e resumir conteúdo de informações na web. À medida que sua popularidade cresce, esses “mecanismos de resposta” de IA podem se tornar a porta de entrada para a Internet que substitui os mecanismos de busca tradicionais. Ao contrário dos chatbots de IA comuns que são treinados apenas para reproduzir informações (embora muitas vezes não sejam confiáveis), as ferramentas de pesquisa de IA, como Perplexity, Gemini do Google ou o recém-lançado SearchGPT da OpenAI, são projetadas para obter e reempacotar informações de sites de terceiros para fornecer aos usuários breves resumos com links para um punhado de fontes que vão desde artigos de pesquisa a artigos da Wikipedia e transcrições do YouTube. O sistema de IA faz a leitura e a escrita, mas a informação vem de fora.
Na melhor das hipóteses, a pesquisa de IA pode inferir melhor a intenção do usuário, amplificar conteúdo de qualidade e integrar informações de múltiplas fontes. Mas se a pesquisa por IA se tornar a nossa principal porta de entrada para a Web, terá um impacto na já frágil economia digital. Atualmente, a produção de conteúdos online depende de frágeis incentivos ligados ao tráfego virtual: publicidade, subscrições, doações, vendas ou exposição da marca. Se a pesquisa de IA proteger o conteúdo da web por trás de chatbots “oniscientes”, isso poderá privar os criadores do tráfego e da atenção de que precisam para sobreviver.
Se a pesquisa por IA perturbar este ecossistema, as leis existentes poderão ter dificuldade em ajudar. Os governos perceberam que o conteúdo está “cheio de lacunas” no sistema jurídico e estão a começar a utilizar outros métodos para regular o fluxo de valor online. Neste curto espaço de tempo, a indústria da IA deve construir proativamente um mercado de conteúdos mais inteligente para evitar intervenções governamentais que sejam ineficazes, beneficiem apenas alguns ou restrinjam o livre fluxo de ideias online.
Os direitos autorais não resolverão o impacto perturbador da pesquisa de IA
A News Corp argumentou que usar seu conteúdo para extrair informações para uso em pesquisas de IA equivalia a violação de direitos autorais e alegou que a Perplexity AI estava "competindo por leitores enquanto dava carona". Esta opinião também pode ser partilhada pelo New York Times, que enviou uma carta de cessação e desistência à Perplexity AI em meados de outubro.
De certa forma, as acusações contra a AI Search são mais fortes do que outros casos envolvendo treinamento em IA. O treinamento em IA normalmente aprende padrões comportamentais generalizados a partir de grandes quantidades de conteúdo repetitivo, e a contribuição de um único conteúdo é muitas vezes limitada. Mas na pesquisa, o valor do conteúdo reside na sua novidade ou singularidade, ou na autoridade única do criador. A pesquisa de IA foi projetada para reproduzir características específicas nos dados subjacentes, citar a autoridade do autor original e atuar como substituto do conteúdo original.
Mesmo assim, a News Corp ainda enfrenta o difícil desafio de provar que a Perplexity AI violou direitos autorais ao processar e resumir informações. A lei de direitos autorais não protege “meros fatos” ou os resultados de esforços criativos, jornalísticos ou acadêmicos. Os tribunais dos EUA têm historicamente favorecido os réus de tecnologia que utilizam conteúdo para fins suficientemente deformados, e esta tendência provavelmente continuará. E se a News Corp tiver sucesso, o impacto deste precedente excederá em muito a Perplexity AI. Restringir a utilização de conteúdos ricos em informação para fins não criativos ou não expressivos pode limitar a utilização de dados ricos, diversos e de alta qualidade e dificultar esforços mais amplos para melhorar a segurança e a fiabilidade dos sistemas de IA.
Os governos estão aprendendo como regular a distribuição de valor online
Se as leis existentes não conseguirem resolver estas questões, os governos poderão procurar novas leis. Inspirados pelas controvérsias com as plataformas tradicionais de pesquisa e redes sociais, os governos podem seguir o exemplo das leis de negociação dos meios de comunicação social implementadas na Austrália e no Canadá, ou programas semelhantes propostos pela Califórnia e pelo Congresso nos Estados Unidos. As reformas obrigam certas plataformas a pagar algumas organizações de comunicação social pela exibição do seu conteúdo, tais como segmentos de notícias ou painéis de conhecimento. A UE impôs obrigações semelhantes através da reforma dos direitos de autor, enquanto o Reino Unido introduziu amplos poderes de concorrência para forçar a negociação sempre que necessário.
Contudo, a negociação forçada é uma solução grosseira para este problema complexo. Estas reformas favorecem organizações noticiosas específicas e baseiam-se no pressuposto de que plataformas como a Google e a Meta exploram os editores. Na prática, é difícil determinar quanto do tráfego da plataforma realmente provém de notícias, com estimativas que variam entre 2% e 35%, sendo que o conteúdo noticioso nas redes sociais representa apenas 3%. Ao mesmo tempo, as plataformas trouxeram benefícios significativos na amplificação do conteúdo dos editores, mas não existe um consenso unificado sobre a distribuição adequada deste valor bidirecional. Mais controverso, estas regras de negociação não visam apenas a reprodução de conteúdos, mas também impõem restrições à indexação e à ligação, ameaçando a capacidade de “ligação gratuita” que sustenta a web. Além disso, as leis de negociação que se concentram nos meios de comunicação tradicionais aplicam-se apenas a 1.400 publicações no Canadá, 1.500 na União Europeia e 62 organizações na Austrália, ignorando os muitos criadores e utilizadores que contribuem para o tráfego da plataforma todos os dias.
A indústria deve aproveitar as oportunidades limitadas para estabelecer um sistema de recompensa justo
Contudo, a própria ameaça de intervenção pode ter um impacto maior do que a reforma propriamente dita. As empresas de IA reconheceram o risco de que o litígio pudesse evoluir para regulamentação. Por exemplo, Perplexity AI, OpenAI e Google começaram a fechar acordos com editores e plataformas de conteúdo, alguns cobrindo treinamento em IA e outros focando em pesquisa de IA. Mas, à semelhança das leis de negociação anteriores, estes acordos beneficiam apenas um punhado de empresas, e algumas delas, como o Reddit, ainda não se comprometeram a partilhar receitas com os seus próprios criadores.
Esta política de concessões selectivas é insustentável. Ignora a grande maioria dos criadores online, que não podem facilmente optar por sair da pesquisa de IA e não têm o poder de negociação dos editores tradicionais. Esta táctica enfraquece a urgência da reforma ao aplacar os seus críticos mais veementes. Legitimar um punhado de empresas de IA através de acordos comerciais complexos que dificultam aos novos participantes a obtenção de tratamento igual ou imunidade equivalente poderia consolidar ainda mais uma nova onda de gigantes das pesquisas. A longo prazo, isto poderá criar incentivos perversos para que as empresas de IA privilegiem fontes de baixo custo e de baixa qualidade em detrimento de notícias ou conteúdos de custo mais elevado e de alta qualidade, conduzindo a uma cultura cada vez mais indiscriminada de consumo de informação.
Em vez disso, a indústria de IA deveria investir em estruturas que permitam que criadores de todos os tipos se beneficiem do compartilhamento de conteúdo de qualidade. Do YouTube ao TikTok e ao X, as plataformas tecnológicas provaram que podem fornecer mecanismos de recompensa inovadores para criadores em mercados de conteúdos complexos. Na verdade, rentabilizar de forma mais equitativa o conteúdo quotidiano é um objectivo central do movimento “web3” promovido pelos capitalistas de risco. Essa lógica também se aplica à pesquisa de IA. Se uma consulta resultar num envolvimento substancial, mas o utilizador não clicar na fonte original, as plataformas comerciais de pesquisa de IA devem encontrar formas de atribuir esse valor ao criador e partilhá-lo de forma mais ampla.
É claro que também é possível que a nossa economia digital tenha sido imperfeita desde o início. Depender de receitas publicitárias esporádicas pode ser insustentável, e a economia da atenção causou danos substanciais à privacidade, à integridade da informação e à democracia online. Apoiar o jornalismo de alta qualidade e novos conteúdos pode exigir outras formas de investimento ou incentivos.
Mas não devemos desistir da busca por uma economia digital mais justa. A pesquisa de IA torna a negociação de conteúdo mais urgente e viável do que nunca. Os pioneiros na indústria de IA devem aproveitar esta oportunidade para estabelecer as bases para a construção de sistemas de recompensa inteligentes, justos e escaláveis. Se não agirem, os governos já terão a capacidade e a confiança para impor o sistema de valores partilhados que imaginam.
Benjamin Brooks é membro do Berkman Klein Center de Harvard, onde se concentra em respostas regulatórias e legislativas à IA. Anteriormente, ele liderou trabalhos de políticas públicas na Stability AI, que desenvolve modelos abertos para geração de imagens, linguagem, áudio e vídeo. Suas opiniões não representam a posição de nenhuma organização afiliada.