Source : Revue technologique du MIT
Fin octobre, News Corp a intenté une action en justice contre Perplexity AI, un moteur de recherche d'IA populaire. À première vue, cela ne semble pas inhabituel. Après tout, il s’agit d’un des nombreux cas dans lesquels les développeurs d’IA doivent fournir une attribution, obtenir un consentement ou payer une compensation pour l’utilisation des données. Ce procès, cependant, est différent et pourrait être le plus conséquent de tous.
Au cœur de ce débat se trouve l’avenir de la recherche IA, à savoir les chatbots capables d’extraire et de résumer le contenu des informations présentes sur le Web. À mesure qu’ils gagnent en popularité, ces « moteurs de réponse » IA pourraient devenir la passerelle vers Internet qui remplacera les moteurs de recherche traditionnels. Contrairement aux chatbots IA ordinaires qui sont uniquement formés pour reproduire des informations (bien que souvent de manière peu fiable), les outils de recherche IA tels que Perplexity, Gemini de Google ou SearchGPT récemment lancé par OpenAI sont conçus pour obtenir et reconditionner des informations à partir de sites Web tiers afin de fournir aux utilisateurs de courts résumés. des liens vers une poignée de sources allant des documents de recherche aux articles Wikipédia en passant par les transcriptions YouTube. Le système d’IA fait la lecture et l’écriture, mais les informations viennent de l’extérieur.
À son meilleur, la recherche IA peut mieux déduire l’intention de l’utilisateur, amplifier un contenu de qualité et intégrer des informations provenant de plusieurs sources. Mais si la recherche IA devient notre principale porte d’entrée sur le Web, cela aura un impact sur l’économie numérique déjà fragile. Actuellement, la production de contenus en ligne repose sur des incitations fragiles liées au trafic virtuel : publicité, abonnements, dons, ventes ou exposition de marque. Si la recherche IA protège le contenu Web derrière des chatbots « omniscients », elle pourrait priver les créateurs du trafic et de l’attention dont ils ont besoin pour survivre.
Si la recherche par l’IA perturbe cet écosystème, les lois existantes pourraient avoir du mal à être utiles. Les gouvernements ont réalisé que le contenu est « plein de lacunes » dans le système juridique et commencent à utiliser d'autres méthodes pour réguler le flux de valeur en ligne. Dans cette fenêtre de temps étroite, l’industrie de l’IA devrait construire de manière proactive un marché de contenu plus intelligent pour éviter les interventions gouvernementales qui sont inefficaces, ne profitent qu’à quelques-uns ou restreignent la libre circulation des idées en ligne.
Le droit d’auteur ne résoudra pas l’impact perturbateur de la recherche par l’IA
News Corp a fait valoir que l'utilisation de son contenu pour extraire des informations à utiliser dans les recherches d'IA équivalait à une violation du droit d'auteur et a affirmé que Perplexity AI "était en concurrence pour les lecteurs tout en donnant un tour gratuit". Ce point de vue pourrait également être partagé par le New York Times, qui a envoyé une lettre de cessation à Perplexity AI à la mi-octobre.
À certains égards, les accusations portées contre AI Search sont plus lourdes que d’autres affaires impliquant une formation à l’IA. La formation en IA apprend généralement des modèles comportementaux généralisés à partir de grandes quantités de contenu répétitif, et la contribution d’un seul élément de contenu est souvent limitée. Mais dans la recherche, la valeur du contenu réside dans sa nouveauté ou son caractère unique, ou dans l’autorité unique du créateur. La recherche IA est conçue pour reproduire des caractéristiques spécifiques dans les données sous-jacentes, citer l’autorité de l’auteur original et servir de substitut au contenu original.
Malgré cela, News Corp est toujours confronté au défi difficile de prouver que Perplexity AI a violé le droit d'auteur lors du traitement et du résumé des informations. La loi sur le droit d'auteur ne protège pas les « simples faits » ou les résultats d'efforts créatifs, journalistiques ou universitaires. Les tribunaux américains ont toujours favorisé les accusés technologiques qui utilisent le contenu à des fins suffisamment déformées, et cette tendance est susceptible de se poursuivre. Et si News Corp réussit, l’impact de ce précédent dépassera de loin celui de Perplexity AI. Restreindre l’utilisation de contenus riches en informations à des fins non créatives ou non expressives peut limiter l’utilisation de données riches, diversifiées et de haute qualité et entraver les efforts plus larges visant à améliorer la sécurité et la fiabilité des systèmes d’IA.
Les gouvernements apprennent à réglementer la distribution de la valeur en ligne
Si les lois existantes ne parviennent pas à résoudre ces problèmes, les gouvernements pourraient en chercher de nouvelles. Inspirés par les controverses sur les plateformes de recherche et de médias sociaux traditionnelles, les gouvernements pourraient suivre l'exemple des lois sur les négociations dans les médias mises en œuvre en Australie et au Canada, ou de programmes similaires proposés par la Californie et le Congrès des États-Unis. Les réformes obligent certaines plateformes à rémunérer certains médias pour la diffusion de leur contenu, comme des segments d'information ou des panels de connaissances. L’UE a imposé des obligations similaires à travers une réforme du droit d’auteur, tandis que le Royaume-Uni a introduit de larges pouvoirs en matière de concurrence pour forcer les négociations si nécessaire.
Toutefois, la négociation forcée constitue une solution rudimentaire à ce problème complexe. Ces réformes favorisent certains organes de presse et reposent sur l’hypothèse que des plateformes comme Google et Meta exploitent les éditeurs. En pratique, il est difficile de déterminer quelle part du trafic de la plateforme provient réellement de l'actualité, avec des estimations allant de 2 % à 35 %, le contenu d'actualité sur les réseaux sociaux ne représentant que 3 %. Dans le même temps, les plateformes ont apporté des avantages significatifs en amplifiant le contenu des éditeurs, mais il n’existe pas de consensus unifié sur la répartition appropriée de cette valeur bidirectionnelle. De manière plus controversée, ces règles de négociation ciblent non seulement la reproduction du contenu, mais imposent également des restrictions sur l'indexation et la création de liens, menaçant ainsi la capacité de « lien libre » qui sous-tend le Web. De plus, les lois sur les négociations qui se concentrent sur les médias traditionnels ne s’appliquent qu’à 1 400 publications au Canada, 1 500 dans l’Union européenne et 62 organisations en Australie, ignorant les nombreux créateurs et utilisateurs qui contribuent quotidiennement au trafic de la plateforme.
L'industrie devrait saisir les opportunités limitées pour établir un système de récompense équitable
Toutefois, la menace d’une intervention elle-même peut avoir un impact plus important que la réforme elle-même. Les entreprises d’IA ont reconnu le risque que les litiges puissent dégénérer en réglementation. Par exemple, Perplexity AI, OpenAI et Google ont commencé à conclure des accords avec des éditeurs et des plateformes de contenu, certains couvrant la formation en IA et d'autres se concentrant sur la recherche en IA. Mais à l’instar des lois de négociation antérieures, ces accords ne profitent qu’à une poignée d’entreprises, et certaines d’entre elles, comme Reddit, ne se sont pas encore engagées à partager leurs revenus avec leurs propres créateurs.
Cette politique de concessions sélectives n’est pas viable. Il ignore la grande majorité des créateurs en ligne, qui ne peuvent pas facilement se retirer de la recherche IA et n’ont pas le pouvoir de négociation des éditeurs traditionnels. Cette tactique affaiblit l’urgence de la réforme en apaisant ses critiques les plus virulents. Légitimer une poignée d’entreprises d’IA par le biais d’accords commerciaux complexes qui font qu’il est difficile pour les nouveaux entrants d’obtenir un traitement égal ou une immunité équivalente pourrait renforcer davantage une nouvelle vague de géants de la recherche. À long terme, cela pourrait créer des incitations perverses pour les entreprises d’IA, les incitant à privilégier des sources peu coûteuses et de mauvaise qualité plutôt que des informations ou des contenus plus coûteux et de haute qualité, conduisant ainsi à une culture de consommation d’informations de plus en plus aveugle.
Au lieu de cela, l’industrie de l’IA devrait investir dans des cadres permettant aux créateurs de tous types de bénéficier du partage de contenu de qualité. De YouTube à TikTok en passant par X, les plateformes technologiques ont prouvé qu'elles pouvaient fournir des mécanismes de récompense innovants aux créateurs sur des marchés de contenu complexes. En fait, monétiser plus équitablement le contenu quotidien est un objectif central du mouvement « web3 » promu par les investisseurs en capital-risque. Cette logique s’applique également à la recherche AI. Si une requête génère un engagement substantiel mais que l’utilisateur ne clique pas sur la source d’origine, les plateformes commerciales de recherche d’IA devraient trouver des moyens d’attribuer cette valeur au créateur et de la partager plus largement.
Bien entendu, il est également possible que notre économie numérique ait été imparfaite dès le départ. S’appuyer sur des revenus publicitaires sporadiques peut s’avérer insoutenable, et l’économie de l’attention a causé des dommages considérables à la vie privée, à l’intégrité de l’information et à la démocratie en ligne. Soutenir un journalisme de haute qualité et des contenus nouveaux peut nécessiter d’autres formes d’investissement ou d’incitations.
Mais nous ne devons pas abandonner la quête d’une économie numérique plus juste. La recherche par IA rend la négociation de contenu plus urgente et plus réalisable que jamais. Les pionniers de l’industrie de l’IA devraient saisir cette opportunité pour jeter les bases de la création de systèmes de récompense intelligents, équitables et évolutifs. S’ils n’agissent pas, les gouvernements ont déjà la capacité et la confiance nécessaires pour imposer le système de valeurs partagées qu’ils envisagent.
Benjamin Brooks est membre du Berkman Klein Center de Harvard, où il se concentre sur les réponses réglementaires et législatives à l'IA. Il a auparavant dirigé les travaux de politique publique chez Stability AI, qui développe des modèles ouverts pour la génération d'images, de langages, d'audio et de vidéo. Ses opinions ne représentent la position d’aucune organisation affiliée.