出典: MIT テクノロジーレビュー
10月下旬、News Corpは人気のAI検索エンジンであるPerplexity AIに対して訴訟を起こした。一見すると、これは珍しいことではないように思えますが、結局のところ、これは AI 開発者にデータの使用に対する帰属の提供、同意の取得、または対価の支払いを要求する多くのケースの 1 つです。しかし、この訴訟は異なり、すべての訴訟の中で最も重大なものになる可能性があります。
この議論の中心は、AI 検索の将来、つまりウェブ上の情報からコンテンツを抽出して要約できるチャットボットです。人気が高まるにつれて、これらの AI 「応答エンジン」は、従来の検索エンジンに代わるインターネットへのゲートウェイになる可能性があります。情報を再現するためだけに訓練された通常の AI チャットボット(ただし、信頼性が低い場合が多い)とは異なり、Perplexity、Google の Gemini、または OpenAI が新たに開始した SearchGPT などの AI 検索ツールは、サードパーティの Web サイトから情報を取得して再パッケージ化し、ユーザーが短い要約を提供するように設計されています。研究論文からウィキペディアの記事、YouTube のトランスクリプトに至るまで、いくつかのソースへのリンクがあります。読み書きはAIシステムが行いますが、情報は外部から来ます。
AI 検索を最大限に活用すると、ユーザーの意図をより適切に推測し、高品質のコンテンツを増幅し、複数のソースからの情報を統合できます。しかし、AI 検索がウェブへの主要なゲートウェイになれば、すでに脆弱なデジタル経済に影響を与えることになります。現在、オンライン コンテンツの制作は、広告、購読、寄付、販売、ブランドの露出など、仮想トラフィックに関連付けられた脆弱なインセンティブに依存しています。 AI 検索が「全知の」チャットボットの背後で Web コンテンツを保護すると、クリエイターは生き残るために必要なトラフィックと注目を奪う可能性があります。
AI 検索がこのエコシステムを破壊した場合、既存の法律は役に立たない可能性があります。政府は、コンテンツには法制度の「抜け穴がいっぱい」であることに気づき、オンライン価値の流れを規制するために他の方法を使い始めています。この限られた時間の中で、AI 業界は、効果がなかったり、少数の人にしか利益をもたらしなかったり、オンラインでのアイデアの自由な流れを制限したりする政府の介入を回避するために、よりスマートなコンテンツ市場を積極的に構築する必要があります。
著作権は AI 検索の破壊的な影響を解決しない
News Corpは、コンテンツを使用してAI検索に使用する情報を抽出することは著作権侵害に当たると主張し、Perplexity AIは「ただ乗りをしながら読者を奪い合っている」と主張した。この見解は、10月中旬にPerplexity AIに停止と停止の書簡を送ったニューヨーク・タイムズも同様の見解である可能性がある。
ある意味、AI Search に対する告発は、AI トレーニングに関する他の事件よりも強力です。 AI トレーニングは通常、大量の繰り返しコンテンツから一般化された行動パターンを学習しますが、単一のコンテンツの貢献は制限されることがよくあります。しかし、検索においては、コンテンツの価値はその新規性や独自性、あるいは作成者の独自の権威にあります。 AI 検索は、基礎となるデータの特定の特徴を再現し、元の作成者の権威を引用し、元のコンテンツの代理として機能するように設計されています。
それでも、News Corp は依然として、Perplexity AI が情報を処理および要約する際に著作権を侵害したことを証明するという難しい課題に直面しています。著作権法は、「単なる事実」、あるいは創造的、ジャーナリズム的、または学術的努力の結果を保護しません。米国の裁判所はこれまで、コンテンツを十分に変形した目的で使用するテクノロジー被告を有利にしてきましたが、この傾向は今後も続くと思われます。そして、もしNews Corpが成功すれば、この前例の影響はPerplexity AIをはるかに超えることになるだろう。情報量が豊富なコンテンツの非創造的または非表現的な目的での使用を制限すると、豊富で多様で高品質なデータの使用が制限され、AI システムの安全性と信頼性を向上させる広範な取り組みが妨げられる可能性があります。
政府はオンラインでの価値の流通を規制する方法を学んでいます
既存の法律がこれらの問題に対処できない場合、政府は新しい法律を求める可能性があります。従来の検索プラットフォームやソーシャルメディアプラットフォームに関する論争に触発されて、各国政府はオーストラリアとカナダで施行されたメディア交渉法の例や、カリフォルニア州と米国議会が提案した同様のプログラムの例に従う可能性がある。この改革により、特定のプラットフォームは、ニュースコーナーやナレッジパネルなどのコンテンツを表示するために一部のメディア組織に料金を支払うことを強制される。 EUは著作権改革を通じて同様の義務を課しているが、英国は必要に応じて交渉を強制する広範な競争権限を導入している。
しかし、強制交渉はこの複雑な問題に対する大雑把な解決策ではありません。これらの改革は特定の報道機関に有利であり、Google や Meta などのプラットフォームがパブリッシャーを搾取するという前提に基づいています。実際には、プラットフォームのトラフィックの実際にニュースからのトラフィックがどのくらいかを判断することは困難で、推定では 2% から 35% の範囲であり、ソーシャル メディア上のニュース コンテンツはわずか 3% にすぎません。同時に、プラットフォームはパブリッシャーのコンテンツを拡大する上で大きなメリットをもたらしてきましたが、この双方向の価値の適切な配分については統一されたコンセンサスがありません。さらに物議を醸しているのは、これらの交渉ルールはコンテンツの複製をターゲットにするだけでなく、インデックス作成やリンクにも制限を課し、Web を支える「無料リンク」容量を脅かしていることです。さらに、従来のメディアに焦点を当てた取引法は、カナダでは 1,400 の出版物、欧州連合では 1,500 の出版物、オーストラリアでは 62 の組織にのみ適用され、毎日プラットフォームのトラフィックに貢献する多くのクリエイターやユーザーを無視しています。
業界は限られた機会を捉えて公正な報酬制度を確立すべきである
しかし、介入の脅威そのものが、実際の改革よりも大きな影響を与える可能性がある。 AI企業は訴訟が規制に発展するリスクを認識している。たとえば、Perplexity AI、OpenAI、Google はパブリッシャーやコンテンツ プラットフォームとの契約を締結し始めており、その中には AI トレーニングをカバーするものや、AI 検索に焦点を当てているものもあります。しかし、以前の取引法と同様に、これらの協定はほんの一握りの企業にのみ利益をもたらし、レディットのように、自社のクリエイターと収益を分配することをまだ約束していない企業もある。
この選択的譲歩政策は持続不可能である。これは、AI 検索を簡単にオプトアウトすることができず、従来のパブリッシャーのような交渉力を持たないオンライン クリエーターの大多数を無視しています。この戦術は、最も声高に批判する人々をなだめることで、改革の緊急性を弱めるものである。新規参入者が同等の待遇や同等の免責を得るのを困難にする複雑なビジネス協定を通じて少数のAI企業を正当化すれば、検索大手の新たな波がさらに定着する可能性がある。長期的には、これは AI 企業に、高コストで高品質のニュースやコンテンツよりも低コストで低品質のソースを好むという誤ったインセンティブを生み出し、ますます無差別な情報消費文化につながる可能性があります。
代わりに、AI業界は、あらゆるタイプのクリエイターが高品質のコンテンツを共有することで恩恵を受けることができるフレームワークに投資する必要があります。 YouTube から TikTok、X に至るまで、テクノロジー プラットフォームは、複雑なコンテンツ市場のクリエイターに革新的な報酬メカニズムを提供できることを証明しています。実際、日常のコンテンツをより公平に収益化することは、ベンチャーキャピタリストが推進する「web3」運動の中核目標です。このロジックは AI 検索にも当てはまります。クエリが実質的なエンゲージメントをもたらしたにもかかわらず、ユーザーがクリックして元のソースにアクセスしなかった場合、商用 AI 検索プラットフォームは、その価値を作成者に帰属させ、より広く共有する方法を見つける必要があります。
もちろん、私たちのデジタル経済が最初から不完全だった可能性もあります。散発的な広告収入に依存することは持続不可能である可能性があり、注目の経済はプライバシー、情報の完全性、オンライン民主主義に大きな損害を与えています。高品質のジャーナリズムと新鮮なコンテンツをサポートするには、他の形態の投資やインセンティブが必要になる場合があります。
しかし、私たちはより公平なデジタル経済の追求を諦めるべきではありません。 AI 検索により、コンテンツの交渉がこれまで以上に緊急かつ実現可能になります。 AI 業界の先駆者は、この機会を利用して、スマートで公平かつスケーラブルな報酬システムを構築するための基礎を築く必要があります。政府が行動を起こさなかったとしても、政府はすでに自分たちが思い描く共通の価値観を押し付ける能力と自信を持っている。
ベンジャミン ブルックスは、ハーバード大学バークマン クライン センターのフェローであり、AI に対する規制および立法上の対応に重点を置いています。以前は、画像、言語、オーディオ、ビデオ生成のためのオープン モデルを開発する Stability AI で公共政策業務を主導していました。彼の見解は関連組織の立場を代表するものではありません。