Redditは最近、検索エンジンとAIボットによるコンテンツへのアクセスを制限すると発表し、この動きは広く注目を集めた。この戦略の核心は、プラットフォームデータの管理と収益化にあり、有料モデルを通じてコンテンツの新たな収益源を創出し、より多くの投資家を引き付けようとしている。この動きは、Redditのデータに依存する検索エンジンやAIモデル開発者に影響を与えるほか、一般ユーザーの情報入手方法にも一定の影響を与えるだろう。
最近、劇的な動きとして、Reddit は主要な検索エンジンや AI ボットによるコンテンツへのアクセスを制限し始めました。 404Media によると、Reddit は、一部の主要な検索エンジンに対し、料金を支払わない限り、最近の投稿やコメントに簡単にアクセスすることを許可しないことを決定したとのことです。つまり、Google で検索しないと、最新の Reddit コンテンツが見つからない可能性があります。
Google は現在、「site:reddit.com」を検索したときに最新の結果を表示する唯一の主要な検索エンジンです。 Bing や DuckDuckGo などの他の検索エンジンは除外されます。その主な理由は、Google が Reddit と 6,000 万ドルの契約を締結し、Google が Reddit データを AI モデルのトレーニングに使用できるようにしたためです。これにより、Bing などの検索エンジンはコンテンツにアクセスできなくなるのを監視することになります。
Redditの広報担当者Tim Rathschmidt氏は、この決定はGoogleとの提携には直接関係していないと述べた。実際、レディットは複数の検索エンジンと合意に向けて協議を続けている。しかし、多くの検索エンジンによる Reddit コンテンツの使用に対する取り組みは十分に明確ではなく、その結果、両者は合意に達することができませんでした。
Redditにとって、この一歩を踏み出すことはそれほど驚くべきことではありません。過去 1 年間、Reddit はデータにますます注目するようになり、これらの施策を通じて新たな収益源を開拓し、新たな投資家を引きつけたいと考えています。 Redditは以前、APIの使用料を値上げし、AIを訓練するためにRedditのデータを無料で使い続けるのであれば、Redditとの協力関係を打ち切ることを検討するとGoogleを脅したことがある。
さらに、このポリシーを強制するために、Reddit は Web サイトの robots.txt ファイルを更新しました。このファイルは、Web クローラーが Web サイトにアクセスできるかどうかを判断するための重要な基礎となります。 Redditの最高法務責任者であるBen Lee氏は、今回のアップデートはRedditと契約を結んでいないクローラーに対し、Redditのデータにアクセスすべきではないという明確な信号を送ることになると述べた。
現在、AI チャットボットがオンラインで普及しているため、多くの人が人間が作成したコンテンツを熱心に探しています。結局のところ、人間が作成した意見は、ロボットが作成したコンテンツよりも信頼性が高くなります。多くの人と同じように、私も人間の答えを見つけるために「Reddit」を探し始めましたが、今ではそれがはるかに難しくなりました。 Bing の使用に慣れている私にとって、これはまったくイライラさせられます。
ハイライト:
? **ペイウォールが有効になっています**: Reddit は検索エンジンと AI ボットによるコンテンツへのアクセスを制限しており、コンテンツを取得するには支払いが必要です。
**Google 限定リソース** Google のみが「site:reddit.com」を通じて最新の結果を取得でき、他の検索エンジンは除外されます。
? **データ収益化戦略**: Reddit はデータ保護を強化し、API 料金を引き上げ、投資家を惹きつける新たな収益源を模索しています。
Redditの動きは、データ収益化への重点を反映しているだけでなく、インターネットプラットフォームがデータを取得する方法の変化を予告するものでもある。将来的には、より多くのプラットフォームが同様の戦略を採用する可能性があり、検索エンジンと AI 業界に大きな影響を与えるでしょう。 私たちは情報を入手する新しい方法に適応し、この支払いモデルがインターネット エコシステムに及ぼす潜在的な影響について考える必要があるかもしれません。