أعلنت Reddit مؤخرًا أنها ستمنع محركات البحث وروبوتات الذكاء الاصطناعي من الوصول إلى محتواها، وهي خطوة جذبت اهتمامًا واسع النطاق. يكمن جوهر هذه الإستراتيجية في التحكم في بيانات النظام الأساسي وتحقيق الدخل منها. وتحاول Reddit إنشاء مصادر إيرادات جديدة لمحتواها من خلال نموذج مدفوع وجذب المزيد من المستثمرين. وسيكون لهذه الخطوة تأثير على محركات البحث ومطوري نماذج الذكاء الاصطناعي الذين يعتمدون على بيانات Reddit، وسيكون لها أيضًا تأثير معين على الطريقة التي يحصل بها المستخدمون العاديون على المعلومات.
في الآونة الأخيرة، وفي خطوة مثيرة، بدأ موقع Reddit في تقييد الوصول إلى محتواه من خلال محركات البحث الرئيسية وروبوتات الذكاء الاصطناعي. وفقًا لـ 404Media، قررت Reddit عدم السماح لبعض محركات البحث الرئيسية بالوصول بسهولة إلى المنشورات والتعليقات الأخيرة ما لم تكن على استعداد للدفع. وهذا يعني أنه إذا لم تقم بالبحث عبر Google، فقد لا تجد أحدث محتوى Reddit.
يعد Google الآن محرك البحث الرئيسي الوحيد الذي يعرض نتائج محدثة عند البحث عن "site:reddit.com". يتم استبعاد محركات البحث الأخرى مثل Bing وDuckDuckGo. يرجع السبب الرئيسي في ذلك إلى توقيع Google اتفاقية بقيمة 60 مليون دولار مع Reddit، مما يسمح لـ Google باستخدام بيانات Reddit لتدريب نموذج الذكاء الاصطناعي الخاص بها. وهذا يترك محركات البحث مثل Bing لتراقب عندما يصبح المحتوى غير قابل للوصول.
وقال تيم راثشميت، المتحدث باسم موقع Reddit، إن القرار لا يتعلق بشكل مباشر بشراكة Google. في الواقع، أجرى موقع Reddit محادثات مع العديد من محركات البحث لمحاولة التوصل إلى اتفاق. ومع ذلك، فإن التزام العديد من محركات البحث باستخدام محتوى Reddit ليس واضحًا بما فيه الكفاية، مما أدى إلى فشل الجانبين في التوصل إلى اتفاق.
بالنسبة لـ Reddit، فإن اتخاذ هذه الخطوة ليس مفاجئًا للغاية. خلال العام الماضي، أصبح ريديت يركز بشكل متزايد على بياناته، على أمل فتح مصادر إيرادات جديدة وجذب مستثمرين جدد. سبق أن رفعت Reddit رسوم استخدام واجهة برمجة التطبيقات (API) وهددت Google بأنها إذا استمرت في استخدام بيانات Reddit مجانًا لتدريب الذكاء الاصطناعي، فسوف تفكر Reddit في قطع التعاون معها.
بالإضافة إلى ذلك، ولتنفيذ هذه السياسة، قام Reddit بتحديث ملف robots.txt الخاص بموقعه على الويب. يعد هذا الملف أساسًا مهمًا لبرامج زحف الويب لتحديد ما إذا كان يمكن الوصول إلى موقع الويب أم لا. وقال بن لي، كبير المسؤولين القانونيين في Reddit، إن التحديث يرسل إشارة واضحة إلى برامج الزحف التي ليس لديها اتفاقية مع Reddit بأنه لا ينبغي لهم الوصول إلى بيانات Reddit.
في الوقت الحاضر، مع انتشار روبوتات الدردشة المدعمة بالذكاء الاصطناعي على الإنترنت، يتوق العديد من الأشخاص إلى العثور على المحتوى الذي أنشأه البشر. ففي نهاية المطاف، أصبحت الآراء التي يولدها البشر أكثر مصداقية من المحتوى الذي تنتجه الروبوتات. لقد بدأت، مثل كثيرين، بالبحث في موقع "Reddit" للعثور على إجابات بشرية، ولكن الآن أصبح الأمر أكثر صعوبة. بالنسبة لي، الذي اعتاد على استخدام Bing، فإن هذا أمر محبط تمامًا.
أبرز النقاط:
** تمكين Paywall **: يقيد Reddit محركات البحث وروبوتات الذكاء الاصطناعي من الوصول إلى المحتوى ويتطلب الدفع للحصول عليه.
**موارد Google الحصرية** يمكن لـ Google فقط الحصول على أحدث النتائج من خلال "site:reddit.com"، ويتم استبعاد محركات البحث الأخرى.
** استراتيجية تحقيق الدخل من البيانات **: يعمل Reddit على تعزيز حماية البيانات وزيادة رسوم واجهة برمجة التطبيقات والبحث عن مصادر جديدة للإيرادات لجذب المستثمرين.
ولا تعكس خطوة ريديت تركيزها على تسييل البيانات فحسب، بل تبشر أيضا بتغيير في الطريقة التي تحصل بها منصات الإنترنت على البيانات. وفي المستقبل، قد تتبنى المزيد من المنصات استراتيجيات مماثلة، والتي سيكون لها تأثير عميق على محركات البحث وصناعات الذكاء الاصطناعي. قد نحتاج إلى التكيف مع طرق جديدة للحصول على المعلومات والتفكير في التأثير المحتمل لنموذج الدفع هذا على النظام البيئي للإنترنت.