المصدر: إم آي تي تكنولوجي ريفيو
في أواخر أكتوبر، رفعت شركة News Corp دعوى قضائية ضد Perplexity AI، وهو محرك بحث شهير يعمل بالذكاء الاصطناعي. للوهلة الأولى، قد لا يبدو هذا أمرًا غير عادي، ففي نهاية المطاف، إنها واحدة من الحالات العديدة التي تتطلب من مطوري الذكاء الاصطناعي تقديم الإسناد، أو الحصول على الموافقة، أو دفع تعويض مقابل استخدام البيانات. لكن هذه الدعوى مختلفة وقد تكون الأكثر أهمية على الإطلاق.
وفي قلب هذه المناقشة يقع مستقبل بحث الذكاء الاصطناعي، وتحديداً روبوتات الدردشة القادرة على استخراج وتلخيص المحتوى من المعلومات عبر الويب. ومع تزايد شعبيتها، قد تصبح "محركات الإجابات" التي تعمل بالذكاء الاصطناعي بمثابة البوابة إلى الإنترنت التي تحل محل محركات البحث التقليدية. على عكس روبوتات الدردشة العادية التي تعمل بالذكاء الاصطناعي والتي يتم تدريبها فقط على إعادة إنتاج المعلومات (وإن كان ذلك في كثير من الأحيان بشكل غير موثوق)، فإن أدوات بحث الذكاء الاصطناعي مثل Perplexity أو Gemini من Google أو SearchGPT التي تم إطلاقها حديثًا من OpenAI تم تصميمها للحصول على المعلومات وإعادة تجميعها من مواقع الويب التابعة لجهات خارجية لتزويد المستخدمين بملخصات قصيرة روابط لعدد قليل من المصادر تتراوح من الأوراق البحثية إلى مقالات ويكيبيديا إلى نصوص YouTube. يقوم نظام الذكاء الاصطناعي بالقراءة والكتابة، لكن المعلومات تأتي من الخارج.
في أفضل حالاته، يمكن لبحث الذكاء الاصطناعي استنتاج نية المستخدم بشكل أفضل، وتضخيم المحتوى عالي الجودة، ودمج المعلومات من مصادر متعددة. ولكن إذا أصبح البحث باستخدام الذكاء الاصطناعي بوابتنا الرئيسية إلى شبكة الإنترنت، فسوف يكون له تأثير على الاقتصاد الرقمي الهش بالفعل. في الوقت الحالي، يعتمد إنتاج المحتوى عبر الإنترنت على حوافز هشة مرتبطة بالحركة الافتراضية: الإعلانات، أو الاشتراكات، أو التبرعات، أو المبيعات، أو التعرض للعلامة التجارية. إذا كان بحث الذكاء الاصطناعي يحمي محتوى الويب خلف روبوتات الدردشة "العلمية بكل شيء"، فقد يحرم المبدعين من حركة المرور والاهتمام الذي يحتاجون إليه للبقاء على قيد الحياة.
إذا أدى بحث الذكاء الاصطناعي إلى تعطيل هذا النظام البيئي، فقد تجد القوانين الحالية صعوبة في المساعدة. لقد أدركت الحكومات أن المحتوى "مليء بالثغرات" في النظام القانوني وبدأت في استخدام أساليب أخرى لتنظيم تدفق القيمة عبر الإنترنت. وفي هذه النافذة الزمنية الضيقة، ينبغي لصناعة الذكاء الاصطناعي أن تعمل بشكل استباقي على بناء سوق محتوى أكثر ذكاءً لتجنب التدخلات الحكومية غير الفعالة، أو التي لا يستفيد منها سوى عدد قليل، أو تقييد التدفق الحر للأفكار عبر الإنترنت.
لن تحل حقوق الطبع والنشر التأثير المدمر لبحث الذكاء الاصطناعي
جادلت News Corp بأن استخدام محتواها لاستخراج المعلومات لاستخدامها في عمليات بحث الذكاء الاصطناعي يرقى إلى مستوى انتهاك حقوق الطبع والنشر، وادعت أن Perplexity AI كانت "تتنافس على القراء بينما تقدم رحلة مجانية". وقد تشارك صحيفة نيويورك تايمز هذا الرأي أيضًا، حيث أرسلت رسالة توقف وكف إلى شركة Perplexity AI في منتصف أكتوبر.
في بعض النواحي، تكون التهم الموجهة إلى AI Search أقوى من القضايا الأخرى التي تنطوي على تدريب على الذكاء الاصطناعي. يتعلم تدريب الذكاء الاصطناعي عادةً أنماطًا سلوكية عامة من خلال كميات كبيرة من المحتوى المتكرر، وغالبًا ما تكون مساهمة جزء واحد من المحتوى محدودة. لكن في البحث، تكمن قيمة المحتوى في حداثته أو تفرده، أو في السلطة الفريدة للمبدع. تم تصميم بحث الذكاء الاصطناعي لإعادة إنتاج خصائص محددة في البيانات الأساسية، والاستشهاد بسلطة المؤلف الأصلي، والعمل كبديل للمحتوى الأصلي.
ومع ذلك، لا تزال شركة News Corp تواجه التحدي الصعب المتمثل في إثبات أن شركة Perplexity AI انتهكت حقوق الطبع والنشر عند معالجة المعلومات وتلخيصها. لا يحمي قانون حقوق الطبع والنشر "الحقيقة المجردة" أو نتائج المساعي الإبداعية أو الصحفية أو العلمية. تاريخياً، فضلت المحاكم الأمريكية المدعى عليهم في مجال التكنولوجيا الذين يستخدمون المحتوى لأغراض مشوهة بما فيه الكفاية، ومن المرجح أن يستمر هذا الاتجاه. وإذا نجحت شركة News Corp، فإن تأثير هذه السابقة سوف يتجاوز بكثير الذكاء الاصطناعي المحير. إن تقييد استخدام المحتوى الغني بالمعلومات لأغراض غير إبداعية أو غير معبرة قد يحد من استخدام البيانات الغنية والمتنوعة وعالية الجودة ويعوق الجهود الأوسع لتحسين سلامة وموثوقية أنظمة الذكاء الاصطناعي.
تتعلم الحكومات كيفية تنظيم توزيع القيمة عبر الإنترنت
إذا فشلت القوانين الحالية في معالجة هذه القضايا، فقد تسعى الحكومات إلى إيجاد قوانين جديدة. واستلهاماً للخلافات مع منصات البحث ووسائل التواصل الاجتماعي التقليدية، قد تحذو الحكومات حذو قوانين المساومة الإعلامية المطبقة في أستراليا وكندا، أو البرامج المماثلة التي اقترحتها ولاية كاليفورنيا والكونغرس في الولايات المتحدة. تجبر الإصلاحات بعض المنصات على دفع أموال لبعض المؤسسات الإعلامية مقابل عرض محتواها، مثل شرائح الأخبار أو لوحات المعرفة. وقد فرض الاتحاد الأوروبي التزامات مماثلة من خلال إصلاح حقوق الطبع والنشر، في حين أدخلت المملكة المتحدة سلطات منافسة واسعة النطاق لفرض المساومة عند الضرورة.
ومع ذلك، فإن المساومة القسرية هي الحل الخام لهذه المشكلة المعقدة. تفضل هذه الإصلاحات مؤسسات إخبارية محددة وتستند إلى افتراض أن منصات مثل جوجل وميتا تستغل الناشرين. ومن الناحية العملية، من الصعب تحديد مقدار حركة المرور على المنصة التي تأتي فعليا من الأخبار، حيث تتراوح التقديرات من 2٪ إلى 35٪، حيث يمثل المحتوى الإخباري على وسائل التواصل الاجتماعي 3٪ فقط. وفي الوقت نفسه، جلبت المنصات فوائد كبيرة في تضخيم محتوى الناشر، ولكن لا يوجد إجماع موحد حول التوزيع المناسب لهذه القيمة ذات الاتجاهين. والأمر الأكثر إثارة للجدال هو أن قواعد المساومة هذه لا تستهدف إعادة إنتاج المحتوى فحسب، بل إنها تفرض أيضاً قيوداً على الفهرسة والربط، الأمر الذي يهدد قدرة "الارتباط الحر" التي تقوم عليها شبكة الإنترنت. بالإضافة إلى ذلك، لا تنطبق قوانين المساومة التي تركز على وسائل الإعلام التقليدية إلا على 1400 منشور في كندا، و1500 في الاتحاد الأوروبي، و62 منظمة في أستراليا، متجاهلة العديد من المبدعين والمستخدمين الذين يساهمون في حركة مرور المنصة كل يوم.
يجب على الصناعة اغتنام الفرص المحدودة لإنشاء نظام عادل للمكافآت
ومع ذلك، فإن التهديد بالتدخل في حد ذاته قد يكون له تأثير أكبر من الإصلاح الفعلي. لقد أدركت شركات الذكاء الاصطناعي خطر تصاعد التقاضي إلى التنظيم. على سبيل المثال، بدأت شركات Perplexity AI وOpenAI وGoogle في إبرام صفقات مع ناشرين ومنصات محتوى، يغطي بعضها التدريب على الذكاء الاصطناعي ويركز البعض الآخر على البحث في الذكاء الاصطناعي. ولكن على غرار قوانين المساومة السابقة، فإن هذه الاتفاقيات لا تفيد سوى عدد قليل من الشركات، وبعضها، مثل ريديت، لم يلتزم بعد بمشاركة الإيرادات مع المبدعين الخاصين به.
إن سياسة التنازلات الانتقائية هذه غير مستدامة. إنه يتجاهل الغالبية العظمى من المبدعين عبر الإنترنت، الذين لا يمكنهم بسهولة إلغاء الاشتراك في بحث الذكاء الاصطناعي وليس لديهم القدرة على المساومة التي يتمتع بها الناشرون التقليديون. وهذا التكتيك يضعف الحاجة الملحة للإصلاح من خلال استرضاء أشد منتقديه. إن إضفاء الشرعية على حفنة من شركات الذكاء الاصطناعي من خلال اتفاقيات تجارية معقدة تجعل من الصعب على الداخلين الجدد الحصول على معاملة متساوية أو حصانة معادلة يمكن أن يؤدي إلى ترسيخ موجة جديدة من عمالقة البحث. وعلى المدى الطويل، قد يخلق هذا حوافز ضارة لشركات الذكاء الاصطناعي لتفضيل المصادر منخفضة التكلفة ومنخفضة الجودة على الأخبار أو المحتوى الأعلى تكلفة وعالية الجودة، مما يؤدي إلى ثقافة عشوائية متزايدة في استهلاك المعلومات.
وبدلاً من ذلك، يجب على صناعة الذكاء الاصطناعي أن تستثمر في الأطر التي تسمح للمبدعين من جميع الأنواع بالاستفادة من مشاركة المحتوى عالي الجودة. من YouTube إلى TikTok إلى X، أثبتت منصات التكنولوجيا قدرتها على توفير آليات مكافأة مبتكرة لمنشئي المحتوى في أسواق المحتوى المعقدة. في الواقع، يعد تحقيق الدخل من المحتوى اليومي بشكل أكثر إنصافًا هدفًا أساسيًا لحركة "web3" التي يروج لها أصحاب رؤوس الأموال الاستثمارية. ينطبق هذا المنطق أيضًا على بحث الذكاء الاصطناعي. إذا أدى الاستعلام إلى تفاعل كبير ولكن المستخدم لم ينقر للوصول إلى المصدر الأصلي، فيجب على منصات البحث التجارية للذكاء الاصطناعي إيجاد طرق لنسب هذه القيمة إلى منشئ المحتوى ومشاركتها على نطاق أوسع.
وبطبيعة الحال، من الممكن أيضًا أن يكون اقتصادنا الرقمي غير كامل منذ البداية. فالاعتماد على عائدات الإعلانات المتفرقة قد يكون غير مستدام، وقد تسبب اقتصاد الاهتمام في إلحاق أضرار جسيمة بالخصوصية، وسلامة المعلومات، والديمقراطية على الإنترنت. قد يتطلب دعم الصحافة عالية الجودة والمحتوى الجديد أشكالًا أخرى من الاستثمار أو الحوافز.
ولكن لا ينبغي لنا أن نتخلى عن السعي إلى تحقيق اقتصاد رقمي أكثر عدالة. بحث الذكاء الاصطناعي يجعل التفاوض على المحتوى أكثر إلحاحًا وأكثر جدوى من أي وقت مضى. ويجب على رواد صناعة الذكاء الاصطناعي اغتنام هذه الفرصة لوضع الأساس لبناء أنظمة مكافآت ذكية وعادلة وقابلة للتطوير. وإذا فشلت الحكومات في التحرك، فإنها تتمتع بالفعل بالقدرة والثقة اللازمة لفرض نظام القيم المشتركة الذي تتصوره.
بنجامين بروكس هو زميل في مركز بيركمان كلاين بجامعة هارفارد، حيث يركز على الاستجابات التنظيمية والتشريعية للذكاء الاصطناعي. وقد قاد سابقًا أعمال السياسة العامة في شركة Stability AI، التي تعمل على تطوير نماذج مفتوحة لتوليد الصور واللغة والصوت والفيديو. آراؤه لا تمثل موقف أي منظمة تابعة.