تعمل شركة OpenAI على تطوير تقنية العلامة المائية التي يمكنها تحديد النص الذي تم إنشاؤه بواسطة ChatGPT، بهدف التعامل مع انتشار المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. تتيح هذه التقنية إمكانية التتبع عن طريق تضمين علامات مائية غير مرئية في النص عن طريق إجراء تعديلات دقيقة على اختيار الكلمات. على الرغم من أن التكنولوجيا تعمل بشكل جيد في بعض المواقف، إلا أنها أقل فعالية في مواجهة أشياء مثل التلاعب بالنص، وقد تؤثر بشكل غير متناسب على مجموعات معينة. ولذلك، تتخذ OpenAI نهجًا حذرًا وتستكشف حلولًا أخرى مثل المصنفات والبيانات الوصفية في هذه الأثناء.
ووفقا لصحيفة وول ستريت جورنال، فقد طورت شركة OpenAI أداة للتعرف على النصوص التي تم إنشاؤها بواسطة ChatGPT بدقة عالية، ولكن لم يتم إصدارها رسميًا بعد. وتخطط الأداة لتحديد المحتوى الذي تم إنشاؤه بواسطة ChatGPT من خلال تضمين علامات مائية غير مرئية في النص، لكن هذه التقنية لا تزال تواجه العديد من التحديات، مثل مشاكل الفشل عند مواجهة تعديل النص وترجمته، والتمييز المحتمل ضد مجموعات معينة من الأشخاص. تؤكد OpenAI على أن هذه التكنولوجيا هي مجرد واحدة من الحلول العديدة التي تستكشفها وأنها ستعمل على تطوير هذا البحث بحذر وإعطاء الأولوية لتطوير أدوات المصادقة للمحتوى السمعي البصري. أثارت هذه الخطوة مناقشات مكثفة في الصناعة حول تحديد وإدارة المحتوى الناتج عن الذكاء الاصطناعي، وأصبح التركيز على كيفية تحقيق التوازن بين حماية الابتكار ومنع المخاطر.
تقول OpenAI إن العلامات المائية النصية هي مجرد واحد من الحلول العديدة التي تستكشفها، بما في ذلك المصنفات والبيانات الوصفية، التي تهدف إلى تحديد أصل النص. في حين أن تقنية العلامات المائية النصية تعمل بشكل جيد في بعض الحالات، إلا أن فعاليتها تقل عند مواجهة التلاعب مثل الترجمة أو إعادة الكتابة أو إدراج أحرف خاصة. بالإضافة إلى ذلك، قد تؤثر التكنولوجيا بشكل غير متناسب على مجموعات معينة، مثل المتحدثين باللغة الإنجليزية غير الأصليين.
في ضوء العوامل المعقدة المذكورة أعلاه وتأثيرها المحتمل على النظام البيئي بأكمله، ذكرت OpenAI أنها ستعمل بحذر على تطوير الأبحاث حول تقنية إسناد النص وإعطاء الأولوية لتطوير أدوات المصادقة للمحتوى السمعي البصري.
أثار هذا القرار مناقشات مكثفة في الصناعة حول تحديد وإدارة المحتوى الناتج عن الذكاء الاصطناعي. ومع التطور السريع لتكنولوجيا الذكاء الاصطناعي، أصبحت كيفية تحقيق التوازن بين حماية الابتكار ومنع المخاطر محط اهتمام جميع الأطراف.
يعكس موقف OpenAI الحذر تجاه تكنولوجيا تتبع محتوى الذكاء الاصطناعي التعقيد والتحديات الأخلاقية للتطور التكنولوجي. في المستقبل، ستكون كيفية تحديد المحتوى الناتج عن الذكاء الاصطناعي وإدارته بشكل فعال قضية رئيسية ذات اهتمام مستمر في مجال الذكاء الاصطناعي، مما يتطلب جهودًا مشتركة من التكنولوجيا والسياسة والأخلاق.