قامت شركة OpenAI بتطوير تقنية متقدمة يمكنها اكتشاف المحتوى الذي تم إنشاؤه بواسطة ChatGPT بدقة تصل إلى 99.9%، ولكن لم يتم نشر هذه التقنية علنًا، مما أثار نقاشًا وجدلًا واسع النطاق. سوف تتعمق هذه المقالة في المعضلة التي تواجهها OpenAI: كيفية تحقيق التوازن بين الشفافية التقنية وولاء المستخدم والعدالة التقنية والمسؤولية الاجتماعية، فضلاً عن الحاجة الملحة لهذه التكنولوجيا في مجتمع التعليم.
تواجه OpenAI مشكلة شائكة: كيف تتعامل مع الطلاب الذين يستخدمون ChatGPT للغش؟ على الرغم من أن الشركة طورت طريقة موثوقة لكشف المقالات أو التقارير البحثية المكتوبة بواسطة ChatGPT، إلا أن ذلك يأتي وسط مخاوف واسعة النطاق بشأن استخدام الطلاب للذكاء الاصطناعي في الغش لم يتم إصداره علنًا بعد.
نجحت OpenAI في تطوير تقنية موثوقة لاكتشاف المحتوى الذي تم إنشاؤه بواسطة ChatGPT. تحقق هذه التقنية دقة اكتشاف تصل إلى 99.9% من خلال تضمين العلامات المائية في النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. ومع ذلك، فمن المحير أن هذه التكنولوجيا، التي يمكن أن تحل حاجة ملحة، لم يتم طرحها علنًا. وفقًا لمصادر مطلعة، تمت مناقشة هذا المشروع داخل OpenAI لمدة عامين تقريبًا وكان جاهزًا للإصدار قبل عام.
العوامل التي تعيق إطلاق هذه التكنولوجيا معقدة. أولاً، تواجه OpenAI معضلة: هل تلتزم بالتزام الشركة بالشفافية، أم تحافظ على ولاء المستخدم؟ يُظهر استطلاع داخلي للشركة أن ما يقرب من ثلث مستخدمي ChatGPT المخلصين يعارضون تكنولوجيا مكافحة الغش. ولا شك أن هذه البيانات تضع ضغطًا كبيرًا على عملية صنع القرار في الشركة.
ثانياً، تشعر شركة OpenAI بالقلق من أن التكنولوجيا قد يكون لها تأثير سلبي غير متناسب على مجموعات معينة، وخاصة الناطقين باللغة الإنجليزية غير الأصليين. ويعكس هذا القلق سؤالا جوهريا في أخلاقيات الذكاء الاصطناعي: كيف نضمن أن تكنولوجيا الذكاء الاصطناعي عادلة وشاملة؟
وفي الوقت نفسه، تتزايد الحاجة إلى هذه التكنولوجيا في التعليم. وفقا لاستطلاع أجراه مركز الديمقراطية والتكنولوجيا، فإن 59% من معلمي المدارس المتوسطة والثانوية مقتنعون بأن الطلاب يستخدمون بالفعل الذكاء الاصطناعي لإكمال واجباتهم المنزلية، بزيادة قدرها 17 نقطة مئوية عن العام الدراسي السابق. يحتاج المعلمون بشكل عاجل إلى أدوات لمواجهة هذا التحدي والحفاظ على النزاهة الأكاديمية.
أثار تردد OpenAI جدلاً داخليًا. يقول الموظفون الذين يدعمون إصدار الأداة إن مخاوف الشركة تتضاءل مقارنة بالفوائد الاجتماعية الضخمة التي يمكن أن تجلبها التكنولوجيا. ويسلط هذا المنظور الضوء على التوتر بين التطور التكنولوجي والمسؤولية الاجتماعية.
هناك أيضًا بعض المشاكل المحتملة مع التكنولوجيا نفسها. على الرغم من دقة الكشف العالية، لا يزال هناك موظفون يشعرون بالقلق من إمكانية مسح العلامات المائية بوسائل تقنية بسيطة، مثل برامج الترجمة أو التحرير البشري. ويعكس هذا الاهتمام التحديات التي تواجهها تكنولوجيا الذكاء الاصطناعي في التطبيقات العملية.
وبالإضافة إلى ذلك، فإن كيفية التحكم في نطاق استخدام هذه التكنولوجيا هي أيضًا مسألة شائكة. سيؤدي استخدامها بشكل ضيق جدًا إلى تقليل فائدتها، في حين أن استخدامها على نطاق واسع جدًا قد يؤدي إلى اختراق التكنولوجيا. يتطلب هذا التوازن تصميمًا وإدارة دقيقة.
ومن الجدير بالذكر أن عمالقة التكنولوجيا الآخرين يقومون أيضًا بتحركات في هذا المجال. قامت Google بتطوير SynthID، وهي أداة لوضع العلامات المائية تكتشف النص الذي تم إنشاؤه بواسطة Gemini AI، على الرغم من أنها لا تزال في مرحلة تجريبية. وهذا يعكس الأهمية التي توليها صناعة الذكاء الاصطناعي بأكملها للتحقق من صحة المحتوى.
كما أعطت OpenAI الأولوية لتطوير تقنيات العلامات المائية الصوتية والمرئية، خاصة خلال عام الانتخابات الأمريكية. يسلط القرار الضوء على حاجة شركات الذكاء الاصطناعي إلى النظر في التأثيرات الاجتماعية الأوسع في تطوير التكنولوجيا.
المرجع: https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink
يعكس قرار OpenAI تحديًا مشتركًا يواجهه تطوير تكنولوجيا الذكاء الاصطناعي: التوازن بين التقدم التكنولوجي والمسؤولية الأخلاقية. إن كيفية تجنب إساءة الاستخدام التقني والظلم مع ضمان النزاهة الأكاديمية ستكون قضية رئيسية تحتاج OpenAI وصناعة الذكاء الاصطناعي بأكملها إلى مواصلة استكشافها وحلها في المستقبل.