في الآونة الأخيرة، أثارت ورقتان بحثيتان حول الذكاء الاصطناعي التوليدي مناقشات ساخنة، مشيرة إلى أن النصوص التي ينشئها الذكاء الاصطناعي غالبا ما تكون "هراء". تقدم هاتان الورقتان تحليلاً متعمقًا للضرر المحتمل الذي قد يلحق بالمجتمع بسبب المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي من منظور الخصائص الأساسية للذكاء الاصطناعي وأوجه القصور في القوانين واللوائح الحالية، وتدعو إلى اتخاذ تدابير أكثر فعالية لتجنب المخاطر. يعتقد مؤلفو الورقة أنه من المضلل أن نعزو أخطاء الذكاء الاصطناعي إلى "أوهام" وأنه يجب استخدام مصطلحات أكثر دقة لوصف هذه الظاهرة، وبالتالي تحسين وعي الجمهور وفهمهم لتكنولوجيا الذكاء الاصطناعي وتعزيز تنفيذ القوانين واللوائح ذات الصلة. اللوائح كاملة.
في الآونة الأخيرة، أصدر فريقان من الباحثين أوراقا بحثية جذبت اهتماما واسع النطاق، حيث ذكرت صراحة أن محتوى منتجات الذكاء الاصطناعي التوليدي يمكن اعتباره في الأساس "هراء". وتشير الورقة، التي تحمل عنوان "ChatGPT هراء"، إلى أن تجاهل الذكاء الاصطناعي التوليدي للدقة عند إنتاج المعلومات يخلق العديد من التحديات للموظفين العموميين، وخاصة المسؤولين الذين لديهم واجب قانوني لقول الحقيقة.
يؤكد المؤلفون مايكل تاونسن هيكس، وجيمس همفريز، وجو سلاتر على أن المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي التوليدي لا يمكن وصفها ببساطة بأنها "أكاذيب" أو "أوهام". وعلى عكس الأكاذيب التي يتم خداعها عمدًا، يشير الهراء إلى شكل من أشكال التعبير الذي لا يهتم بالحقيقة في محاولة لإعطاء انطباع معين. وهم يجادلون بأن وصف أخطاء الذكاء الاصطناعي بأنها "هلوسة" لا يؤدي إلا إلى تضليل الجمهور إلى الاعتقاد بأن هذه الآلات لا تزال تحاول بطريقة أو بأخرى إيصال ما "تؤمن به".
وقالوا: "إن وصف هذه الأخطاء بـ "هراء" بدلاً من "أوهام" لن يكون أكثر دقة فحسب، بل سيساعد أيضًا في تحسين فهم الجمهور للتكنولوجيا". يسلط هذا المقطع الضوء على أهمية استخدام مصطلحات أكثر دقة لوصف أخطاء الذكاء الاصطناعي. وخاصة في السياق الحالي حيث الاتصالات العلمية والتكنولوجية في حاجة ماسة إلى التحسين.
وفي الوقت نفسه، تركز ورقة بحثية أخرى حول نماذج اللغات الكبيرة (LLMs) على البيئة القانونية والأخلاقية للاتحاد الأوروبي بشأن هذه القضية. الاستنتاج الذي توصلت إليه الورقة هو أن القوانين واللوائح الحالية المتعلقة بالذكاء الاصطناعي لا تزال غير مثالية بما يكفي لمنع الضرر الناجم عن "الهراء" الناتج عن الذكاء الاصطناعي بشكل فعال. يقترح المؤلفون ساندرا واتشر وبرنت ميتلشتات وكريس راسل إدخال لوائح مماثلة لتلك الموجودة في النشر، مع التركيز على تجنب "الخطاب غير الرسمي" الذي قد يسبب ضررا اجتماعيا.
ويشيرون إلى أن هذا الالتزام يؤكد على أنه لا ينبغي لأي كيان، عام أو خاص، أن يكون الحكم الوحيد على الحقيقة. ويشيرون أيضًا إلى أن "الخطاب العشوائي" للذكاء الاصطناعي التوليدي يمكن أن يحول الحقيقة إلى مسألة تردد ورأي الأغلبية بدلاً من الحقائق الفعلية.
وبشكل عام، تكشف هاتان الورقتان معًا المخاطر المحتملة للذكاء الاصطناعي التوليدي وتدعو جميع قطاعات المجتمع إلى الاهتمام واتخاذ الإجراءات اللازمة لتحسين القوانين واللوائح ذات الصلة، وتوحيد تطوير تكنولوجيا الذكاء الاصطناعي، والتأكد من أن تكنولوجيا الذكاء الاصطناعي يمكن أن تخدم بشكل أفضل. المجتمع البشري.