كيفية تمكين الذكاء الاصطناعي من تحقيق العدالة المعرفية
الكاتب:Eve Cole
وقت التحديث:2024-11-22 17:54:01
في السنوات الأخيرة، تم تطبيق الذكاء الاصطناعي في العديد من الصناعات وأصبح "مساعدًا جيدًا" للبشرية. ولكن في هذه العملية، ظهرت مشاكل مختلفة أيضا. ومن بينها أن نظام الذكاء الاصطناعي يولد "معرفة" خاطئة تعتمد على مصادر بيانات ضعيفة وتصميم خوارزمي معيب، وليس لديه القدرة على إصدار أحكام قيمية على محتوى المخرجات ولا يمكنه تحمل المسؤوليات المعرفية المقابلة، مما يؤدي إلى تحيزات معرفية نظامية هي قضية بارزة إلى حد ما. ومن وجهة نظر الأخلاق العلمية والتكنولوجية، فإن هذا يخالف مبدأ العدالة المعرفية. يشير ما يسمى بالعدالة المعرفية إلى ضمان إمكانية سماع أصوات جميع الأفراد والجماعات وفهمها بشكل عادل في عملية توليد المعرفة ونشرها واكتسابها، والحصول على فرص متساوية لتحويلها إلى معرفة عامة للبشرية. في الماضي، كان توليد المعرفة يعتمد بشكل أساسي على الإدراك والذاكرة والتفكير وشهادة الأفراد البشريين. ومع ذلك، مع التكرار السريع للذكاء الاصطناعي، وخاصة التطبيق الواسع النطاق للذكاء الاصطناعي التحادثي، تشهد أساليب توليد المعرفة التقليدية ونشرها تغيرات كبيرة. الذكاء الاصطناعي اليوم ليس جيدًا في جمع المعلومات وأداء المهام فحسب، بل هو أيضًا "تقنية معرفية" يمكنها توليد ونشر المعرفة، ويتم استخدامه لمعالجة المحتوى المعرفي (مثل المقترحات والنماذج والبيانات) وتنفيذ العمليات المعرفية (مثل كالتحليل الإحصائي والتعرف على الأنماط والتنبؤ والاستدلال والمحاكاة). إن "المعرفة الآلية" القائمة على البيانات والخوارزميات تتحدى المعرفة الإنسانية السابقة القائمة على الخبرة والحكم المهني، مما يؤدي إلى "التجزئة" المعرفية وتقويض العدالة المعرفية لأنظمة المعرفة الإنسانية التقليدية. واليوم، بدأ الذكاء الاصطناعي التوليدي في الدمج بشكل كامل في جميع السيناريوهات والعمليات الاجتماعية التي قد توفر بدائل تقنية للإدراك واتخاذ القرار. في مواجهة تحدي العدالة المعرفية الذي يسببه الذكاء الاصطناعي في توليد المعرفة، كيف نجعل الذكاء الاصطناعي أكثر ذكاءً؟ كيف نجعله مساعدًا في تحسين الإدراك والتأكد من أن العلوم والتكنولوجيا جيدة؟ ويعتقد المؤلف أنه من الضروري البدء من أبعاد تحسين جودة البيانات، وتحسين تصميم الخوارزميات، وتحسين التعاون بين الإنسان والآلة، وتعزيز الحوكمة الأخلاقية. يعد تصميم الخوارزمية المسؤولة بمثابة بنية أساسية لتحقيق العدالة المعرفية. باعتباره تقنية معرفية قوية، يحدد الذكاء الاصطناعي أنماط واتجاهات المعلومات من خلال استخراج البيانات والتحليل الإحصائي، ويشارك في توليد المعرفة العامة البشرية. نظرًا لأن الخوارزمية تركز على أنماط المعلومات التي تظهر بشكل متكرر في بيانات التدريب، فغالبًا ما يتم تجاهل واستبعاد البيانات غير الشائعة بدرجة كافية أو القوية إحصائيًا، مما يمنع الخوارزمية من الفهم الكامل والاستجابة بشكل مناسب. ويشكل تصميم الخوارزميات التي تعتمد على الترددات الإحصائية نوعا خاصا من "الطاعة العمياء المعرفية"، والتي تؤدي بدورها إلى التهميش الممنهج لأصوات بعض الفئات. ولا يحد هذا الخلل في التصميم من القدرات المعرفية للخوارزمية فحسب، بل يؤدي أيضا إلى تفاقم عدم المساواة والقمع المعرفي في المجتمع، مما يقوض العدالة المعرفية. السبب الجذري وراء سلوك "الطاعة العمياء" هو عدم فهم الخلفيات الثقافية للمجموعات المختلفة في تصميم الخوارزمية وعملية التدريب. لذلك، بالإضافة إلى شفافية الخوارزمية وقابلية التفسير التي نتحدث عنها كثيرًا، فإن تصميم الخوارزمية الذي يلبي متطلبات العدالة المعرفية يجب أن يأخذ في الاعتبار أيضًا التنوع المعرفي الذي يشمل المجتمعات المختلفة. إن توفير البيانات الجيدة هو البنية التحتية لتحقيق العدالة المعرفية. هناك عامل مهم آخر يجعل الذكاء الاصطناعي يقوض العدالة المعرفية وهو جودة البيانات. البيانات الضخمة هي الأساس المعرفي وأساس اتخاذ القرار للتكنولوجيا الذكية، ويمكنها تقديم خصائص واتجاهات جميع جوانب الحياة الاجتماعية البشرية بشكل أكثر وضوحًا وحدسًا. ومع ذلك، على عكس المعرفة العامة البشرية التقليدية، لا يتم مشاركة البيانات عالميًا. وعلى وجه التحديد، فإن البيانات التي يمكن جمعها واستخدامها للتحليل، وكيف سيتم تصنيف هذه البيانات واستخراجها، ومن الذي تخدمه في نهاية المطاف، كلها أمور غير واضحة، مما يؤدي إلى تفاوت جودة البيانات. غالبًا ما تأتي بيانات التدريب الخاصة بالخوارزميات من قواعد بيانات ومجتمعات كبيرة على الإنترنت، ومن المرجح أن تحتوي هذه البيانات على تحيز وتمييز. ويتطلب توليد المعرفة في الذكاء الاصطناعي التأكد من أن مصدر البيانات موثوق به وأن المحتوى متنوع، ويجب أن تكون البيانات متحيزة، كما يجب مراقبة البيانات وتحديثها بشكل مستمر لتواكب المشاكل الجديدة التي تفرزها التغيرات الاجتماعية والثقافية. فقط من خلال توفير بيانات عالية الجودة، يمكن لأنظمة الذكاء الاصطناعي توفير معرفة أكثر دقة ودعم اتخاذ القرار في الهياكل الاجتماعية المعقدة والمتعددة الثقافات. يعد التعاون واسع النطاق بين الإنسان والآلة وسيلة فعالة لتحقيق العدالة المعرفية. بدءًا من ترجمة الإشارات في واجهات الدماغ والحاسوب إلى الإجراءات المشتركة بين الإنسان والآلة مثل اتخاذ القرارات الطبية الذكية والذكاء الاصطناعي للعلوم، يتضمن التعاون بين الإنسان والآلة على مستويات مختلفة عمليات معرفية مثل نقل المعرفة البشرية والآلة وتفسيرها وتكاملها. معرفة. وفي ضوء الخصائص المعرفية النموذجية للبشر والآلات، فإن "التقسيم المعرفي للعمل بين الإنسان والآلة" على نطاق واسع وعقلاني من شأنه أن يتجنب بشكل فعال المزيد من التحيزات المعرفية بين الإنسان والآلة. على سبيل المثال، في البحث العلمي، يمكن أن يكون هناك تقسيم للعمل: يحدد البشر الأهداف، ويقترحون الفرضيات، ويفسرون النتائج، ويكونون مسؤولين عن توفير التفكير الإبداعي، واتخاذ القرار على الفور، والحكم الأخلاقي، والفهم البديهي. من المشاكل غير المنظمة، بينما يقوم الذكاء الاصطناعي بمعالجة كميات كبيرة من البيانات المنظمة، وإجراء التعرف على الأنماط والتحليل التنبؤي لتوفير أنماط وارتباطات غير ملحوظة. وفي هذا النوع من التعاون، يصبح الذكاء الاصطناعي بمثابة "شريك" يلهم أفكارًا جديدة بدلاً من "آلة" تولد معرفة خاطئة. الحوكمة الأخلاقية رفيعة المستوى هي الدعم المؤسسي لتحقيق العدالة المعرفية. تتطلب العدالة المعرفية توليد المعرفة المتنوعة، واكتساب المعرفة بشكل متساوٍ، ونشر المعرفة غير المتحيزة والاستخدام المسؤول للمعرفة، وكلها تتطلب مستوى عالٍ من الحوكمة الأخلاقية للذكاء الاصطناعي. بالنسبة للمؤسسات، ينبغي مراعاة احتياجات ووجهات نظر الفئات الاجتماعية المختلفة في تصميم الخوارزميات، كما ينبغي إجراء مراقبة مستمرة للمخاطر وتقييم قيمة الخوارزميات؛ كما ينبغي استكشاف نموذج التعهيد الجماعي الأخلاقي للذكاء الاصطناعي لتشجيع الباحثين والمستخدمين من خلفيات مختلفة للمشاركة في الذكاء الاصطناعي في البحث والحكم على المخاطر الأخلاقية الذكية، يمكن حل المخاطر الأخلاقية في الوقت المناسب. بالنسبة للحكومة، ينبغي لها أن تشجع بنشاط تحويل البيانات الخاصة إلى بيانات عامة، وتسريع فتح البيانات العامة ومشاركتها للمجتمع بأكمله، وتوسيع نطاق تنوع البيانات، وتعزيز موثوقية البيانات، كما ينبغي لها البحث عن حلول اجتماعية للتعامل مع الإمكانات المخاطر الأخلاقية للذكاء الاصطناعي وإنشاء نظام يغطي آلية حوكمة رشيقة ذات بصيرة تطلعية وتقييم في الوقت الفعلي وتعديل منهجي.