علم محرر Downcodes أن Microsoft أصدرت مؤخرًا ورقة بيضاء للتعمق في الاستخدام الضار للذكاء الاصطناعي التوليدي. ويكشف التقرير أن الذكاء الاصطناعي يستخدم في أنشطة إجرامية خطيرة مثل الاحتيال، وإنتاج مواد الاعتداء الجنسي على الأطفال، والتلاعب بالانتخابات، وإنتاج صور خاصة غير طوعية، مؤكدا أن هذه المشاكل لا تمثل تحديات تقنية فحسب، بل تشكل أيضا تهديدا كبيرا للمجتمع. تدعو مايكروسوفت إلى التعاون العالمي للتعامل بشكل مشترك مع المخاطر التي يجلبها الذكاء الاصطناعي.
أصدرت Microsoft مؤخرًا تقريرًا تقنيًا يقدم تحليلًا متعمقًا للاستخدام الضار للذكاء الاصطناعي التوليدي (AI)، بما في ذلك الاحتيال، ومواد الاعتداء الجنسي على الأطفال، والتلاعب بالانتخابات، والصور الخاصة غير التوافقية. وأكدت الشركة أن هذه المشكلات لا تمثل تحديات تقنية فحسب، بل تمثل أيضًا تهديدًا كبيرًا للمجتمع.
وفقًا للورقة البيضاء الصادرة عن Microsoft، يستفيد المجرمون بشكل متزايد من قوة الذكاء الاصطناعي التوليدي لتنفيذ جرائم شنيعة. وتشمل هذه استخدام المعلومات المضللة الناتجة عن الذكاء الاصطناعي للاحتيال، وإنشاء مواد الاعتداء الجنسي على الأطفال، والتلاعب بالانتخابات من خلال تكنولوجيا التزييف العميق، وإنشاء صور حميمة غير توافقية تستهدف النساء بشكل خاص. وقال هيو ميلوارد، نائب رئيس مايكروسوفت للشؤون الخارجية: "يجب ألا ننسى أبدًا أن سوء استخدام الذكاء الاصطناعي له عواقب وخيمة على الأشخاص الحقيقيين".
ويستهدف الكتاب الأبيض بشكل خاص صانعي السياسات في المملكة المتحدة، ويقترح مجموعة شاملة من الحلول القائمة على ستة عناصر أساسية لمعالجة القضايا المذكورة أعلاه. وتشمل العناصر الستة: بنية أمنية قوية، ومصادر دائمة لوسائل الإعلام وأدوات العلامات المائية، وقوانين حديثة لحماية الجمهور، وتعاون قوي بين الصناعة والحكومة والمجتمع المدني، والحماية من سوء استخدام الخدمات، والتعليم العام.
في توصيات محددة لصانعي السياسات في المملكة المتحدة، تدعو Microsoft إلى مطالبة موفري أنظمة الذكاء الاصطناعي بإبلاغ المستخدمين بأن المحتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي عندما يتفاعل المستخدمون مع أنظمة الذكاء الاصطناعي. بالإضافة إلى ذلك، توصي Microsoft بتنفيذ أدوات متقدمة لوضع علامات على المصدر لوضع علامة على المحتوى الاصطناعي، ويجب على الحكومات أيضًا أن تكون قدوة من خلال إجراء التحقق من صحة محتوى الوسائط الخاص بها. وشددت مايكروسوفت أيضًا على أن هناك حاجة لقوانين جديدة لمنع الاحتيال من خلال أدوات الذكاء الاصطناعي لحماية نزاهة الانتخابات. وفي الوقت نفسه، ينبغي أيضا تعزيز الإطار القانوني لحماية الأطفال والنساء من الاستغلال عبر الإنترنت، بما في ذلك من خلال تجريم إنتاج المواد الجنسية العميقة.
وأشارت مايكروسوفت أيضًا إلى أنه من المهم تخزين تقنية البيانات الوصفية التي تشير إلى ما إذا كانت الوسائط قد تم إنشاؤها بواسطة الذكاء الاصطناعي. هناك مشاريع مماثلة جارية بالفعل من قبل شركات مثل Adobe التي تهدف إلى مساعدة الأشخاص على تحديد أصل الصور. ومع ذلك، تعتقد Microsoft أن معايير مثل "بيانات اعتماد المحتوى" تتطلب تدابير سياسية ووعيًا عامًا حتى تكون فعالة.
بالإضافة إلى ذلك، تعمل Microsoft مع مؤسسات مثل StopNCII.org لتطوير أدوات للكشف عن الصور المسيئة وإزالتها. يمكن للضحايا الاستئناف من خلال بوابة التقارير المركزية لشركة Microsoft. بالنسبة للشباب، يتم توفير دعم إضافي من خلال خدمة Take It Down التي يقدمها المركز الوطني للأطفال المفقودين والمستغلين. وقال ميلوارد: "من المرجح أن يكون سوء استخدام الذكاء الاصطناعي مشكلة طويلة الأمد، لذلك نحن بحاجة إلى مضاعفة جهودنا والعمل بشكل خلاق مع شركات التكنولوجيا والشركاء الخيريين والمجتمع المدني والحكومات لمعالجة هذه المشكلة. لا يمكننا أن نفعل ذلك بمفردنا". "
يوفر هذا التقرير التقني الخاص بشركة Microsoft مرجعًا قيمًا للتعامل مع التطبيقات الضارة للذكاء الاصطناعي التوليدي، ويؤكد على أهمية التعاون الفني والقانوني والاجتماعي، ويوفر اتجاهًا مهمًا لحوكمة الذكاء الاصطناعي في المستقبل. فقط من خلال التعاون مع أطراف متعددة يمكننا التعامل بفعالية مع المخاطر التي يجلبها الذكاء الاصطناعي وضمان الأمن الاجتماعي والاستقرار.