أصدرت Microsoft مؤخرًا ورقة بيضاء ، محذرة من أن التطبيقات الخبيثة من الذكاء الاصطناعى التوليدي أصبحت متفشية بشكل متزايد ، وتغطي حقول متعددة مثل الاحتيال ، والاعتداء الجنسي على الأطفال ، والتلاعب بالانتخابات ، وتسرب الصور غير الطوعي. لا يشير التقرير إلى التحديات الفنية فحسب ، بل يؤكد أيضًا على التهديدات الخطيرة التي تشكلها للمجتمع ، ويقترح حلاً عمليًا لصانعي السياسات البريطانيين ، بهدف استخدام التعاون القانوني والتقني والاجتماعي وغيرها من وسائل التعامل مع هذا الأمر للتعامل مع هذا مشكلة. توضح الورقة البيضاء طرقًا مختلفة لاستخدام تقنية الذكاء الاصطناعي لارتكاب جرائم ، وتقترح أهمية تعزيز التشريعات ، وتعزيز الابتكار التكنولوجي وتعزيز الوعي العام.
أصدرت Microsoft مؤخرًا ورقة بيضاء تحلل بعمق الاستخدام الضار للذكاء الاصطناعي التوليدي (AI) ، بما في ذلك الاحتيال ، ومواد الاعتداء الجنسي على الأطفال ، والتلاعب بالانتخابات ، والصور الخاصة غير الطوعية. أكدت الشركة أن هذه المشكلات ليست مجرد تحديات تقنية ، ولكنها أيضًا تهديد كبير للمجتمع.
وفقًا لورقة Microsoft البيضاء ، يستخدم المجرمون بشكل متزايد قوة الذكاء الاصطناعى التوليدي لارتكاب أعمال شريرة. تتضمن هذه السلوكيات الشريرة استخدام معلومات خاطئة تم إنشاؤها بواسطة الذكاء الاصطناعى لارتكاب عمليات الاحتيال ، وخلق مواد الاعتداء الجنسي على الأطفال ، والتلاعب الانتخابي من خلال تقنيات التزوير العميقة ، وخلق صور حميمة لا إرادية موجهة بشكل خاص للنساء. وقال هيو ميلوارد ، نائب رئيس الشؤون الخارجية في Microsoft: "لا يمكننا أبدًا أن ننسى أن إساءة معاملة الذكاء الاصطناعى لها تأثير عميق على أناس حقيقيين".
تستهدف الورقة البيضاء على وجه التحديد صناع السياسة في المملكة المتحدة وتقترح مجموعة شاملة من الحلول تعتمد على ستة عناصر أساسية لمعالجة القضايا المذكورة أعلاه. تشمل هذه العناصر الستة: بنية أمنية قوية ، ومصدر دائم لأدوات الإعلام والعلامات المائية ، والقوانين الحديثة لحماية الجمهور ، والتعاون القوي بين الصناعة والحكومة والمجتمع المدني ، وحماية سوء المعاملة للخدمات ، والتعليم العام.
في توصية محددة لصانعي السياسات في المملكة المتحدة ، تدعو Microsoft على مقدمي الذكاء الاصطناعي لإبلاغ المستخدمين بأن المحتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي عندما يتفاعلون مع أنظمة الذكاء الاصطناعى. بالإضافة إلى ذلك ، توصي Microsoft بتنفيذ أدوات وضع علامات المصدر المتقدمة لتمييز المحتوى الاصطناعي ، ويجب على الحكومة وضع مثال من خلال التحقق من صحة محتوى الوسائط الخاص بها. أكدت Microsoft أيضًا على الحاجة إلى قوانين جديدة لحظر الاحتيال من خلال أدوات الذكاء الاصطناعي لحماية عدالة الانتخابات. في الوقت نفسه ، ينبغي أيضًا تعزيز الإطار القانوني لحماية الأطفال والنساء من الاستغلال عبر الإنترنت ، بما في ذلك تجريم إنتاج التزوير الجنسي العميق.
أشارت Microsoft أيضًا إلى أنه من المهم تخزين تقنيات البيانات الوصفية التي تشير إلى ما إذا كان يتم إنشاء الوسائط بواسطة الذكاء الاصطناعي. تم دفع مشاريع مماثلة من قبل شركات مثل Adobe ، والتي تهدف إلى مساعدة الأشخاص على تحديد مصدر الصور. ومع ذلك ، تعتقد Microsoft أن معايير مثل "قسائم المحتوى" تتطلب تدابير السياسة والوعي العام بالعمل.
بالإضافة إلى ذلك ، عقدت Microsoft شراكة مع منظمات مثل StopNCII.org لتطوير أدوات لاكتشاف الصور المعتدى عليها وإزالتها. يمكن للضحايا الدفاع عن حقوقهم من خلال بوابة التقارير المركزية لشركة Microsoft. توفر خدمة "Take It Down" التي يقدمها المركز الوطني للأطفال المفقودين والمستغلين دعمًا إضافيًا. وقال ميلوارد: "يمكن أن تكون مشكلة إساءة معاملة الذكاء الاصطناعي على المدى الطويل ، لذلك نحن بحاجة إلى مضاعفة جهودنا للتعاون بشكل إبداعي مع شركات التكنولوجيا والشركاء الخيريين والمجتمع المدني والحكومة لمعالجة هذه القضية. لا يمكننا القتال بمفردهم".
النقاط الرئيسية:
أصدرت Microsoft ورقة بيضاء تكشف عن العديد من الطرق التي يتم استخدام AI بشكل ضار ، بما في ذلك عمليات الاحتيال ومعالجة الانتخابات.
استجابة لصانعي السياسات البريطانيين ، اقترحت Microsoft حلولًا إلى ستة عناصر رئيسية ، تدعو إلى الحماية الشاملة للقانون والتكنولوجيا.
مع التأكيد على أهمية العمل مع جميع الأطراف ، تدعو Microsoft إلى جهد مشترك لمواجهة التحديات التي يطرحها إساءة استخدام الذكاء الاصطناعي.
باختصار ، توفر ورقة Microsoft البيضاء مرجعًا مهمًا للاستجابة للتطبيقات الخبيثة لوكالة الذكاء الاصطناعى التوليدي ، وتؤكد على الدور الشامل للتكنولوجيا والقانون والتعاون الاجتماعي ، ويدعو الجهود المشتركة العالمية لمنع إساءة استخدام تكنولوجيا الذكاء الاصطناعي والحفاظ على الضمان الاجتماعي والاستقرار .