إن التأكد من أن الذكاء الاصطناعي آمن وموثوق وقابل للتحكم يؤدي إلى تقدم الحضارة الإنسانية وهو قضية مهمة يجب حلها لتطوير الذكاء الاصطناعي. اتخذ "قرار" الجلسة العامة الثالثة للجنة المركزية العشرين للحزب الشيوعي الصيني ترتيبات مهمة مثل "إنشاء نظام مراقبة سلامة الذكاء الاصطناعي" و"تحسين آلية تطوير وإدارة الذكاء الاصطناعي التوليدي". كيفية تعزيز حوكمة الذكاء الاصطناعي، ومنع وحل المخاطر الأمنية المختلفة الناجمة عن تطوير الذكاء الاصطناعي بشكل فعال، والتحسين المستمر لإضفاء الطابع المؤسسي وتقنين الإشراف على سلامة الذكاء الاصطناعي؟ تركز هذه الطبعة الأكاديمية على هذه القضايا.
وأشار الأمين العام شي جين بينغ: "إن الذكاء الاصطناعي هو قوة دافعة مهمة لجولة جديدة من الثورة العلمية والتكنولوجية والتحول الصناعي، وسيكون له تأثير عميق على التنمية الاقتصادية والاجتماعية العالمية وتقدم الحضارة الإنسانية الاصطناعية". يشير الذكاء إلى توليد الذكاء الاصطناعي بناءً على الخوارزميات والنماذج والقواعد التكنولوجية للنصوص والصور والأصوات ومقاطع الفيديو والرموز والمحتويات الأخرى. مدعومًا بالبيانات الضخمة وقدرة الحوسبة القوية، يتم ترقية الذكاء الاصطناعي التوليدي الذي يمكنه الفهم والتحدث والتفاعل بشكل متكرر بسرعة، مما يُظهر خصائص مثل التفاعل الجيد والتنوع العالي والإبداع الذكي، ويعمل مع جميع مناحي الحياة في الصناعة لقد شكلت اتصالات أكثر صرامة وعالية التردد ومنتشرة في كل مكان وعميقة، الأمر الذي يؤدي أيضًا إلى المزيد والمزيد من المخاطر المحتملة الحقيقية. "قرار" الجلسة العامة الثالثة للجنة المركزية العشرين للحزب الشيوعي الصيني استوعب علميا قوانين وخصائص تطوير الذكاء الاصطناعي، واقترح "إنشاء نظام مراقبة سلامة الذكاء الاصطناعي" و"تحسين تطوير و "آلية إدارة الذكاء الاصطناعي التوليدي"، وهو ما يعكس الحاجة إلى تطوير وسلامة أفضل تنسيقا. إنها حاجة موضوعية للإشارة إلى الطريق إلى الأمام لتعزيز التقدم التكنولوجي والتنمية الصناعية والأمن في مجال الذكاء الاصطناعي.
يمكن تقسيم التشغيل الفني للذكاء الاصطناعي التوليدي إلى ثلاث مراحل، وهي المرحلة التحضيرية للتدريب المسبق للتعلم وترقية الخوارزمية اليدوية بمساعدة التعليقات التوضيحية، ومرحلة حساب إدخال البيانات لمعالجة الخوارزمية للحصول على المنتجات التي تم إنشاؤها، والمرحلة التي تم إنشاؤها المنتجات التي تدخل المجتمع للاستخدام مرحلة التوليد. يجب علينا إجراء تحليل عميق لآلية تشغيل الذكاء الاصطناعي التوليدي، وفهم خصائص تكوين وتطوير المخاطر الأمنية في كل مرحلة، واستخدام الوسائل القانونية لتعزيز الحوكمة النظامية، والتأكد من أن القوة الهائلة الموجودة في الذكاء الاصطناعي التوليدي تلعب دائمًا دورًا على مسار سيادة القانون.
في مرحلة الإعداد للذكاء الاصطناعي التوليدي، تكون مخاطر أمن البيانات عرضة للتكرار وتكون أكثر بروزًا. يعمل الذكاء الاصطناعي التوليدي على تحسين المعلومات والتنبؤ بالاتجاهات من خلال التدريب على البيانات ومعالجة البيانات وتحليلها. ويتطلب ذلك التصنيف المناسب للبيانات وإنشاء أنماط الاستخدام وطرق الحماية لأنواع مختلفة من البيانات للاستجابة بشكل صحيح لمخاطر أمن البيانات ذات الصلة وتجنب الاستخدام غير القانوني أو الكشف غير السليم عن البيانات، مما يؤدي إلى نزاعات بشأن الانتهاك. على سبيل المثال، تعد البيانات الحكومية التي يتم تشكيلها أثناء عملية المعالجة الحكومية عنصرًا أساسيًا في الحكومة الرقمية. ومن أجل استخلاص استنتاجات دقيقة نسبيا، يقوم الذكاء الاصطناعي التوليدي حتما بجمع البيانات الحكومية وتحليلها. ينبغي توضيح القواعد القانونية للحصول على البيانات الحكومية واستخدامها بواسطة الذكاء الاصطناعي التوليدي، الأمر الذي لا يلبي احتياجات استخدام البيانات الحكومية لخدمة المجتمع فحسب، بل يدعم أيضًا بقوة تطوير وتدريب وتطبيق نماذج كبيرة من حكومة الذكاء الاصطناعي الخدمات، وتحسين المستوى الذكي للخدمات العامة والحوكمة الاجتماعية وتوحيد أساليب معالجتها لمنع النتائج التي يتم الحصول عليها من استخدام البيانات الحكومية من التعدي على الحقوق الشخصية والإخلال بالنظام الاجتماعي والعام. بالنسبة للبيانات الشخصية، يستكشف الذكاء الاصطناعي التوليدي قيمتها المحتملة من خلال التحليل المشترك، وقد يؤدي جمعها واستخدامها للبيانات الشخصية ونتائجها إلى انتهاك الحقوق المدنية. من الناحية العملية، يميل الذكاء الاصطناعي التوليدي إلى الإفراط في جمع البيانات الشخصية لتحسين دقة الاستنتاجات، على سبيل المثال، من خلال تحليل البيانات الطبية والصحية للتنقيب عن الأماكن الشخصية والتنبؤ بمسارات الحياة الشخصية. ولتحقيق هذه الغاية، يجب علينا الإصرار على جمع البيانات وفقًا للقانون، وجمع البيانات الشخصية وفقًا للحد الأدنى من النطاق الذي تتطلبه التكنولوجيا، وتحديد عمق معقول لمعالجة البيانات، وتجنب الإفراط في استغلال المعلومات المحتملة. باختصار، يجب تضمين متطلبات الإشراف على أمن البيانات المصنفة والهرمية في مرحلة إعداد الذكاء الاصطناعي التوليدي لمنع مخاطر أمن البيانات من التطور إلى عواقب أضرار قانونية محددة.
في مرحلة الحوسبة للذكاء الاصطناعي التوليدي، فإن خطر التحيز الخوارزمي المتأصل في نماذج الذكاء الاصطناعي الكبيرة يستحق اليقظة. يقوم الذكاء الاصطناعي التوليدي بشكل أساسي بتحليل البيانات ومعالجتها من خلال نماذج الخوارزمية. يختلف الذكاء الاصطناعي التوليدي عن نماذج الخوارزمية التقليدية، فهو لا يؤدي التعلم الآلي فحسب، بل يستخدم أيضًا عددًا كبيرًا من التعليقات التوضيحية اليدوية لتصحيح استنتاجات التعلم الآلي وتعزيز تطور الذكاء الاصطناعي. ومع ذلك، فإن "التعلم الآلي + التعليق التوضيحي اليدوي" باعتباره جوهر تقنية الخوارزمية سيجعل أيضًا الإرادة البشرية والتفضيلات لها تأثير أكبر من التعلم الآلي البحت. يتم فرض تأثير التفضيلات الشخصية على انحياز نموذج الخوارزمية نفسه، مما سيضاعف الآثار السلبية للتحيز الخوارزمي، مما يجعل تتبع ومنع حدوث التحيز الخوارزمي أكثر صعوبة. لمنع وحل مخاطر التحيز الخوارزمي، يجب تنفيذ الحوكمة المستهدفة بناءً على المبادئ والمواقع التي يحدث فيها التحيز الخوارزمي. من الضروري تضمين متطلبات اللوائح القانونية بعمق في نموذج الخوارزمية للذكاء الاصطناعي التوليدي، وتعزيز التكنولوجيا من أجل الخير، والقضاء على تحيز الخوارزمية، وضمان الاستخدام الرشيد لخوارزميات الذكاء الاصطناعي التوليدي، وتخصيص موارد الحوسبة. استنادًا إلى مفهوم الجمع بين التكنولوجيا والإدارة، سنقوم بتعزيز الإشراف على سلامة الدورة الكاملة للخوارزميات وتنفيذ متطلبات اللوائح القانونية في العملية الكاملة لتشغيل الذكاء الاصطناعي التوليدي. في بداية إعداد الخوارزمية، من الضروري اتباع القواعد القانونية والمعايير الفنية ذات الصلة، وتنفيذ المتطلبات المعيارية لـ "التعلم الآلي + التعليق التوضيحي اليدوي"، ومراجعة وحدات الخوارزمية المحفوفة بالمخاطر، واكتشاف المخاطر التقنية بشكل أفضل في خوارزمية الذكاء الاصطناعي التوليدي النموذج عند اكتشافه، عندما يكون هناك تحيز خوارزمي فطري، يتم إجراء التصحيحات من داخل خوارزمية الذكاء الاصطناعي التوليدي وفقًا للمتطلبات القانونية لضمان إمكانية تشغيل الخوارزمية المعدلة بشكل طبيعي عندما تنشأ مشاكل بعد ذلك، وتكون إدارة إمكانية التتبع لخوارزمية الذكاء الاصطناعي تم تنفيذها لتحقيق الإسناد والتصحيح الدقيق. تعزيز وتحسين معايير الإشراف الخوارزمي للذكاء الاصطناعي التوليدي، وملء أوجه القصور في المراجعة الوقائية المسبقة، واستخدام الوسائل التقنية والقانونية بالتوازي لتحقيق التركيز المتساوي على التطوير والإدارة.
في مرحلة توليد الذكاء الاصطناعي التوليدي، هناك مخاطر مختلفة مثل مخاطر الملكية الفكرية المتعلقة بالمنتجات المولدة ومخاطر سوء استخدام المنتجات المولدة. نظرًا لأن الذكاء الاصطناعي التوليدي ذكي للغاية، فيمكنه تحقيق التجميع التلقائي للمحتوى، والتلميع الذكي، والتحويل متعدد الوسائط، والتوليد الإبداعي، وتغيير طريقة الإنتاج ونموذج العرض للمحتوى بشكل مباشر، مقارنة بأنظمة الذكاء الاصطناعي السابقة، وقد حدثت تغييرات تخريبية أدى ذلك إلى قضايا مثل ملكية حقوق الملكية الفكرية وحماية الملكية الفكرية للمنتجات المولدة من الذكاء الاصطناعي التوليدي. يعتقد بعض الناس أن منتجات الذكاء الاصطناعي التوليدي هي استنتاجات خوارزميات البيانات، وهي في الأساس حسابات وتقليد، وليست عملاً فكريًا، ولا يمكن أن تصبح موضوعًا لحقوق الملكية الفكرية. ويعتقد المعارضون أن الذكاء الاصطناعي التوليدي يحاكي بنية الشبكات العصبية في الدماغ البشري للحصول على البيانات وإخراجها، ويتحكم في تصميمه وتصنيعه من خلال الشبكات العصبية التلافيفية، ويجب حماية منتجاته الأصلية والمبتكرة بموجب قوانين الملكية الفكرية. وفي الوقت نفسه، يزيد الذكاء الاصطناعي التوليدي أيضًا من مخاطر نزاعات الملكية الفكرية وصعوبة الحماية، وقد تحتوي بعض المنتجات المولدة على محتوى ينتهك حقوق الملكية الفكرية للآخرين، أو قد يتم تجميعها في أعمال أصلية مع حقوق ملكية فكرية كاملة. من خلال المعالجة وغيرها من الوسائل، مما يثير نزاعات حقوق الملكية الفكرية ذات الصلة. ومن أجل حل القضايا ذات الصلة في الوقت المناسب، ينبغي تحليل النماذج التقنية والمبادئ التقنية للذكاء الاصطناعي التوليدي بشكل موضوعي وفقًا لمعايير قانون الملكية الفكرية إذا كانت التكنولوجيا تتطلب تدخل الإرادة البشرية لتمكين المنتجات المولدة لإنتاج الأصالة والابتكار، ينبغي منح حقوق الملكية الفكرية وتوضيح ملكيتها وتعزيز الحماية المنهجية لحقوق الملكية الفكرية في مجال الذكاء الاصطناعي التوليدي، وفي الوقت نفسه، من الضروري تحديد نطاق حماية الفكري الناتج بشكل معقول؛ حقوق الملكية لتجنب التوسع غير المحدود في نطاق الحماية وإعاقة تعزيز وتطبيق وتطوير الذكاء الاصطناعي التوليدي. ومن الضروري أيضًا تعزيز إدارة مخاطر إساءة استخدام المنتجات. على سبيل المثال، يتعين على الأعمال أن تحدد بوضوح دور الذكاء الاصطناعي التوليدي في إبداع المؤلف، وسيتم تعزيز الإشراف الدقيق والمطبيع على التزوير العميق وتغيير الوجه بالذكاء الاصطناعي وغيرها من المنتجات التي قد تنطوي على جرائم غير قانونية، وما إلى ذلك.
للذكاء الاصطناعي التوليدي العديد من التأثيرات المنتشرة في التطبيقات الاجتماعية، بالإضافة إلى المخاطر المذكورة أعلاه، هناك العديد من أنواع المخاطر الأخرى، مثل تفاقم عدم تناسق المعلومات، وتوسيع الفجوة الرقمية، والإضرار بمصالح الفئات المحرومة رقمياً. ويجب أن تتم الاستجابات على أساس الظروف الفعلية لتقليل التأثير السلبي للتكنولوجيات الجديدة على التنمية الاجتماعية.
وشدد الأمين العام شي جين بينغ على: "الالتزام بالحكمة الموجهة نحو الناس من أجل الخير". في الوقت الحاضر، تتغير تكنولوجيا الذكاء الاصطناعي مع مرور كل يوم، الأمر الذي لا يغير فقط إنتاج الناس وأسلوب حياتهم بشكل عميق، ويسرع عملية التنمية الاقتصادية والاجتماعية، ولكن له أيضًا تأثير على القواعد القانونية والأخلاق الأخلاقية والحوكمة العامة، وما إلى ذلك. ومن بينها، تعتبر التهديدات التي تتعرض لها الخصوصية وأمن المعلومات الشخصية من القضايا المهمة التي تستحق الاهتمام. اتخذ "قرار" الجلسة العامة الثالثة للجنة المركزية العشرين للحزب الشيوعي الصيني ترتيبات مهمة من أجل "إنشاء نظام مراقبة سلامة الذكاء الاصطناعي". وتعد حماية حقوق الخصوصية وأمن المعلومات الشخصية جزءًا لا يتجزأ من الإشراف على سلامة الذكاء الاصطناعي . يجب تعزيز حماية الخصوصية في عصر الذكاء الاصطناعي لضمان أمن المعلومات الشخصية.
في عصر الذكاء الاصطناعي، تواجه حقوق الخصوصية تحديات شديدة. تشير الخصوصية إلى الحياة الخاصة للشخص الطبيعي ومساحة خاصة، وأنشطته الخاصة، والمعلومات الخاصة التي لا يريد أن يعرفها الآخرون. ينص القانون المدني على ما يلي: "يتمتع الأشخاص الطبيعيون بالحق في الخصوصية. ولا يجوز لأي منظمة أو فرد التعدي على حقوق خصوصية الآخرين عن طريق التجسس أو التطفل أو التسريب أو الكشف، وما إلى ذلك. الحق في الخصوصية، كعنصر أساسي من عناصر هذا الحق." حقوق الشخصية، أساس مهم لبناء الكرامة الشخصية. عدم الإفصاح وعدم المعرفة هما المطلبان الأساسيان لحقوق الخصوصية. في الوقت الحاضر، يشارك الذكاء الاصطناعي بهدوء في جميع جوانب وجوانب إنتاج الناس وحياتهم، مما يؤدي إلى العديد من سيناريوهات التطبيق مثل الرعاية الطبية الذكية، والنقل الذكي، والتوصيات الذكية، ولا يمكن تجاهل بعض العيوب في التكنولوجيا نفسها والقواعد غير الكاملة. تجنب قضايا انتهاك الخصوصية. على سبيل المثال، جمع المعلومات الشخصية واستخدامها بشكل غير قانوني، واستخدام هذه المعلومات الشخصية وتحليلها لدفع ما يسمى "الإعلانات الدقيقة" "الشخصية" بشكل متكرر، وتسريب المعلومات الشخصية إلى أطراف ثالثة، مما يتسبب في غزو الحياة الخاصة بشكل متكرر عن طريق استخدام المعلومات الشخصية غير المرغوب فيها المعلومات لإجراء "بيانات ضخمة" "اقتل الأشخاص المألوفين" لتحقيق تمييز دقيق في الأسعار على أساس "عميل واحد، سعر واحد"، مما يتسبب في معاناة المواطنين من خسائر في الممتلكات، وإعادة تحديد المعلومات الشخصية غير الحساسة، مما يؤدي إلى تسرب البيانات بسبب تدابير الحماية غير المناسبة ، ويعد شراء وبيع المعلومات الشخصية أمرًا شائعًا، مما ينتهك أمن المعلومات الشخصية، واستخدام المعلومات الشخصية لتنفيذ عمليات تزوير عميقة، واستخدام محاكاة الصوت، وتغيير الوجه بالذكاء الاصطناعي وغيرها من الوسائل لارتكاب عمليات احتيال وغيرها من الأعمال غير القانونية والإجرامية. ؛وهلم جرا. وهذا يدل على أن انتهاك حقوق الخصوصية لا ينتهك الكرامة الشخصية للمواطنين فحسب، بل يسبب أيضًا عواقب اجتماعية خطيرة أخرى.
تؤدي الميزات التقنية للحرمان من الخصخصة إلى تفاقم مخاطر أمن المعلومات الشخصية. في بداية تطبيق الذكاء الاصطناعي المبني على البيانات الضخمة، نظر الكثير من الناس إلى هذه التكنولوجيا الجديدة بنظرة الانتظار والترقب والتشكيك. مع استمرار الذكاء الاصطناعي في تحسين تجربة المنتج والمشاعر النفسية للمستخدمين من خلال الأشكال الخارجية المجسمة، وتوفير الخدمات الشخصية، والعمليات التفاعلية الغامرة، أصبح المزيد والمزيد من الأشخاص تدريجيًا مستخدمين مخلصين للذكاء الاصطناعي ويستمتعون بجميع أنواع وسائل الراحة التي يجلبها الذكاء الاصطناعي أنت. مع تعميم تكنولوجيا إنترنت الأشياء للتفاعل بين الإنسان والحاسوب والربط البيني لكل الأشياء، تتوسع باستمرار سيناريوهات تطبيقات الذكاء الاصطناعي مثل المنازل الذكية والمكاتب الذكية والمصانع الذكية والقيادة الذكية الفضاء الرقمي في شكل بشر رقميين، وكذلك نقل المعلومات الشخصية إلى الذكاء الاصطناعي دون قصد. تتم رقمنة أي آثار يتركها الأفراد في الفضاء الرقمي لتشكل معلومات شخصية وتلعب وظيفة مهمة باعتبارها "وسيلة للتواصل مع العالم" للناس. وفي الوقت نفسه، يميل الذكاء الاصطناعي أيضًا إلى جمع واستخدام المعلومات الشخصية بشكل مفرط من أجل تحسين جودة الخدمة. كل هذا يجعل الذكاء الاصطناعي يتمتع بخصائص تقنية مميزة للخصخصة. كما أنه في تدفق المعلومات الشخصية التي اعتاد عليها مستخدمو الذكاء الاصطناعي، يتم استخراج البيانات الضخمة الممزوجة بالبيانات العامة والبيانات الخاصة ودمجها وتحليلها واستخدامها. ومن الصعب على الناس اكتشاف تلك الخصوصية بحواسهم تم انتهاك الحقوق وتم انتهاك المعلومات الشخصية.
احترام الخيارات الفردية والإصرار على الموافقة المستنيرة. تختلف مستويات قبول الأشخاص المختلفين للمعلومات الشخصية التي يتم معرفتها واستخدامها، ويجب احترام الرغبات الفردية ويجب تنفيذ مبدأ "الموافقة المستنيرة" بطريقة علمية وعقلانية. يتضمن مبدأ الموافقة المستنيرة جانبين: الموافقة المستنيرة والموافقة يجب أن تكون مستنيرة وبدون المعرفة والفهم الكاملين، لا يمكن أن تكون هناك موافقة حقيقية. المعلومات والتفاهم والطوعية هي العناصر الثلاثة لمبدأ الموافقة المستنيرة. وعلى أساس "الإطلاع الكامل"، يستطيع الأفراد التعبير بشكل مستقل عن "موافقتهم". ويتطلب ذلك توفير تعليمات سهلة الفهم وواضحة عند استخدام المستخدمين للذكاء الاصطناعي، والحصول على موافقة المستخدمين على جمع واستخدام المعلومات الشخصية. إذا كانت المعلومات الشخصية ستتدفق بين منصات مختلفة، فيجب إعلام المستخدمين بنطاق التدفق وهدفه وحدود استخدامه. للحصول على تجربة مستخدم جيدة وسلسة، يمكن أيضًا منح المستخدمين خيار التفويض دفعة واحدة أو على مراحل. يجب إبلاغ المستخدمين بنطاق وطريقة والغرض من جمع المعلومات الشخصية ومع من تتم مشاركة المعلومات الشخصية، ويجب أن يكون المستخدمون أيضًا قادرين على إلغاء الاشتراك في أي وقت. عند تحليل المعلومات الشخصية، يجب مطالبة المستخدمين بالانتباه والترخيص في الوقت الفعلي من خلال النوافذ المنبثقة أو النماذج الأخرى. يعد تحديد دورة حياة البيانات وحذف المعلومات الشخصية في الوقت المحدد من الطرق الفعالة أيضًا لحماية أمان المعلومات الشخصية.
تحسين الوسائل التقنية لضمان الاستخبارات من أجل الخير. بالنسبة للمشكلات التي تسببها التكنولوجيا، يجب أن نجيد إنشاء أفكار لحل المشكلات من منظور تقني. في عصر الذكاء الاصطناعي، تواجه حقوق الخصوصية تحديات، والسبب المباشر هو تطور التكنولوجيا. من الذكاء الاصطناعي التحليلي إلى الذكاء الاصطناعي التوليدي، قد تؤدي كل ترقية متكررة لتكنولوجيا الذكاء الاصطناعي إلى تأثيرات جديدة على حقوق الخصوصية. لذلك، يجب وضع الحلول التقنية في موقع رئيسي، ويجب إنشاء جدران الحماية التي تحمي حقوق الخصوصية وأمن المعلومات الشخصية من خلال تحسين أمان قواعد البيانات وتشفير البيانات الأساسية وإزالة حساسية البيانات الشخصية وغيرها من التقنيات. تمر المعلومات الشخصية عمومًا عبر ثلاث مراحل من الجمع والتخزين والاستخدام، وقد تنطوي هذه المراحل الثلاث على مخاطر انتهاك حقوق الخصوصية وأمن المعلومات الشخصية. يجب أن يتم تنفيذ الحماية التقنية الفعالة وفقًا للمواقف المختلفة للمعلومات الشخصية في المراحل المختلفة. في مرحلة جمع المعلومات الشخصية، تعزيز تعزيز وتطبيق تكنولوجيا إخفاء الهوية. على الرغم من أن جمع المعلومات الشخصية أمر لا مفر منه، طالما أنها مجهولة المصدر ولا تتطابق مع المعلومات الشخصية مع الهوية، فلن يتم انتهاك الحق في الخصوصية. في مرحلة تخزين المعلومات الشخصية، يجب تحسين تكنولوجيا التشفير. حاليًا، هناك طريقتان رئيسيتان لتخزين البيانات: تخزين قاعدة البيانات والتخزين السحابي. يعد التطفل والسرقة الخارجية والعرض والاستخدام والتسريب غير المصرح به من قبل المطلعين من التهديدات الرئيسية لأمن المعلومات الشخصية أثناء مرحلة التخزين. ومن الضروري تعزيز تشفير البيانات والسيطرة الصارمة على حقوق الوصول إلى البيانات. خلال مرحلة استخدام المعلومات الشخصية، من الضروري تقنيًا تعزيز التدخل في الوقت الفعلي والتدخل وحظر الاستخدامات غير القانونية للمعلومات الشخصية، وذلك لإضافة طبقة إضافية من الحماية لحقوق الخصوصية وأمن المعلومات الشخصية.
مع تزايد كمال القواعد القانونية في بلدي واستمرار تعزيز الحماية، وخاصة القانون المدني وقانون حماية المعلومات الشخصية، اللذين يتضمنان أحكامًا مفصلة بشأن حقوق الخصوصية وحماية المعلومات الشخصية، مما يوضح حدود الحقوق والالتزامات في أنشطة معالجة المعلومات الشخصية يا بلدي في عصر الذكاء الاصطناعي، ستصل الحماية القانونية لحقوق الخصوصية وأمن المعلومات الشخصية بالتأكيد إلى مستوى أعلى، مما يوفر حماية قانونية قوية للتنمية الصحية للذكاء الاصطناعي وإفادة الناس بشكل أفضل.
إن ازدهار العلوم والتكنولوجيا سيجعل الأمة تزدهر، والعلم والتكنولوجيا القويان سيجعلان البلاد قوية. منذ المؤتمر الوطني الثامن عشر للحزب الشيوعي الصيني، أولت بلادي أهمية كبيرة لتطوير الذكاء الاصطناعي، وعززت بنشاط التكامل العميق للإنترنت والبيانات الضخمة والذكاء الاصطناعي والاقتصاد الحقيقي، وعززت الصناعات الذكية ووسعتها، وسرعت تنمية قوى إنتاجية جديدة، ووفرت زخما جديدا للتنمية عالية الجودة. وأشار الأمين العام شي جين بينغ: "يجب علينا الالتزام بوحدة تعزيز التنمية والإدارة وفقًا للقانون، وليس فقط العمل بقوة على تنمية التكنولوجيات الجديدة والتطبيقات الجديدة مثل الذكاء الاصطناعي وإنترنت الأشياء وشبكات اتصالات الجيل التالي، ولكن أيضًا كما تستخدم بنشاط القوانين واللوائح والمعايير لتوجيه تطبيق التقنيات الجديدة. "يوفر المعرض المهم الذي قدمه شي جين بينغ الأمين العام الامتثال الأساسي والتوجيه العملي لتطوير الذكاء الاصطناعي في بلدنا. من أجل تطوير الذكاء الاصطناعي بقوة وتحسين مستوى حوكمة سلامة الذكاء الاصطناعي، يجب علينا التنفيذ الكامل للنشر المهم لـ "إنشاء نظام مراقبة سلامة الذكاء الاصطناعي" الذي اقترحه "قرار" الجلسة العامة الثالثة للجنة المركزية العشرين للجنة المركزية للحزب الشيوعي الصيني. الحزب الشيوعي الصيني، وفهم دقيق لاتجاهات تطور الذكاء الاصطناعي، مع التركيز على تكنولوجيا الذكاء الاصطناعي المتطورة والمخاطر والتحديات التي تجلبها، وتعزيز التفكير التطلعي، واستكشاف الحلول المبتكرة باستمرار لحوكمة الذكاء الاصطناعي.
حاليًا، أنشأ الذكاء الاصطناعي التوليدي نموذجًا جديدًا للتفاعل بين الإنسان والحاسوب، بفضل قدراته القوية على التفاعل والفهم والتوليد، فقد طور نموذجًا للغة الطبيعية واسع النطاق باعتباره المكون الأساسي، الذي يدمج الذاكرة والتخطيط واستخدام الأدوات، مع. القدرة على الإدراك والتصرف تفتح قدرات العوامل الاصطناعية آفاقًا واسعة. أصبح الذكاء الاصطناعي أهم اتجاه بحثي متطور في مجال الذكاء الاصطناعي العام ومسارًا جديدًا تتنافس شركات التكنولوجيا على وضعه. يستخدم نموذجًا كبيرًا للغة الطبيعية باعتباره "محركًا ذكيًا" ويتميز بخصائص الاستقلالية والقدرة على التكيف والتفاعل، ويمكنه تحسين كفاءة الإنتاج بشكل كبير، وتعزيز تجربة المستخدم، وتوفير دعم القرار بما يتجاوز القدرات البشرية، ويمكن تطبيقه على تطوير البرمجيات و البحث العلمي وسيناريوهات الحياة الواقعية الأخرى. على الرغم من أن التسويق التجاري على نطاق واسع لا يزال في مرحلة الاستكشاف والاحتضان الأولية، فإن اتجاهات مثل التكامل الافتراضي والحقيقي والتفاعل المتعمق بين الإنسان والحاسوب الذي يمثله الذكاء الاصطناعي لها أهمية توجيهية مهمة للتنمية الاقتصادية والاجتماعية. ومع ذلك، وبسبب القيود التقنية، قد تسبب العوامل الاصطناعية أيضًا مخاطر ومخاوف معقدة وديناميكية وغير متوقعة.
من وجهة نظر منطق التصميم، يحتاج الذكاء الاصطناعي إلى الحصول على القدرات المعرفية من خلال الطرف التحكمي، والحصول على المعلومات من البيئة المحيطة واستخدامها من خلال الطرف الاستشعاري، وفي النهاية يصبح نظامًا ذكيًا يدرك ويتصرف بناءً على الكيانات المادية في الفعل. نهاية.
ومن ناحية التحكم، يعمل نموذج اللغة الطبيعية واسع النطاق بمثابة "عقل" الجسم الاصطناعي، فهو يشكل المعرفة من خلال تعلم البيانات الضخمة ويشكل وحدة الذاكرة في نظام التحكم في الجسم الاصطناعي. ومع ذلك، هناك مخاطر في الموثوقية ودقة المحتوى الذي تم إنشاؤه. على سبيل المثال، قد لا يتبع المحتوى الناتج عن النموذج مصدر المعلومات أو لا يتوافق مع الوضع الفعلي للعالم الحقيقي، مما يؤدي إلى ما يسمى "الهلوسة الآلية" بسبب التحيز البشري في بيانات التدريب، وقد يؤثر ذلك على اتخاذ القرارات العادلة في مجال الذكاء الاصطناعي وما إلى ذلك.
على الجانب الإدراكي، من أجل الفهم الكامل للمعلومات الصريحة والضمنية في مواقف محددة وإدراك النوايا البشرية بدقة، يقوم عملاء الذكاء الاصطناعي بتوسيع نطاق الإدراك من النص النقي إلى المجالات متعددة الوسائط بما في ذلك الأوضاع النصية والمرئية والسمعية. على الرغم من أن هذا يعمل على تحسين قدرات اتخاذ القرار، إلا أنه قد يتسبب في سلسلة من تسربات الخصوصية ومخاطر أمان البيانات عند دمج وتحليل البيانات متعددة المصادر من قنوات وأنواع مختلفة. على سبيل المثال، يمكن أن يؤدي الاستخدام غير السليم للبيانات البيومترية الدائمة والشخصية للغاية ومشاركتها مثل معلومات الوجه وبصمات الأصابع وبصمات الصوت إلى مخاطر خصوصية طويلة المدى أو حتى دائمة. من أجل التعامل بشكل أفضل مع المهام المعقدة، ستصبح الأنظمة متعددة الوكلاء التي تنشر عوامل اصطناعية متعددة للتخطيط والتعاون وحتى التنافس لإكمال أداء المهام وتحسينه، سائدة وطبيعية. قد يتسبب تفاعل النظام بين عوامل اصطناعية متعددة في حدوث مخاطر أمنية نظامية غير متوقعة. حتى لو بدت كل خوارزمية آمنة ومعقولة عند العمل بمفردها، فإن الجمع والتفاعل قد يؤديان إلى مخاطر مختلفة تمامًا وغير متوقعة يمكن أن تتطور وتتصاعد بسرعة. على سبيل المثال، في سوق الأوراق المالية، إذا تم استخدام الذكاء الاصطناعي على نطاق واسع وكانت الخوارزميات المتعددة تحدد تلقائيًا التغيرات الصغيرة في أسعار الأسهم وتنفذ في الوقت نفسه عددًا كبيرًا من المعاملات عالية التردد للمراجحة، فقد يؤدي ذلك إلى وقوع حادث أمني نظامي مثل الانهيار المفاجئ في سوق الأوراق المالية.
على الجانب المتحرك، من المرجح أن يتم عرض العوامل الاصطناعية المنتشرة في بيئات مادية حقيقية في صورة أكثر ثلاثية الأبعاد ومجسمة. يختلف الفضاء الحقيقي عن الفضاء الافتراضي، ويعتمد على أساليب التعلم التفاعلية، ويحتاج عملاء الذكاء الاصطناعي إلى إدراك معلومات غني وشامل للمراقبة والتعلم والتصرف، من خلال قدرات تحسين التعلم القائم على ردود الفعل، وقد يشكل ذلك نهجًا شاملاً ومتطفلاً للخصوصية الشخصية مخاطر الجنس والإخفاء. على سبيل المثال، قد يؤدي تفسير لغة جسد المستخدمين واستشعار أنشطة المستخدم الأكثر تعقيدًا، والاستمرار في جمع البيانات سرًا دون إذن المستخدم، إلى مخاطر أمنية كبيرة على البيانات بمجرد وجود ثغرة أمنية في النظام. بالإضافة إلى ذلك، مع استمرار تزايد استقلالية الذكاء الاصطناعي، فإنه قد لا يتداخل مع الإدراك البشري والعواطف ويؤثر عليها فحسب، بل قد يتحدى أيضًا قدرات البشر ومكانتهم كصانعي قرار مستقلين وجهات فاعلة مستقلة. على سبيل المثال، تنتج بعض برامج الدردشة الآلية مخرجات تؤثر على مشاعر المستخدمين أثناء التفاعلات معهم، وأحيانًا بطريقة سلبية وتلاعبية.
في مواجهة المخاطر والتحديات التي يجلبها عملاء الذكاء الاصطناعي، ومن أجل جعل سلوك العملاء الاصطناعيين متوافقًا مع النوايا والقيم البشرية، من الضروري استكشاف حلول حوكمة مبتكرة لضمان فعالية نظام الإشراف على سلامة الذكاء الاصطناعي. يمر تطور الذكاء الاصطناعي بفترة حرجة "من صفر إلى واحد". وينبغي أن تتمتع خطة الحوكمة بالقدرة على البقاء دون تغيير استجابة للتغيرات المتغيرة باستمرار، مما يضمن أن يكون تطوير التكنولوجيا وتطبيقها دائمًا على مسار يمكن السيطرة عليه. لقد خضع تطوير وتدريب ونشر وتشغيل وخدمة عملاء الذكاء الاصطناعي لتقسيم متخصص للغاية للعمل، مما يشكل هيكلًا هرميًا معقدًا. ولكل طبقة مشاركين مختلفين وأصحاب مصلحة وعوامل خطر محتملة، مما يمنح كيانات الذكاء الاصطناعي خصائص السلسلة الصناعية "المعيارية". لذلك، يمكن إنشاء إطار حوكمة معياري يغطي سلسلة الصناعة بأكملها وكل طبقة نهائية، ويتم تصميم وحدات الحوكمة المقابلة بدءًا من العقد الرئيسية مثل وحدات البيانات ووحدات الخوارزمية وبنيات النماذج. على سبيل المثال، في عملية النشر، يمكن تحديد وحدات حوكمة مختلفة بمرونة ودمجها بشكل تعاوني وفقًا لخصائص سيناريو التطبيق ووضع النشر لبناء حل حوكمة مطابق. يوفر إطار الحوكمة المعياري طريقة تحليل قابلة للتشغيل، من خلال تحليل أهداف الحوكمة إلى وحدات حوكمة مستقلة نسبيًا ولكنها مقترنة، فهو يعزز تدريجيًا تشكيل نظام حوكمة، والذي لا يعمل على تحسين مرونة الحوكمة وملاءمتها فحسب، بل يعمل أيضًا على تحسين المرونة والملاءمة. ويمكنه أيضًا التكيف مع التكرارات السريعة للتكنولوجيا. عند بناء وحدات الحوكمة بناءً على أبعاد مثل البيانات والخوارزميات والنماذج والسيناريوهات، يجب استخدام التكنولوجيا لتمكين الإشراف وإنشاء أدوات حوكمة ذكية متوافقة مع إطار الحوكمة المعياري لكيانات الذكاء الاصطناعي، وبالتالي سد ديناميات المخاطر والتوتر. بين الإحصائيات التنظيمية يتيح الحكم الدقيق لسيناريوهات محددة عالية المخاطر.
من الضروري بناء نظام بيئي حوكمة تفاعلي لكيانات الذكاء الاصطناعي. عملاء الذكاء الاصطناعي تفاعليون للغاية، ومترابطون للغاية، وقابلون للتكيف ديناميكيًا. وبناء على ذلك، ينبغي لأساليب الحكم أن تتجاوز الحكم التقليدي الذي يركز على الفرد وأن تعزز تشكيل نظام بيئي للحكم يتسم بالترابط الواسع النطاق، والمشاركة المتعددة الأحزاب، والتعاون متعدد المستويات. ومن بينها، ستلعب المجتمعات التقنية مثل المطورين التقنيين وموظفي التشغيل والصيانة دورًا حيويًا في "المبلغين عن المخالفات" في إدارة كيانات الذكاء الاصطناعي. يجب استخدام المزايا الإشرافية للمجتمع التقني بشكل أفضل لبناء آلية ضبط فعالة داخل شركات الذكاء الاصطناعي. وينبغي لنا أيضًا أن نعمل بنشاط على تحسين المعرفة الرقمية لدى غالبية المستخدمين، وتعزيز وعيهم باستخدام الذكاء الاصطناعي بطريقة قانونية وآمنة ومسؤولة، وتحقيق تفاعل إيجابي مع الذكاء الاصطناعي، وتعزيز تشكيل حالة تشغيل تصاعدية وجيدة.