في مواجهة تقنية الذكاء الاصطناعى المتطورة بشكل متزايد ، أصبحت كيفية التمييز الفعال للأشخاص الحقيقيين عن روبوتات الذكاء الاصطناعي مشكلة ملحة. أصبحت قيود رموز التحقق التقليدية (CAPTCHA) واضحة بشكل متزايد ، ولهذا السبب ، اقترح الباحثون نظام التحقق الجديد يسمى "بيانات اعتماد الهوية الإنسانية" (PHC). تم اقتراح النظام من قبل فريق من العلماء من شركات Ivy League وشركات التكنولوجيا المعروفة لاستخدام تكنولوجيا التشفير للتحقق من هوية المستخدم ، وحماية خصوصية المستخدم ، واستبدال Captcha والتقنيات الحيوية الحالية. ومع ذلك ، يواجه هذا النظام أيضًا تحديات ومخاطر محتملة ، مثل إساءة استخدام بيانات الاعتماد وتركيز القوة ، والتي تتطلب دراسة متأنية ومزيد من البحث.
في الآونة الأخيرة ، مع التطور السريع لتكنولوجيا الذكاء الاصطناعي ، اقترح الباحثون فكرة مقنعة: لتأكيد بشكل أفضل أن المستخدمين على الإنترنت هم أناس حقيقيون بدلاً من روبوتات AI ، يجب استخدام "بيانات الاعتماد الشخصية". يضم فريق الأبحاث علماء من Ivy League و Openai و Microsoft والشركات الأخرى ، الذين اقترحوا المفهوم في ورقة راجعها النظراء.
إنهم يخشون أنه عندما تصبح الذكاء الاصطناعى أكثر شعبية ، ستستخدم الممثلون الخبيثون القدرات القوية لمنظمة العفو الدولية لغرس كمية كبيرة من المحتوى غير البشري في الشبكة. يمكن الآن إنشاء محتوى "يشبه الإنسان" وحتى إخفاء نفسه كبشر حقيقي للأنشطة عبر الإنترنت ، مما يجعل طرق التحقق التقليدية مثل Captcha تبدو غير فعالة بشكل متزايد. لذلك ، بدأت فكرة أنظمة الرعاية الصحية الأولية في اكتساب شعبية. يتصور الباحثون أن الحكومات أو الخدمات الرقمية الأخرى يمكن أن تصدر بيانات اعتماد هوية فريدة لكل مستخدم ، ويمكن للمستخدمين التحقق من أنهم أشخاص حقيقيون من خلال تقنية تشفير تسمى "دليل المعرفة صفري" دون الكشف عن معلومات محددة.
يتم تخزين بيانات الاعتماد رقميًا من قبل المستخدم على جهازه الشخصي ، وبالتالي حماية عدم الكشف عن هويته عبر الإنترنت إلى حد ما. لا يمكن لهذا النظام استبدال تقنيات Captcha والبيومترية الحالية فحسب ، بل قد يحسن فعالية التحقق من الإنسان. ومع ذلك ، أدرك الباحثون أيضًا أن نظام PHC لا يخلو من عيوبه. على سبيل المثال ، قد يبيع الكثير من الأشخاص PHCs الخاصة بهم إلى مرسلي البريد العشوائي من الذكاء الاصطناعي ، مما قد يسهم بدوره في تكاثر محتوى البريد العشوائي عبر الإنترنت. في الوقت نفسه ، فإن مركزية مؤسسات إصدار الشهادات يقلق أيضًا ، مما قد يؤدي إلى قوة قوية بشكل مفرط تتركز في أيدي عدد قليل من الشركات.
بالإضافة إلى ذلك ، بالنسبة لبعض المستخدمين الذين لا يتقنون الإنترنت ، مثل كبار السن ، قد يتسبب نظام بيانات الاعتماد في الاستخدام. لذلك ، يقترح الباحثون أن الحكومة يجب أن تفكر في اختبار جدوى PHC من خلال المشاريع التجريبية. ولكن المشكلة هي أن أنظمة PHC ستضع بلا شك أعباء رقمية جديدة على المستخدمين ، والسبب الجذري لهذه المشكلات هو شركات التكنولوجيا. يشير الباحثون إلى أن شركات التكنولوجيا يجب أن تتحمل مسؤولية حل المشكلات ، مثل وضع العلامات المائية المحتوى الناتج عن الذكاء الاصطناعي ، أو التقنيات النامية التي يمكنها تحديد المحتوى الناتج عن الذكاء الاصطناعى. على الرغم من أن هذه التدابير ليست مضمونة ، إلا أنها على الأقل تعيد مسؤولية مصدر التكنولوجيا.
النقاط الرئيسية:
اقترح الباحثون نظام "بيانات اعتماد الهوية الإنسانية" ، المصمم لاستبدال التحقق التقليدي Captcha للتأكد من أن المستخدمين عبر الإنترنت هم أشخاص حقيقيون.
تستخدم أنظمة PHC تقنية التشفير لحماية خصوصية المستخدم ، ولكن يمكن أن تؤدي إلى إساءة استخدام بيانات الاعتماد ومركزية القوة.
يجب أن تكون شركات التكنولوجيا مسؤولة عن المشكلات الناجمة عن الذكاء الاصطناعي والنظر في وضع العلامات المائية وتحديد المحتوى الناتج عن الذكاء الاصطناعي.
باختصار ، يوفر اقتراح نظام PHC فكرة جديدة لحل مشكلة التحقق من الهوية عبر الإنترنت ، لكن جدواه وأمنه لا يزالان بحاجة إلى مزيد من الدراسة والتحسين. تحتاج شركات التكنولوجيا إلى تحمل المسؤولية بنشاط واستكشاف حلول أكثر أمانًا وأكثر ملاءمة لمواجهة التحديات التي تثيرها تكنولوجيا الذكاء الاصطناعي. في المستقبل ، تستحق آفاق تطبيق أنظمة PHC التطلع إليها ، ولكن في الوقت نفسه ، يجب أن يتم الترويج لها بعناية لتجنب المخاطر المحتملة.