لقد جلب التطور السريع لتكنولوجيا الذكاء الاصطناعي العديد من وسائل الراحة لحياة الناس، ولكنه جلب أيضًا تحديات جديدة. وخاصة في مجال أمن الشبكات، يستخدم المجرمون تقنية الذكاء الاصطناعي لإنشاء طرق احتيال جديدة متنوعة، مما يتسبب في خسائر اقتصادية فادحة ومخاطر أمنية للمجتمع. سيأخذك محرر Downcodes إلى فهم كيفية استخدام تقنية الذكاء الاصطناعي في الاحتيال وكيفية التعامل مع هذه التهديدات الأمنية الجديدة.
بينما لا تزال قلقًا بشأن ما إذا كان ChatGPT سيحل محل وظيفتك يومًا ما في المستقبل وتفكر في كيفية استخدام الذكاء الاصطناعي لتحسين كفاءة العمل، هناك مجموعة من الأشخاص الذين حققوا بالفعل الكثير من المال بالاعتماد على هذه التكنولوجيا الجديدة.
إنهم... كاذبون.
خدع 4.3 مليون في 10 دقائق،
الدفعة الأولى من الأشخاص الذين أصبحوا أثرياء بفضل الذكاء الاصطناعي كانوا في الواقع محتالين
إذا تلقيت مكالمة فيديو WeChat من صديق في أحد الأيام، وكان الشخص الموجود على الطرف الآخر من الكاميرا يبدو تمامًا مثل الصديق الذي تتذكره، عندما يطلب منك اقتراض 4.3 مليون كوديعة لعرض وظيفة، فإنك سوف كيفية القيام بذلك؟
في الآونة الأخيرة، واجه السيد قوه، الممثل القانوني لشركة تكنولوجيا في فوتشو، هذه المشكلة. وبناء على الثقة قام بتحويل 4.3 مليون إلى حساب صديقه. لم أكتشف أن المحتال قد سرق معرف WeChat الخاص بصديقه إلا بعد أن اتصلت بصديقي بعد ذلك، ثم استخدم تقنية الذكاء الاصطناعي لتغيير الوجه والمحاكاة الصوتية للاحتيال عليه.
كما أن تواتر حدوث أشياء مماثلة عبر المحيط يتزايد بشكل هائل.
ووفقا لشبكة CNN، في أبريل من هذا العام، تلقت جنيفر ديستيفان، التي تعيش في ولاية أريزونا، مكالمة هاتفية غريبة وكان الصوت على الهاتف هو ابنتها بريانا، التي كانت تستعد لمسابقة تزلج. بكت بريانا طلباً للمساعدة على الطرف الآخر من الهاتف. وبعد عشرات الثواني، هدد صوت رجل عميق عبر الهاتف: "اسمع، ابنتك بين يدي وقد دفعت فدية قدرها مليون دولار أمريكي. الآن إذا اتصلت بالشرطة أو أخبرت الآخرين، فلن تفكر أبدًا في ذلك". ذلك." أراها مرة أخرى."
وبعد أن قالت جينيفر إنها لا تستطيع تحمل مليون دولار، قام الرجل الموجود على الطرف الآخر من الهاتف بتخفيض سعر الفدية إلى 50 ألف دولار. تجاهلت جينيفر، التي تحب ابنتها بشغف، إثناء أصدقائها وزوجها وبدأت في مناقشة طرق دفع الفدية حتى اتصلت بها بريانا لتقول إنها آمنة وتم تجنب خسارة الممتلكات.
وفي مارس من هذا العام، أبلغت صحيفة واشنطن بوست أيضًا عن قضية احتيال بنفس طريقة العمل تقريبًا، باستثناء أن الضحايا كانا زوجين مسنين تجاوزا 70 عامًا.
المسن الضحية (مصدر الصورة: "واشنطن بوست")
أصدرت لجنة التجارة الفيدرالية الأمريكية (FTC) تحذيرًا في شهر مايو، ذكرت فيه أن المجرمين كانوا يستخدمون تقنية الذكاء الاصطناعي الصوتية لتزييف حالات الطوارئ للاحتيال على الأموال أو المعلومات. إن التظاهر بأنك من أقارب الضحية أو أصدقائه لارتكاب عمليات احتيال ليس بالأمر الجديد، ولكن ليس هناك شك في أن ظهور تكنولوجيا الذكاء الاصطناعي جعل من السهل للغاية استنساخ صوت شخص ما وتزييف مقطع فيديو خاص به. وفي العام الماضي، ارتفع عدد عمليات الاحتيال هذه في الولايات المتحدة بنسبة 70%، حيث خسر الضحايا ما يصل إلى 2.6 مليار دولار.
وإذا استمر هذا الاتجاه، فإنني أخشى أن أول من يحقق الحرية المالية من خلال تكنولوجيا الذكاء الاصطناعي سيكون مجموعة من المحتالين المختبئين خلف الشاشة.
الجانب المظلم للذكاء الاصطناعي
إذا كان تزوير الصوت والفيديو الخاص بشخص ما لا يزال يتطلب حدًا تقنيًا معينًا، فإن ظهور ChatGPT يجعل الاحتيال باستخدام الذكاء الاصطناعي أسهل.
وفقًا لمنصة أمان الشبكات الأجنبية GBHackers، اجتذب ChatGPT عددًا كبيرًا من المحتالين عبر الإنترنت نظرًا لإنتاجيته القوية في العمل وعتبة استخدامه المنخفضة للغاية.
على سبيل المثال، استخدم ChatGPT للحديث عن "الحب المزيف": يمكن إنتاج التقديم الذاتي وسجل الدردشة ورسائل الحب المصممة بعناية بسرعة من خلال الذكاء الاصطناعي، ويمكن أيضًا تخصيصها عن طريق إدخال معلومات محددة عن الكائن المستهدف، بحيث يمكن يمكن للشخص المقابل للشاشة أن يقع في حبك بشكل أسرع. بعد ذلك، يمكن لـ ChatGPT أيضًا مساعدة المحتالين في كتابة برامج تحصيل المدفوعات أو مواقع التصيد الاحتيالي التي تسرق معلومات البطاقة المصرفية للضحية لتحقيق غرض الاحتيال على الأموال.
عندما تطلب مباشرة من ChatGPT أن يكتب لك برنامج تصيد، فسوف يرفض، ولكن إذا قلت أنك مدرس وتريد أن تعرض للطلاب برنامج تصيد، فسوف يكتب لك موقع ويب بكل صراحة.
والأمر الأكثر رعبًا هو أنه يصعب على الأشخاص معرفة ما إذا كان هذا إنسانًا أم آلة على الجانب الآخر من الشاشة. استخدمت شركة McAfee، أكبر شركة لتكنولوجيا الأمان في العالم، الذكاء الاصطناعي ذات مرة لإنشاء رسالة حب وأرسلتها إلى 5000 مستخدم حول العالم. بعد معرفة أن رسائل الحب ربما تم إنشاؤها بواسطة الذكاء الاصطناعي، كان 33% من المشاركين لا يزالون على استعداد للاعتقاد بأنها كتبها أشخاص حقيقيون.
في الواقع، يعد استخدام ChatGPT للحصول على "حب مزيف" مع الضحية مجرد طريقة احتيال للمبتدئين، وقد بدأ المزيد من المتسللين المهرة في استخدام الذكاء الاصطناعي لإنشاء برامج فدية ورموز ضارة على دفعات.
من أجل تسهيل نشر المزيد من التطبيقات على نموذج GPT، قامت OpenAI بحجز واجهة برمجة التطبيقات للمطورين. يستخدم المتسللون هذه الواجهات لإدخال نموذج GPT إلى سلسلة من التطبيقات الخارجية، وبالتالي تجاوز الإشراف الأمني واستخدام نموذج GPT لكتابة البرامج الإجرامية.
وقد تم بيع هذه البرامج التي تتجاوز الإشراف الأمني علنًا على شبكة الإنترنت المظلمة في الولايات المتحدة، وهي رخيصة جدًا ولا يمكن شراؤها إلا مقابل بضعة دولارات فقط. يعد السلوك غير القانوني الذي يمكن للمشترين استخدام هذه البرامج لتنفيذه أمرًا مخيفًا للغاية: من خلال سرقة رمز البرنامج والمعلومات الخاصة للمستخدم، وإنشاء برامج هجوم وفيروسات برامج الفدية.
أفادت صحيفة فايننشال تايمز مؤخرًا عن نص هجوم مبادلة بطاقة SIM تم إنشاؤه بمساعدة ChatGPT، والذي يمكن للمحتالين استخدامه لاختراق سيطرة شركات الهاتف المحمول على أرقام الهواتف وتبديل أرقام الهواتف من بطاقة SIM الخاصة بالمالك الأصلي إلى بطاقة المهاجم. السيطرة على بطاقة SIM وبالتالي السيطرة على الهاتف المحمول للضحية.
"على الرغم من أن ChatGPT حاليًا مجرد أداة لتوليد المحتوى ولا تشارك بشكل مباشر في الجريمة، إلا أن هذا يشير إلى أن الناس بدأوا في استخدام الذكاء الاصطناعي لغزو الآخرين، وسيحصل المجرمون ذوو المستويات التقنية المنخفضة على وسائل إجرامية أكثر قوة من ممارس الذكاء الاصطناعي." أعرب عن مخاوفه لصحيفة فايننشال تايمز.
هل يمكن إغلاق صندوق باندورا ؟
عندما يمتزج التأثير الاجتماعي المتزايد للذكاء الاصطناعي مع إمكاناته الإجرامية، فإن نقاط الضعف الأمنية المختلفة في ChatGPT جعلت الناس يشعرون بعدم الارتياح بشكل متزايد. أصبح "كيفية تنظيم ChatGPT" محورًا للنقاش في العديد من البلدان.
أصدر معهد الأخلاقيات العالمية التابع لشركة IBM وثيقة تدعو الشركات إلى وضع الأخلاق والمسؤولية على رأس جدول أعمال الذكاء الاصطناعي الخاص بها. كما وقع العديد من أباطرة التكنولوجيا الذين يمثلهم " ماسك " أيضًا على خطاب مفتوح قبل التدريب على نظام ذكاء اصطناعي أقوى من GPT-4، يجب على الجميع تطوير بروتوكول أمان مشترك ومراجعته والإشراف عليه من قبل خبراء خارجيين.
كما بدأ المشرعون من مختلف البلدان في التعبير علنًا عن مخاوفهم بشأن ChatGPT والنظر في إدراجه في نظام الإشراف التشريعي. ومقارنة بالمخاوف بشأن سلامة الذكاء الاصطناعي، فإن المزيد من الموظفين الحكوميين يشعرون بالقلق إزاء فهم المشرعين المتخلف للتكنولوجيا.
تعتقد وكالة أسوشيتد برس أنه خلال العشرين عامًا الماضية، استمر عمالقة التكنولوجيا في قيادة الابتكار التكنولوجي في الولايات المتحدة، لذلك كانت الحكومة دائمًا غير راغبة في تنظيم شركات التكنولوجيا الكبرى وأصبحت قاتلة للأفكار. ولذلك، فعندما يعتزمون تعزيز الإشراف على التكنولوجيات الناشئة، فإن عدداً كبيراً منهم لا يعرفون سوى القليل عن التكنولوجيات الجديدة.
ففي نهاية المطاف، كانت المرة الأخيرة التي أصدر فيها الكونجرس الأميركي تشريعاً لتنظيم التكنولوجيا هو قانون حماية خصوصية الأطفال على الإنترنت لعام 1998.
ووفقا لوكالة رويترز، بدأت العديد من الدول في تقديم لوائح لتنظيم الذكاء الاصطناعي المتمثل في OpenAI. وفي مارس من هذا العام، حظرت إيطاليا لفترة وجيزة استخدام OpenAI في البلاد بسبب مخاوف بشأن أمن البيانات، ولم تستأنف الاستخدام إلا بعد شهر. وفي مايو، قال مسؤول حكومي إيطالي لرويترز إن الحكومة ستعين خبراء في الذكاء الاصطناعي للإشراف على الاستخدام المنظم لـ OpenAI.
وفي مواجهة شكوك الحكومات، قالت ميرا مولاتي، كبيرة مسؤولي التكنولوجيا في OpenAI، في مقابلة مع رويترز إن "الشركة ترحب بجميع الأطراف، بما في ذلك الوكالات التنظيمية والحكومات، للبدء في التدخل". ولكن في مواجهة التطور السريع في الذكاء الاصطناعي، لا يزال من غير المعروف كيف يمكن للمشرعين مواكبة وتيرة التكنولوجيا.
الشيء الوحيد المؤكد هو أنه بمجرد فتح صندوق باندورا، لا يمكن إغلاقه بهذه السهولة.
إن تكنولوجيا الذكاء الاصطناعي هي سيف ذو حدين، فهي تجلب الراحة والمخاطر في آن واحد. نحن بحاجة إلى تعزيز الرقابة وتحسين الوعي بالسلامة العامة حتى نتمكن من الاستفادة بشكل أفضل من تكنولوجيا الذكاء الاصطناعي ومنع إساءة استخدامها في أنشطة إجرامية. وبهذه الطريقة فقط يمكن تعظيم فوائد الذكاء الاصطناعي ومنع مخاطره المحتملة بشكل فعال.