في السنوات الأخيرة، تطورت تكنولوجيا الذكاء الاصطناعي التوليدي بسرعة، مما أدى إلى توفير العديد من وسائل الراحة لحياة الناس، ولكنها جلبت أيضًا مخاطر أمنية جديدة. كشف باحثو شركة IBM مؤخرًا عن طريقة احتيال جديدة تستخدم أدوات الذكاء الاصطناعي التوليدية لاختطاف المكالمات الصوتية، الأمر الذي جذب اهتمامًا واسع النطاق. يستخدم هذا النوع الجديد من الاحتيال أدوات الذكاء الاصطناعي منخفضة التكلفة لتقليد أصوات الآخرين بدقة عالية للغاية، وبالتالي الاحتيال بسهولة على ضحايا ثقتهم وارتكاب عمليات الاحتيال. تشكل هذه الخطوة تهديدًا خطيرًا للمؤسسات المالية والمنظمات الأخرى التي تعتمد على التحقق من الهوية عبر الهاتف وتتطلب اهتمامًا جديًا.
اكتشف باحثو شركة IBM مؤخرًا طريقة بسيطة نسبيًا لاستخدام أدوات الذكاء الاصطناعي التوليدية لاختراق المكالمات الصوتية، مما يشكل تهديدًا جديدًا. ومن خلال الاستفادة من أدوات الذكاء الاصطناعي منخفضة التكلفة، يمكن للمحتالين الآن انتحال صوت شخص آخر بسهولة واختطاف المحادثات الجارية لسرقة الأموال وغيرها من المعلومات الحساسة. ونتيجة لذلك، فإن المنظمات التي تستخدم المكالمات الهاتفية للتحقق من الهوية، مثل المؤسسات المالية، تشعر بالقلق. وينصح التقرير أي شخص يتلقى مكالمة مشبوهة بإعادة صياغتها بكلماته الخاصة وتكرار ما قيل للتحقق من دقته.
وفي مواجهة التحديات الجديدة التي تفرضها تكنولوجيا الذكاء الاصطناعي، يتعين علينا أن نكون أكثر يقظة وأن نعزز احتياطات السلامة. يجب على الجمهور زيادة وعيهم الأمني، وتوخي الحذر بشأن أي مكالمات مشبوهة، والتعلم بنشاط كيفية التعرف على هذه الأنواع الجديدة من عمليات الاحتيال ومنعها. وفي الوقت نفسه، ينبغي للمؤسسات ذات الصلة أيضًا استكشاف واعتماد تقنيات أمنية أكثر تقدمًا للتعامل مع المخاطر الأمنية التي تجلبها تكنولوجيا الذكاء الاصطناعي وضمان أمن معلومات المستخدم. وبهذه الطريقة فقط يمكننا الاستفادة بشكل أفضل من تكنولوجيا الذكاء الاصطناعي مع تجنب مخاطرها المحتملة بشكل فعال.