في الآونة الأخيرة، ظهر جدل كبير في دعوى قضائية اتحادية في ولاية مينيسوتا بشأن استخدام تقنية التزييف العميق للتأثير على الانتخابات. في الأدلة المقدمة من المدعي العام للولاية، يشتبه في أن بعض الإشارات إلى الأبحاث الرئيسية تم إنشاؤها بواسطة الذكاء الاصطناعي، مما أثار نقاشًا واسعًا حول تطبيق الذكاء الاصطناعي في المجال القانوني، وأسئلة مهمة حول كيفية ضمان الدقة والموثوقية. من المعلومات. سيقوم محرر Downcodes بإجراء تحليل مفصل لهذه الحادثة.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ومزود خدمة ترخيص الصورة Midjourney
وفقًا لمجلة مينيسوتا ريفورمر، طلب المدعي العام للولاية كيث إليسون من جيف هانكوك، المدير المؤسس لمختبر ستانفورد لوسائل التواصل الاجتماعي، تقديم الأدلة ذات الصلة. ومع ذلك، فإن العديد من الدراسات المذكورة في إفادة هانكوك الخطية تفتقر إلى أدلة موضوعية وتظهر "هلوسة" محتملة للذكاء الاصطناعي.
واستشهدت إفادة هانكوك الخطية بدراسة أجريت عام 2023 نُشرت في مجلة تكنولوجيا المعلومات والسياسة بعنوان "تأثير مقاطع الفيديو المزيفة العميقة على المواقف والسلوك السياسي".
ومع ذلك، لم يتم العثور على أي سجل للدراسة في المجلة أو أي منشور آخر، حسبما ذكرت التقارير. بالإضافة إلى ذلك، فإن دراسة أخرى مذكورة في الإفادة بعنوان "التزييف العميق ووهم الأصالة: العمليات المعرفية وراء قبول المعلومات الخاطئة" تفتقر أيضًا إلى الأساس التجريبي.
ردًا على ذلك، قال محامو النائبة عن ولاية مينيسوتا ماري فرانسون ومستخدم اليوتيوب المحافظ كريستوفر كولز في الدعوى: "من الواضح أن هذه الاقتباسات لها تأثير ميزات "الوهم" الخاصة بالذكاء الاصطناعي (AI)، مما يعني ضمنًا أن جزءًا على الأقل من المحتوى تم إنشاؤه بواسطة عدد كبير من الأشخاص". وأشاروا أيضًا إلى أن مثل هذا الموقف يدعو إلى التشكيك في مصداقية الإفادة الخطية بأكملها، خاصة وأن العديد من حججها تفتقر إلى دعم المنهجية والمنطق التحليلي.
ولم يرد هانكوك على الحادث. وأثارت هذه الحادثة نقاشاً حول تطبيق الذكاء الاصطناعي في المجال القانوني، خاصة عندما يتعلق الأمر بالمصلحة العامة والمسائل الانتخابية، حيث أصبحت كيفية ضمان دقة وموثوقية المعلومات موضوعاً مهماً.
ولا تلفت هذه الحادثة الانتباه إلى تأثير تقنية التزييف العميق فحسب، بل توفر أيضًا تفكيرًا جديدًا للمجتمع القانوني عند التعامل مع الأدلة المتعلقة بالذكاء الاصطناعي. أصبحت كيفية تحديد مصادر المعلومات والتحقق منها بشكل فعال تحديًا مهمًا يجب مواجهته في الممارسة القانونية.
كشفت هذه الحادثة عن مخاطر تطبيق تقنية الذكاء الاصطناعي في المجال القانوني، وحذرتنا أيضًا من أننا بحاجة إلى توخي الحذر بشأن المحتوى الناتج عن الذكاء الاصطناعي، خاصة في تطبيق مواد الأدلة، وأن هناك حاجة إلى مراجعة وتحقق صارمين للتأكد من صحتها. وموثوقية المعلومات. وهذا أمر بالغ الأهمية للحفاظ على عدالة القانون وسلطته.