الوضع الحالي لتنظيم الذكاء الاصطناعي في الولايات المتحدة معقد وصعب. وفي ظل نهج "عدم التدخل" الذي تتبعه إدارة ترامب في تنظيم التكنولوجيا، تختلف السياسات التنظيمية من ولاية إلى أخرى، وهناك نقص في المعايير الموحدة على المستوى الفيدرالي، مما يخلق فراغا تنظيميا. وهذا لا يخلق فرصًا لعمالقة التكنولوجيا فحسب، بل يجلب أيضًا شكوكًا ومخاطر هائلة، ولا سيما ما يفرض تحديات شديدة على عمليات المؤسسات المالية وامتثالها. وفي غياب الإشراف الواضح، يمكن لعمالقة التكنولوجيا إنتاج وتوزيع محتوى الذكاء الاصطناعي دون أي قيود تقريبا، ويتعين على مستخدمي الشركات أن يتحملوا وحدهم المخاطر القانونية المحتملة.
اليوم، مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، أصبح الإشراف على الذكاء الاصطناعي في الولايات المتحدة في عصر الفوضى الشديدة. إن إدارة ترامب على وشك تولي السلطة، ويقود موقفها القائم على مبدأ "عدم التدخل" في التعامل مع تنظيم التكنولوجيا لعبة تنظيمية مثيرة.
في الوقت الحالي، يمثل تنظيم الذكاء الاصطناعي في الولايات المتحدة لغزا مجزأ: هناك افتقار إلى سياسة موحدة على المستوى الفيدرالي، وتُترك الولايات لأجهزتها الخاصة، حتى أن بعض المناطق ليس لديها قواعد واضحة على الإطلاق. يخلق هذا الفراغ التنظيمي ساحة مليئة بالمجهول والمخاطر بالنسبة لعمالقة التكنولوجيا.
ويدرس فريق ترامب تعيين "قيصر للذكاء الاصطناعي" لمحاولة تنسيق سياسة الذكاء الاصطناعي والتطبيقات الحكومية على مستوى البيت الأبيض. ومع ذلك، فإن هذه الخطوة أشبه بالتهدئة. ولا يزال مدى إمكانية تنفيذ الإشراف حقًا علامة استفهام كبيرة.
يضيف دور إيلون موسك المزيد من التوتر الدراماتيكي إلى هذه الدراما التنظيمية. هذا "العبقري المجنون" في عالم التكنولوجيا لديه موقف غامض بشأن تنظيم الذكاء الاصطناعي: فمن ناحية، يدعو إلى الحد الأدنى من التنظيم، ولكن من ناحية أخرى، فهو يشعر بقلق عميق بشأن الذكاء الاصطناعي غير المنضبط. موقفه في حد ذاته هو لغز لم يتم حله.
وبالنسبة للمؤسسات المالية، فإن عدم اليقين التنظيمي هذا لا يجلب مخاطر سياسية فحسب، بل ويجلب أيضاً تحديات تشغيلية حقيقية. إذا أخذنا Wells Fargo كمثال، فقد كان عليهم استثمار الكثير من الموارد الهندسية في السياسات المستقبلية المحتملة وبناء "نظام سقالات" مرن للتعامل مع متطلبات الامتثال التي قد تنشأ في أي وقت.
والأمر الأكثر إثارة للقلق هو أنه في غياب التنظيم الفيدرالي الواضح، يمكن للشركات النموذجية المتطورة مثل OpenAI، وMicrosoft، وGoogle إنتاج وتوزيع محتوى الذكاء الاصطناعي دون أي قيود تقريبًا. يضطر مستخدمو المؤسسات إلى تحمل المخاطر القانونية المحتملة بمفردهم. وهذه ليست مشكلة فنية فحسب، ولكنها تمثل أيضًا تحديًا تجاريًا خطيرًا.
بدأت بعض الشركات في تبني استراتيجيات مبتكرة للحماية الذاتية. على سبيل المثال، بدأت إحدى شركات الخدمات المالية الكبيرة في "حقن" معلومات وهمية في بياناتها لتتبع وتحديد الاستخدام غير المصرح به في حالة حدوث خرق محتمل للبيانات. يعكس هذا النهج الذي يشبه التجسس تقريبًا في حماية البيانات هشاشة النظام البيئي الحالي للذكاء الاصطناعي.
والواقع أن الافتقار إلى الإشراف لا يشكل قضية حوكمة فنية فحسب، بل إنه أيضاً خيار استراتيجي يرتبط بالقدرة التنافسية العلمية والتكنولوجية للبلاد. وفي عصر الذكاء الاصطناعي هذا، حيث يتنافس الجميع على المركز الأول، فإن أي شخص يستطيع أن يأخذ زمام المبادرة في بناء إطار تنظيمي قادر على حماية الابتكار وموازنة المخاطر في نفس الوقت قد يحتل أعلى المستويات في المنافسة التكنولوجية في المستقبل.
بالنسبة لقادة الأعمال، لا يتطلب البقاء والتطور في هذا "الغرب التكنولوجي المتوحش" قدرات تقنية فحسب، بل يتطلب أيضًا رؤى ثاقبة للمخاطر وتفكيرًا استراتيجيًا يتطلع إلى المستقبل. لقد أصبح إنشاء إطار سليم لحوكمة الذكاء الاصطناعي، والاستمرار في الاهتمام بالتطورات التنظيمية، والتفاعل النشط مع صناع القرار، من القضايا المهمة التي لا يمكن للشركات تجنبها.
بشكل عام، لا يزال مستقبل تنظيم الذكاء الاصطناعي في الولايات المتحدة مليئًا بعدم اليقين، وتحتاج الشركات إلى الاستجابة بفعالية للتحديات، وتحتاج الحكومة أيضًا إلى إنشاء إطار تنظيمي كامل في أقرب وقت ممكن من أجل الحفاظ على قدرتها التنافسية في مجال الذكاء الاصطناعي. العصر والتعامل بفعالية مع المخاطر المحتملة. وستكون هذه لعبة مستمرة وتتطلب جهودا مشتركة من جميع الأطراف.