قامت جوجل مؤخرًا بتحديث شروط الاستخدام الخاصة بالذكاء الاصطناعي التوليدي، مما يسمح للعملاء باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بها لاتخاذ قرارات آلية في المجالات عالية المخاطر مثل الرعاية الطبية والتوظيف، ولكن فقط تحت الإشراف البشري. وقد أثارت هذه الخطوة مناقشات في الصناعة حول تطبيق الذكاء الاصطناعي في المناطق عالية المخاطر والمخاوف بشأن الإشراف ذي الصلة. وتتناقض خطوة جوجل مع منافسيها OpenAI وAnthropic، اللتين تفرضان قيودًا أكثر صرامة على اتخاذ القرارات الآلية عالية المخاطر. يسلط هذا التحديث أيضًا الضوء على الحاجة الملحة لتنظيم الذكاء الاصطناعي على مستوى العالم والتحدي المتمثل في الموازنة بين ابتكار الذكاء الاصطناعي والمخاطر المحتملة.
قامت جوجل مؤخرًا بتحديث شروط استخدام الذكاء الاصطناعي التوليدي، مما يسمح للعملاء بشكل صريح باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بها من أجل "اتخاذ القرار الآلي" في المجالات "عالية المخاطر"، مثل الرعاية الصحية والتوظيف، طالما أن الإشراف البشري مطلوب. ينعكس هذا التغيير في سياسة الشركة الصادرة حديثًا والتي تحظر استخدام الذكاء الاصطناعي التوليدي.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي وموفر خدمة ترخيص الصورة Midjourney
وبموجب السياسة المحدثة، يمكن للعملاء استخدام الذكاء الاصطناعي التوليدي من Google، تحت الإشراف، لاتخاذ قرارات تلقائية يمكن أن يكون لها "تأثير سلبي جوهري" على حقوق الفرد. وتشمل هذه المجالات عالية المخاطر التوظيف والإسكان والتأمين والرعاية الاجتماعية وما إلى ذلك. يبدو أن الشروط السابقة تتضمن حظرًا شاملاً على اتخاذ القرارات الآلية عالية المخاطر، لكن جوجل قالت إنها سمحت بالفعل باستخدام الذكاء الاصطناعي التوليدي لمثل هذه القرارات تحت إشراف بشري منذ البداية.
ورد متحدث باسم جوجل على وسائل الإعلام قائلاً: "إن شرط الإشراف البشري موجود دائمًا في سياساتنا ويغطي جميع المجالات عالية المخاطر. لقد قمنا للتو بإعادة تصنيف بعض المصطلحات وعددنا بعض الأمثلة بشكل أكثر وضوحًا حتى يفهمها المستخدمون".
بالمقارنة مع نهج جوجل، فإن المنافسين الرئيسيين لجوجل مثل OpenAI وAnthropic لديهم لوائح أكثر صرامة بشأن اتخاذ القرارات الآلية عالية المخاطر. تحظر OpenAI استخدام خدماتها في اتخاذ القرارات الآلية المتعلقة بالائتمان والتوظيف والإسكان والتعليم والتسجيل الاجتماعي والتأمين. تسمح Anthropic للذكاء الاصطناعي الخاص بها باتخاذ قرارات آلية في المجالات عالية المخاطر مثل القانون والتأمين والرعاية الطبية، ولكن فقط تحت إشراف "المحترفين المؤهلين" وتطلب من العملاء إبلاغها بوضوح باستخدام الذكاء الاصطناعي لمثل هذه القرارات.
وفيما يتعلق بأنظمة الذكاء الاصطناعي لصنع القرار الآلي، أعربت الهيئات التنظيمية عن قلقها من أن مثل هذه التقنيات قد تؤدي إلى نتائج متحيزة. على سبيل المثال، تظهر الأبحاث أن الذكاء الاصطناعي قد يؤدي إلى إدامة التمييز التاريخي في الموافقة على طلبات القروض والرهن العقاري.
وقد دعت هيومن رايتس ووتش وغيرها من المنظمات غير الربحية على وجه التحديد إلى فرض حظر على أنظمة "التسجيل الاجتماعي"، بحجة أنها تهدد وصول الأشخاص إلى الضمان الاجتماعي وقد تنتهك الخصوصية وتخلق تصنيفًا متحيزًا.
وفي الاتحاد الأوروبي، تواجه أنظمة الذكاء الاصطناعي عالية المخاطر، بما في ذلك تلك التي تنطوي على قرارات الائتمان الشخصي والتوظيف، رقابة صارمة بموجب قانون الذكاء الاصطناعي. ويجب على مقدمي هذه الأنظمة التسجيل في قواعد البيانات، وإجراء إدارة الجودة والمخاطر، وتوظيف مشرفين بشريين، والإبلاغ عن الحوادث إلى السلطات المختصة، من بين أمور أخرى.
وفي الولايات المتحدة، أصدرت ولاية كولورادو مؤخرًا قانونًا يلزم مطوري الذكاء الاصطناعي بالكشف عن معلومات حول أنظمة الذكاء الاصطناعي "عالية الخطورة" ونشر ملخص لقدرات النظام وقيوده. وفي الوقت نفسه، تحظر مدينة نيويورك على أصحاب العمل استخدام الأدوات الآلية لفحص المرشحين ما لم تخضع الأداة لتدقيق متحيز خلال العام الماضي.
تسليط الضوء على:
تسمح Google باستخدام الذكاء الاصطناعي التوليدي في المناطق عالية الخطورة، ولكنها تتطلب إشرافًا بشريًا.
وتفرض شركات الذكاء الاصطناعي الأخرى، مثل OpenAI وAnthropic، قيودًا أكثر صرامة على القرارات عالية المخاطر.
يقوم المنظمون في مختلف البلدان بمراجعة أنظمة الذكاء الاصطناعي لاتخاذ القرارات الآلية لمنع النتائج المتحيزة.
أثار تحديث Google لشروط استخدام الذكاء الاصطناعي التوليدي مناقشات واسعة النطاق حول أخلاقيات الذكاء الاصطناعي وتنظيمه، كما تعمل الحكومات والمؤسسات في جميع أنحاء العالم بنشاط على استكشاف كيفية تنظيم تكنولوجيا الذكاء الاصطناعي بشكل أفضل لضمان تطويرها بشكل آمن ومسؤول. في المستقبل، سيواجه تطبيق الذكاء الاصطناعي في المجالات عالية المخاطر مراجعة وإشرافًا أكثر صرامة.