قامت Google مؤخرًا بتحديث شروط الاستخدام الخاصة بالذكاء الاصطناعي التوليدي لتحديد تطبيقات الذكاء الاصطناعي بوضوح في المجالات "عالية الخطورة" مثل الرعاية الصحية. تسمح الشروط الجديدة للعملاء باستخدام الذكاء الاصطناعي التوليدي من Google لاتخاذ القرار الآلي في هذه المجالات، ولكن تحت الإشراف البشري فقط. وقد أثارت هذه الخطوة مخاوف في مجال الذكاء الاصطناعي من حيث صلتها بتطبيق الذكاء الاصطناعي في عملية صنع القرار عالية المخاطر، فضلاً عن اعتبارات التحيز المحتمل والقضايا الأخلاقية. تستجيب خطوة جوجل لمخاوف المجتمع بشأن تطبيقات الذكاء الاصطناعي إلى حد ما وتعكس جهودها لتحقيق التوازن بين تطبيقات تكنولوجيا الذكاء الاصطناعي وإدارة المخاطر.
قامت جوجل مؤخرًا بتحديث شروط الاستخدام الخاصة بالذكاء الاصطناعي التوليدي، موضحة أنه يمكن للعملاء نشر أدوات الذكاء الاصطناعي التوليدية الخاصة بها من أجل "اتخاذ القرار الآلي" في المجالات "عالية المخاطر" مثل الرعاية الصحية، ولكن فقط تحت الإشراف البشري. وفقًا لأحدث إصدار من "سياسة الاستخدام المحظور للذكاء الاصطناعي من Google" والذي تم إصداره يوم الثلاثاء، يمكن للعملاء استخدام الذكاء الاصطناعي التوليدي من Google لاتخاذ "قرارات تلقائية" قد يكون لها "تأثير سلبي مادي" على الحقوق الفردية. يمكن للعملاء استخدام الذكاء الاصطناعي التوليدي من Google لاتخاذ قرارات بشأن التوظيف والإسكان والتأمين والرعاية الاجتماعية وغيرها من المجالات "عالية المخاطر" طالما كان هناك شكل من أشكال الرقابة البشرية. في مجال الذكاء الاصطناعي، يشير اتخاذ القرار الآلي إلى القرارات التي تتخذها أنظمة الذكاء الاصطناعي بناءً على البيانات الواقعية والبيانات المستنتجة. على سبيل المثال، قد يقرر النظام تلقائيًا ما إذا كان سيتم الموافقة على طلب القرض، أو فحص المتقدمين للوظائف. في السابق، ألمحت مسودة شروط جوجل إلى فرض حظر شامل على استخدام الذكاء الاصطناعي التوليدي للشركة في عملية صنع القرار الآلي عالية المخاطر. لكن جوجل أخبرت موقع TechCrunch أنه يمكن للعملاء دائمًا استخدام الذكاء الاصطناعي التوليدي لأتمتة القرارات، حتى بالنسبة للتطبيقات عالية المخاطر، طالما أن هناك إشراف بشري. قال متحدث باسم جوجل عند الاتصال به عبر البريد الإلكتروني: "كما هو الحال مع جميع المجالات عالية المخاطر، فإن متطلبات الرقابة البشرية لدينا موجودة دائمًا في سياساتنا. نحن نعيد تصنيف بعض العناصر [في الشروط] وندرجها بشكل أكثر وضوحًا لمنح العملاء صورة أكثر وضوحًا. "يمتلك المنافسان الرئيسيان لشركة Google في مجال الذكاء الاصطناعي، OpenAI وAnthropic، لوائح أكثر صرامة بشأن استخدام الذكاء الاصطناعي في عملية صنع القرار الآلي عالية المخاطر. على سبيل المثال، تحظر شركة OpenAI استخدام خدماتها في اتخاذ القرارات الآلية المتعلقة بالائتمان والتوظيف والإسكان والتعليم والتقييم الاجتماعي والتأمين. تسمح Anthropic باستخدام الذكاء الاصطناعي الخاص بها لأتمتة عملية صنع القرار في المجالات القانونية والتأمينية والرعاية الصحية وغيرها من المجالات عالية المخاطر، ولكن فقط إذا تم الإشراف عليها من قبل "محترف مؤهل" وتطلب من العملاء الكشف عن أنهم يستخدمون الذكاء الاصطناعي لهذا الغرض. لقد خضع الذكاء الاصطناعي الذي يعمل على أتمتة عملية صنع القرار التي تؤثر على الأفراد للتدقيق من قبل الجهات التنظيمية، التي أعربت عن مخاوفها بشأن النتائج المتحيزة التي يمكن أن تخلقها التكنولوجيا. تشير الأبحاث إلى أن الذكاء الاصطناعي المستخدم للموافقة على طلبات الائتمان والرهن العقاري، على سبيل المثال، يمكن أن يؤدي إلى إدامة التمييز التاريخي. دعت منظمة هيومن رايتس ووتش، وهي منظمة غير ربحية، إلى فرض حظر على أنظمة "التسجيل الاجتماعي"، والتي تقول إنها يمكن أن تقوض وصول الأشخاص إلى دعم الضمان الاجتماعي، وتهدد خصوصيتهم وتصنفهم بطريقة متحيزة. تواجه أنظمة الذكاء الاصطناعي عالية المخاطر، بما في ذلك تلك التي تتخذ قرارات الائتمان الشخصي والتوظيف، أشد القواعد التنظيمية صرامة بموجب مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي. ويجب على مقدمي هذه الأنظمة التسجيل في قاعدة البيانات، وتنفيذ إدارة الجودة والمخاطر، وتوظيف مشرفين بشريين، والإبلاغ عن الحوادث إلى السلطات المختصة، من بين متطلبات أخرى. وفي الولايات المتحدة، أصدرت ولاية كولورادو مؤخرًا قانونًا يلزم مطوري الذكاء الاصطناعي بالكشف عن معلومات حول أنظمة الذكاء الاصطناعي "عالية الخطورة" وإصدار بيان يلخص قدرات النظام وقيوده. وفي الوقت نفسه، تحظر مدينة نيويورك على أصحاب العمل استخدام الأدوات الآلية لفحص المرشحين لاتخاذ قرارات التوظيف ما لم يتم تدقيق الأداة للتأكد من عدم تحيزها خلال العام السابق. وأوضحت جوجل هذه المرة شروط استخدام الذكاء الاصطناعي، مشيرة إلى موقف الشركة من الإشراف على تطبيقات الذكاء الاصطناعي. إن السماح باتخاذ القرارات الآلية في المناطق عالية المخاطر مع التأكيد على أهمية الإشراف اليدوي لا يعكس إمكانات تطبيقات تكنولوجيا الذكاء الاصطناعي فحسب، بل يعكس أيضًا اليقظة ضد المخاطر المحتملة.
إن تحديث Google لشروط استخدام الذكاء الاصطناعي، مع التركيز على الإشراف اليدوي، يعكس أيضًا التحديات والاستكشافات التي تواجهها شركات تكنولوجيا الذكاء الاصطناعي في حوكمة الذكاء الاصطناعي. إن كيفية الموازنة بين الابتكار والمخاطر في سياق التطور السريع لتكنولوجيا الذكاء الاصطناعي ستكون قضية مهمة تتطلب اهتمامًا مستمرًا في المستقبل.