أصدرت اللجنة الخاصة بمجلس الشيوخ الأسترالي مؤخرًا تقريرًا، يدين بشدة أمازون وجوجل وميتا بسبب افتقارهم إلى الشفافية والمسؤولية عند استخدام البيانات الأسترالية لتدريب منتجات الذكاء الاصطناعي. وأشار التقرير إلى أن عمالقة التكنولوجيا هؤلاء يشبهون "القراصنة"، ينهبون ثقافة أستراليا وبياناتها وإبداعها دون تقديم مكافآت مقابلة، الأمر الذي أثار قلقا واسع النطاق في المجتمع الأسترالي بشأن سيادة البيانات وأخلاقيات الذكاء الاصطناعي. وأعرب رئيس لجنة التحقيق عن استيائه الشديد من الموقف المراوغ لشركات التكنولوجيا في جلسة الاستماع، ودعا إلى تعزيز الإشراف على الذكاء الاصطناعي لحماية حقوق ومصالح العمال المبدعين.
في الآونة الأخيرة، كشف تقرير تحقيق أجرته اللجنة الخاصة بمجلس الشيوخ الأسترالي أن شركات التكنولوجيا أمازون وجوجل وميتا (فيسبوك سابقا) لديها مواقف غامضة بشكل مخيب للآمال عند استخدام البيانات الأسترالية لتدريب منتجات الذكاء الاصطناعي الخاصة بها.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي وموفر خدمة ترخيص الصورة Midjourney
وأعرب السيناتور العمالي توني شيلتون، رئيس التحقيق، عن استيائه الشديد من ذلك، معتقدًا أن هذه الشركات متعددة الجنسيات استمرت في تجنب الأسئلة المباشرة أثناء الجلسة، كما لو كانت تقدم عرضًا سحريًا رخيصًا، وفي النهاية لم تفعل شيئًا.
وقال شيلتون بعد صدور التقرير إن شركات التكنولوجيا هذه مثل "القراصنة"، تنهب ثقافة أستراليا وبياناتها وإبداعها، وتترك الأستراليين في النهاية خالي الوفاض. وأشار إلى أن أمازون رفضت الكشف عن كيفية استخدامها للبيانات التي تجمعها أجهزة Alexa وKindle وAudible لتدريب الذكاء الاصطناعي، بينما لم توضح جوجل أيضًا كيفية استخدامها لبيانات المستخدم لتطوير منتجات الذكاء الاصطناعي. وفي حين اعترفت شركة ميتا بأنها كانت تستخرج البيانات من مستخدمي فيسبوك وإنستغرام الأستراليين لاستخدامها في نماذج الذكاء الاصطناعي المستقبلية منذ عام 2007، إلا أنها لم تتمكن من شرح كيف وافق المستخدمون في عام 2007 على استخدام البيانات لأغراض لم تكن موجودة بعد.
ويسلط التقرير الضوء أيضًا على أن العاملين المبدعين يواجهون خطر الذكاء الاصطناعي الذي يؤثر بشدة على سبل عيشهم. وتوصي بإنشاء آليات للدفع لتعويض العاملين المبدعين عندما يعتمد العمل الناتج عن الذكاء الاصطناعي على مادة أصلية. بالإضافة إلى ذلك، يتعين على الشركات التي تعمل على تطوير نماذج الذكاء الاصطناعي أن تكون شفافة بشأن أصول الأعمال المحمية بحقوق الطبع والنشر المستخدمة في مجموعات البيانات الخاصة بها، ويجب ترخيص جميع الأعمال المطالب بها ودفع ثمنها وفقًا لذلك.
وتدعو إحدى التوصيات الـ 13 الواردة في التقرير إلى إدخال تشريعات مستقلة في مجال الذكاء الاصطناعي، تستهدف على وجه التحديد نماذج الذكاء الاصطناعي التي تعتبر "عالية المخاطر". ينبغي اعتبار تطبيقات الذكاء الاصطناعي المتعلقة بحقوق الإنسان عالية المخاطر وتتطلب التشاور والتعاون والتمثيل قبل التنفيذ.
ومع ذلك، قال اثنان من أعضاء مجلس الشيوخ في التحالف في اللجنة إن الذكاء الاصطناعي يشكل تهديدًا أكبر بكثير للأمن السيبراني والأمن القومي والمؤسسات الديمقراطية في أستراليا من تأثيره على الاقتصاد الإبداعي. وهم يعتقدون أنه ينبغي إنشاء آليات لحماية الفرص المحتملة التي يوفرها الذكاء الاصطناعي، بدلا من قمعها.
أثار التقرير أيضًا مزيدًا من المناقشات حول السياسات التنظيمية للذكاء الاصطناعي في أستراليا، ودعا العديد من الأشخاص إلى الاتساق مع التدابير التنظيمية في المملكة المتحدة وأوروبا وكاليفورنيا ومناطق أخرى للتعامل مع تحديات التطور السريع لتكنولوجيا الذكاء الاصطناعي.
تسليط الضوء على:
**عمالقة التكنولوجيا متهمون بنهب الثقافة والبيانات الأسترالية**: تقرير التحقيق ينتقد أمازون وجوجل وميتا بسبب موقفهم الغامض تجاه استخدام البيانات.
**يواجه العمال المبدعون مخاطر عالية**: يسلط التقرير الضوء على تهديد الذكاء الاصطناعي للصناعة الإبداعية ويوصي بإنشاء آلية للتعويض.
** الدعوة إلى تشريعات مستقلة للذكاء الاصطناعي **: يقترح التقرير ضرورة تقديم تشريعات مستقلة للذكاء الاصطناعي عالي الخطورة لحماية حقوق الإنسان وحقوق العمال المبدعين.
أثار هذا التقرير نقاشًا ساخنًا حول أخلاقيات استخدام بيانات الذكاء الاصطناعي والإشراف عليه، مما يشير إلى أن أستراليا قد تقدم قوانين ولوائح أكثر صرامة تتعلق بالذكاء الاصطناعي في المستقبل لحماية المصالح الوطنية وحقوق المواطنين ومصالحهم بشكل أفضل. وينبغي لجميع البلدان أن تتعلم من هذا الحادث، وتعزز الرقابة على تكنولوجيا الذكاء الاصطناعي، وتعزز التنمية الصحية لتكنولوجيا الذكاء الاصطناعي.