أصدرت اللجنة الخاصة بمجلس الشيوخ الأسترالي مؤخرًا تقريرًا يتهم أمازون وجوجل وميتا بالغموض عند استخدام البيانات الأسترالية لتدريب منتجات الذكاء الاصطناعي، الأمر الذي اجتذب اهتمامًا واسع النطاق. وفي التقرير، انتقد السيناتور شيلدون بشدة عمالقة التكنولوجيا هؤلاء لكونهم مراوغين أثناء جلسة الاستماع ومثل "القراصنة" الذين ينهبون الثقافة والبيانات والإبداع في أستراليا. سيشرح محرر Downcodes هذا التقرير بالتفصيل وتأثيره على السياسات التنظيمية للذكاء الاصطناعي والصناعات الإبداعية في أستراليا.
ومؤخرا، كشف تقرير التحقيق الذي أجرته اللجنة الخاصة بمجلس الشيوخ الأسترالي أن شركات التكنولوجيا أمازون، وجوجل، وميتا (فيسبوك سابقا) تتخذ مواقف غامضة بشكل مخيب للآمال عند استخدام البيانات الأسترالية لتدريب منتجات الذكاء الاصطناعي الخاصة بها.
ملاحظة لمصدر الصورة: يتم إنشاء الصورة بواسطة الذكاء الاصطناعي ومزود خدمة ترخيص الصورة Midjourney
وأعرب رئيس التحقيق، السيناتور العمالي توني شيلدون، عن استيائه الشديد من ذلك، معتبرا أن هذه الشركات المتعددة الجنسيات استمرت في تجنب الأسئلة المباشرة خلال الجلسة، كما لو كانت تقدم عرضا سحريا رخيصا، وفي النهاية لم تفعل شيئا.
وقال شيلدون بعد صدور التقرير إن شركات التكنولوجيا هذه مثل "القراصنة"، تنهب ثقافة أستراليا وبياناتها وإبداعها، وتترك الأستراليين في النهاية خالي الوفاض. وأشار إلى أن أمازون رفضت الكشف عن كيفية استخدامها للبيانات التي تجمعها أجهزة Alexa وKindle وAudible لتدريب الذكاء الاصطناعي، بينما لم توضح جوجل أيضًا كيفية استخدامها لبيانات المستخدم لتطوير منتجات الذكاء الاصطناعي. وفي حين اعترفت شركة ميتا بأنها كانت تستخرج البيانات من مستخدمي فيسبوك وإنستغرام الأستراليين لاستخدامها في نماذج الذكاء الاصطناعي المستقبلية منذ عام 2007، إلا أنها لم تتمكن من شرح كيف وافق المستخدمون في عام 2007 على استخدام البيانات لأغراض لم تكن موجودة بعد.
ويسلط التقرير الضوء أيضًا على أن العاملين المبدعين يواجهون خطر الذكاء الاصطناعي الذي يؤثر بشدة على سبل عيشهم. وتوصي بإنشاء آليات للدفع لتعويض العاملين المبدعين عندما يعتمد العمل الناتج عن الذكاء الاصطناعي على مادة أصلية. بالإضافة إلى ذلك، يتعين على الشركات التي تعمل على تطوير نماذج الذكاء الاصطناعي أن تكون شفافة بشأن أصول الأعمال المحمية بحقوق الطبع والنشر المستخدمة في مجموعات البيانات الخاصة بها، ويجب ترخيص جميع الأعمال المطالب بها ودفع ثمنها وفقًا لذلك.
وتدعو إحدى التوصيات الـ 13 الواردة في التقرير إلى إدخال تشريعات مستقلة في مجال الذكاء الاصطناعي، تستهدف على وجه التحديد نماذج الذكاء الاصطناعي التي تعتبر "عالية المخاطر". ينبغي اعتبار تطبيقات الذكاء الاصطناعي المتعلقة بحقوق الإنسان عالية المخاطر وتتطلب التشاور والتعاون والتمثيل قبل التنفيذ.
ومع ذلك، قال اثنان من أعضاء مجلس الشيوخ في التحالف في اللجنة إن الذكاء الاصطناعي يشكل تهديدًا أكبر بكثير للأمن السيبراني والأمن القومي والمؤسسات الديمقراطية في أستراليا من تأثيره على الاقتصاد الإبداعي. وهم يعتقدون أنه ينبغي إنشاء آليات لحماية الفرص المحتملة التي يوفرها الذكاء الاصطناعي، بدلا من قمعها.
أثار التقرير أيضًا مزيدًا من المناقشات حول السياسات التنظيمية للذكاء الاصطناعي في أستراليا، ودعا العديد من الأشخاص إلى الاتساق مع التدابير التنظيمية في المملكة المتحدة وأوروبا وكاليفورنيا ومناطق أخرى للتعامل مع تحديات التطور السريع لتكنولوجيا الذكاء الاصطناعي.
لا يكشف هذا التقرير عن غموض استخدام البيانات من قبل عمالقة التكنولوجيا فحسب، بل يثير أيضًا تفكيرًا متعمقًا حول أخلاقيات الذكاء الاصطناعي والإشراف عليه. لا يزال أمام طريق تنظيم الذكاء الاصطناعي في أستراليا طريق طويل ليقطعه، ويتطلب جهودًا مشتركة من الحكومة والشركات والجمهور لإيجاد أفضل طريق بين الابتكار والمخاطر. سيستمر محرر Downcodes في الاهتمام بتطور الحادث.