لائحة الذكاء الاصطناعى الرائع والمبادئ والمبادئ التوجيهية |  (الملقب كتابة الذكاء الاصطناعى بمسؤولية) |
ملخص
عندما تصبح أنظمة الذكاء الاصطناعى أكثر انتشارًا في المجتمع ، فإننا نواجه تحديات مجتمعية أكبر وأصعب. نظرًا لم تواجه العديد من هذه التحديات من قبل ، سيواجه الممارسون سيناريوهات تتطلب التعامل مع أسئلة أخلاقية ومجتمعية صعبة.
كان هناك قدر كبير من المحتوى المنشور والذي يحاول معالجة هذه القضايا من خلال "المبادئ" و "أطر الأخلاقيات" و "قوائم المراجعة" وما بعدها. ومع ذلك ، فإن التنقل في العدد الواسع من الموارد ليس بالأمر السهل.
يهدف هذا المستودع إلى تبسيط هذا من خلال تعيين النظام الإيكولوجي للإرشادات والمبادئ ورموز الأخلاق والمعايير والتنظيم التي يتم وضعها حول الذكاء الاصطناعي.
روابط سريعة للأقسام في هذه الصفحة
التنظيم الوطني للمنطقة الاقتصادية
| | |
---|
النمسا ؟؟ | البرازيل ؟؟ | كندا ؟؟ |
إسرائيل ؟؟ | الاتحاد الأوروبي ؟؟ | الهند ؟؟ |
المكسيك ؟؟ | سنغافورة ؟؟ | الإمارات العربية المتحدة ؟؟ |
الولايات المتحدة الأمريكية ؟؟ | المملكة المتحدة ؟؟ | |
أقسام أخرى
| | |
---|
؟ أطر ومبادئ المستوى العالي | ؟ العمليات وقوائم المراجعة | ؟ أدوات تفاعلية وعملية |
مبادرات معايير الصناعة | الدورات عبر الإنترنت | ؟ النشرات الإخبارية للأبحاث والصناعة |
الموارد الأخرى ذات الصلة
يمكنك الانضمام إلى النشرة الإخبارية لمهندس التعلم الآلي. ستتلقى تحديثات على أطر عمل مفتوحة المصدر ، والدروس التعليمية والمقالات برعاية محترفي التعلم الآلي. |  |
التنظيم والسياسة
النمسا
- مهمة الذكاء الاصطناعي النمسا 2030 - تشكيل مستقبل الذكاء الاصطناعي في النمسا. نشرت الوزارة النمساوية للابتكار والتكنولوجيا رؤيتهم لمنظمة العفو الدولية حتى عام 2030.
كندا
- قانون الذكاء الاصطناعي والبيانات (AIDA) - قانون لسن قانون حماية خصوصية المستهلك ، وقانون محكمة المعلومات الشخصية وحماية البيانات وقانون الذكاء والبيانات الاصطناعية ولقيام تعديلات تبعية وذات صلة بأفعال أخرى
البرازيل
- لائحة الذكاء الاصطناعي البرازيلي (PL 2338/2023): مشروع قانون مقترح في البرازيل يهدف إلى إنشاء إطار شامل لتطوير واستخدام الذكاء الاصطناعي ، والتأكيد على الشفافية والمساءلة والمواءمة مع المعايير الدولية.
الصين
- مبادئ بكين الذكاء الاصطناعي - مبادرة البحث والتطوير والاستخدام والحوكمة والتخطيط طويل الأجل لمنظمة العفو الدولية ، الدعوة إلى تطويرها الصحي لدعم بناء مجتمع بشري مع مستقبل مشترك ، وإدراك الذكاء الاصطناعى المفيد للبشرية والطبيعة.
- التدابير المؤقتة للصين المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي - أول لائحة إدارية حول إدارة خدمات الذكاء الاصطناعى التوليدي ، والتي دخلت حيز التنفيذ في 15 أغسطس 2023.
- قانون أمن الإنترنت في الصين - القانون الصيني الذي سُن لزيادة الأمن السيبراني والأمن القومي ، وحماية سيادة الفضاء الإلكتروني والمصلحة العامة ، وحماية الحقوق المشروعة والمصالح للمواطنين ، والمواطنين القانونيين والمنظمات الأخرى ، وتعزيز التنمية الاقتصادية والاجتماعية الصحية (وقامت بتجادل الوزارة الصينية للصناعة والمعلومات التي يبررها هذا القانون في متابعة "الذهاب إلى الإستراتيجية". ملخص KPMG لقانون الأمن السيبراني. نظرة عامة على مركز الدراسات الاستراتيجية والدولية لقانون خصوصية البيانات الجديد في الصين
- مواصفات أمن المعلومات الشخصية في الصين (الترجمة) - أول قواعد خصوصية رقمية رئيسية للحكومة الصينية والتي دخلت حيز التنفيذ في مايو 2018 ، والتي تضع إرشادات حبيبية للموافقة وكيف ينبغي جمع البيانات الشخصية واستخدامها ومشاركتها. نظرة عامة على مركز الدراسات الاستراتيجية والدولية للمواصفات
- الأحكام الإدارية الصينية حول خدمات المعلومات على المدونات الصغيرة - أحكام الصين التي تتطلب مواقع التدوينات الصغيرة (مواقع التواصل الاجتماعي) للحصول على أوراق اعتماد ذات صلة بموجب القانون ، والتحقق من الهويات الحقيقية للمستخدمين ، وإنشاء آليات لتجديد الشائعات ودحضها ، وما إلى ذلك. ملخص قواعد مكتبة القانون في الولايات المتحدة.
- قرار بشأن تعزيز حماية المعلومات عبر الإنترنت - اعتمدت اللجنة الدائمة التابعة للكونغرس الشعبي الوطني (NPC) لجمهورية الصين الشعبية قرارًا بشأن تعزيز حماية المعلومات عبر الإنترنت - هذا هو الفعل الذي يحتوي على 12 من البنائين المعمول بها في الكيانات في القطاعين العام والخاص فيما يتعلق بجمع ومعالجة المعلومات الشخصية الإلكترونية على الإنترنت.
- قانون حماية البيانات الشخصية - قانون حماية البيانات الشخصية في جمهورية الصين ، والذي تم سنه لتنظيم جمع البيانات الشخصية ومعالجتها واستخدامها على أنها تمنع الضرر على حقوق الشخصية ، وتسهيل الاستخدام السليم للبيانات الشخصية.
إسرائيل
- تهدف مبادئ السياسة المتعلقة بالتطوير المسؤول لمجال الذكاء الاصطناعي - مسودة سياسة التنظيم والأخلاق في مجال الذكاء الاصطناعي ، مع التركيز على "الابتكار المسؤول" ، إلى ضمان تقدم الصناعة أثناء حماية المصلحة العامة
دبي
- مبادئ وأخلاقيات الذكاء الاصطناعي الذكي في دبي - مجموعة أدوات AI الأخلاقية - تم إنشاؤها لتوفير مساعدة عملية عبر النظام البيئي للمدينة. وهو يدعم الصناعة والأوساط الأكاديمية والأفراد في فهم كيفية استخدام أنظمة الذكاء الاصطناعى بمسؤولية. وهو يتألف من مبادئ وإرشادات ، وأداة للتقييم الذاتي للمطورين لتقييم منصاتهم.
الاتحاد الأوروبي
- إرشادات الأخلاقيات الخاصة بـ AI الجدير بالثقة - وثيقة المفوضية الأوروبية التي أعدها فريق الخبراء رفيعي المستوى حول الذكاء الاصطناعي (AI HLEG).
- قانون الاتحاد الأوروبي لمنظمة العفو الدولية - قانون الذكاء الاصطناعي للاتحاد الأوروبي (AI) هو إطار قانوني ينظم الذكاء الاصطناعي في الاتحاد الأوروبي ؛ كان هذا أول لائحة تم تنفيذها على الذكاء الاصطناعي (نظرة عامة).
- اللائحة العامة لائحة البيانات الناتج المحلي الإجمالي - النص القانوني لتنظيم إجمالي الناتج المحلي للاتحاد الأوروبي 2016/679 للبرلمان الأوروبي ومجلس 27 أبريل 2016 على حماية الأشخاص الطبيعيين فيما يتعلق بمعالجة البيانات الشخصية وعلى حرية هذه البيانات ، وإلغاء التوجيه 95/46/EC
- GDPR.EU GUIDE-تم تمويل المشروع الذي تموله برنامج Framework Horizon 2020 للاتحاد الأوروبي الذي يوفر موردًا للمؤسسات والأفراد الذين يبحثون عن إجمالي الناتج المحلي ، بما في ذلك مكتبة المعلومات الواضحة وحديثة لمساعدة المنظمات على تحقيق الامتثال لاتصال الناتج المحلي الإجمالي (النص القانوني).
الهند
- الاستراتيجية الوطنية للذكاء الاصطناعي - تركز النهج في هذه الورقة على كيفية استفادة الهند من التقنيات التحويلية لضمان النمو الاجتماعي والشامل بما يتماشى مع فلسفة التنمية للحكومة. بالإضافة إلى ذلك ، يجب أن تسعى الهند لتكرار هذه الحلول في البلدان النامية الأخرى التي تم وضعها بالمثل.
- إن مبادئ AI المسؤولة-تتضمن الورقة رؤى وردود الفعل والخبرات الموحدة من خلال المشاورات بين الوزارة ، والمشاورات العالمية المتعددة للأصحاب المتعددة على نطاق واسع وسلسلة من 1-1 مشاورات مع خبراء أخلاقيات الذكاء الاصطناعى في الهند وعلى مستوى العالم ، بالإضافة إلى مشاورات عامة أوسع ، أجريت على مدار الـ 15 شهرًا الماضية. تهدف هذه الورقة إلى أن تكون بمثابة خريطة طريق أساسية للنظام الإيكولوجي لمنظمة العفو الدولية ، وتشجع اعتماد الذكاء الاصطناعي بطريقة مسؤولة في الهند وبناء ثقة عامة في استخدام هذه التكنولوجيا ، مما يضع فكرة "الذكاء الاصطناعي للجميع" في جوهرها.
المكسيك
- اقتراح الأجندة الوطنية للذكاء الاصطناعي للمكسيك - توصيات للالتزام متعدد الأوجه بتوجيه تطوير واستخدام الذكاء الاصطناعي في المكسيك بطريقة أخلاقية ومسؤولة.
سنغافورة
- قانون حماية البيانات 2012 - قانون حماية البيانات الشخصية 2012 ("ACT") يحدد القانون الخاص بحماية البيانات في سنغافورة. بصرف النظر عن إنشاء نظام عام للحماية من البيانات ، ينظم القانون أيضًا ممارسات التسويق عبر الهاتف.
- الحماية من قانون الأكاذيب والتلاعب عبر الإنترنت 2019 - قانون لمنع التواصل الإلكتروني في سنغافورة لبيانات الحقيقة الخاطئة ، لقمع الدعم لآثار هذه الاتصالات ومواجهتها ، لتحقيق الحماية من استخدام الحسابات عبر الإنترنت لمثل هذه الاتصالات وللتعامل مع المعلومات ، لتمكين التدابير التي يجب اتخاذها لتعزيز شفافية الإعلانات السياسية عبر الإنترنت وللحصول على المسائل ذات الصلة.
الإمارات العربية المتحدة
- الإستراتيجية الوطنية في الإمارات العربية المتحدة - تحدد هذه الورقة طموحات دولة الإمارات العربية المتحدة لتصبح متجانسة سريعة لتقنيات الذكاء الاصطناعى الناشئة في جميع أنحاء الحكومة ، وكذلك جذب أفضل مواهب الذكاء الاصطناعي لتجربة التقنيات الجديدة والعمل في نظام بيئي متطور وآمن لحل المشكلات المعقدة.
الولايات المتحدة الأمريكية
- الأمر التنفيذي للبيت الأبيض في الذكاء الاصطناعي - الأمر التنفيذي للولايات المتحدة الأمريكية حول التطوير الآمن والآمن والجدير بالثقة واستخدام الذكاء الاصطناعي
- قانون خصوصية المستهلك في كاليفورنيا (CCPA) - نص قانوني لقانون خصوصية المستهلك في كاليفورنيا
- إطارات درع الخصوصية في الاتحاد الأوروبي والولايات المتحدة الأمريكية-تم تصميم إطارات درع الخصوصية في الاتحاد الأوروبي والولايات المتحدة الأمريكية والأسوياء من قبل وزارة التجارة الأمريكية والمفوضية الأوروبية والإدارة السويسرية لتزويد الشركات على كلا الجانبين من المحيط الأطلسي بآلية لتلتزم بمتطلبات حماية البيانات عند نقل البيانات الشخصية من الاتحاد الأوروبي إلى الولايات المتحدة إلى الولايات المتحدة لدعم التحول.
- قانون الإبلاغ عن الائتمان العادل 2018 - قانون الإبلاغ العادل هو قانون اتحادي ينظم تحصيل معلومات الائتمان للمستهلكين والوصول إلى تقارير الائتمان الخاصة بهم.
- قانون Gramm-Leach-Billey (للمؤسسات المالية)-يتطلب قانون Graham-Leach-Billey مؤسسات مالية (الشركات التي تقدم للمستهلكين مشاريع أو خدمات مثل القروض أو المشورة المالية أو الاستثمارية أو التأمين) لشرح ممارسات مشاركة المعلومات لعملائها ولحماية البيانات الحساسة.
- قانون قابلية التأمين الصحي والمساءلة لعام 1996 - طلب HIPAA من وزيرة وزارة الصحة والخدمات الإنسانية الأمريكية تطوير لوائح تحمي خصوصية وأمن معلومات صحية معينة ، والتي نشرت بعد ذلك HHS ما يعرف بقاعدة خصوصية HIPAA ، وقاعدة أمان HIPAA.
- الأمر التنفيذي بشأن الحفاظ على القيادة الأمريكية في الذكاء الاصطناعى - تفويض رسمي من قبل رئيس الولايات المتحدة
- قانون الخصوصية لعام 1974 - قانون الخصوصية لعام 1974 الذي ينشئ مدونة لممارسات المعلومات العادلة التي تحكم جمع المعلومات وصيانتها واستخدامها ونشرها حول الأفراد التي يتم الاحتفاظ بها في أنظمة السجلات من قبل الوكالات الفيدرالية.
- قانون حماية الخصوصية لعام 1980 - يحمي قانون حماية الخصوصية لعام 1980 الصحفيين المطلوبة للتسليم إلى إنفاذ القانون أي منتجات عمل ومواد وثائقية ، بما في ذلك المصادر ، قبل نشرها للجمهور.
- مبادئ وزارة الدفاع الأخلاقية لمنظمة العفو الدولية - إرشادات وزارة الدفاع الأمريكية المسؤولة عن الذكاء الاصطناعي لمقاولي التكنولوجيا. توفر الإرشادات عملية خطوة بخطوة لمتابعة مراحل التخطيط والتطوير والنشر في دورة الحياة التقنية.
المملكة المتحدة
- لائحة الذكاء الاصطناعى في المملكة المتحدة: نهج مؤيد للالتفاف-تفصل هذه الورقة البيضاء عن خطط المملكة المتحدة لتنفيذ نهج مؤيد للانصداد لتنظيم الذكاء الاصطناعي.
- قانون حماية البيانات في المملكة المتحدة لعام 2018 - يسن DPA 2018 الناتج المحلي الإجمالي إلى قانون المملكة المتحدة ، ولكن في القيام بذلك ، شملت "عمليات" مختلفة "على النحو المسموح بها من قبل الناتج المحلي الإجمالي ، مما يؤدي إلى اختلاف بعض المفاتيح (على الرغم من أنها صغيرة لا تؤثر على تأثير غير مهم وقد يكون لها تأثير أكبر بعد Brexit).
- دليل مكتب مفوض المعلومات لحماية البيانات-هذا الدليل مخصص لموظفي حماية البيانات وغيرهم ممن يتحملون مسؤولية يومية عن حماية البيانات. إنه يهدف إلى منظمات صغيرة ومتوسطة الحجم ، ولكنها قد تكون مفيدة للمنظمات الكبيرة أيضًا.
أطر ومبادئ المستوى العالي
- AI & Machine Learning 8 مبادئ لـ ML المسؤولة - جمع معهد التعلم الأخلاقي والآلي 8 مبادئ للتعلم الآلي المسؤول الذي سيتم تبنيه من قبل الأفراد وفرق التسليم التي تقوم بتصميم أنظمة التعلم الآلي وبناءها وتشغيلها.
- تقييم للإرشادات - أخلاقيات الأخلاق - ورقة بحثية تحلل مبادئ الأخلاقيات المتعددة
- رابطة مدونة أخلاقيات آلات الكمبيوتر والسلوك المهني - هذا هو مدونة الأخلاقيات التي تم جمعها في عام 1992 من قبل جمعية آلات الكمبيوتر وتحديثها في عام 2018. تم تصميم الرمز لإلهام وتوجيه السلوك الأخلاقي لجميع أخصائيي الحوسبة ، بما في ذلك الممارسين الحاليين والطموحين ، والمدربين ، والمؤسسين ، وأي شخص يستخدمون تقنية الحساب في طريقة التأثير. بالإضافة إلى ذلك ، يعمل الرمز كأساس للعلاج عند حدوث انتهاكات. يتضمن القانون مبادئ صياغة كبيانات للمسؤولية ، بناءً على فهم أن الصالح العام هو دائمًا الاعتبار الأساسي.
- من ما إلى كيفية: مراجعة أولية لأدوات الأخلاقيات المتوفرة للجمهور ، والأساليب والبحث لترجمة المبادئ إلى ممارسات - ورقة نشرتها المنجنيق الرقمي في المملكة المتحدة تهدف إلى تحديد الفجوة بين المبادئ وتطبيقاتها العملية وتقديمها.
- إرشادات المفوضية الأوروبية الخاصة بالوكالة الذكاء الاصطناعى الجديرة بالثقة - إرشادات الأخلاقيات للذكاء الاصطناعي الجديرة بالثقة (AI) هي وثيقة أعدها فريق الخبراء رفيع المستوى حول الذكاء الاصطناعي (AI HLEG). أنشأت المفوضية الأوروبية هذه مجموعة الخبراء المستقلة في يونيو 2018 ، كجزء من استراتيجية الذكاء الاصطناعي التي تم الإعلان عنها في وقت سابق من ذلك العام.
- تصميم IEEE المحاذاة أخلاقيا - رؤية لتحديد أولويات الرفاهية البشرية مع الذكاء الاصطناعي والأنظمة المستقلة التي تشجع التقنيات على إعطاء الأولوية للاعتبارات الأخلاقية في إنشاء التقنيات الذكية المستقلة.
- إعلان مونتريال عن التطوير المسؤول عن الذكاء الاصطناعي - المبادئ والقيم الأخلاقية التي تعزز المصالح الأساسية للأشخاص والمجموعة التي تم إنشاؤها كمبادرة من قبل Université de Montréal
- توصيات أكسفورد حول حوكمة الذكاء الاصطناعى - مجموعة من التوصيات من معهد مستقبل الإنسانية في أوكسفورد والتي تركز على البنية التحتية والسمات اللازمة لتصميم وتطوير وبحث فعال حول بناء العمل المستمر وتنفيذ معايير الذكاء الاصطناعي.
- قامت AI - PWC المسؤولة من PWC بتجميع دراسة استقصائية ومجموعة من المبادئ التي تجري بعض المجالات الرئيسية التي حددها عن الذكاء الاصطناعي المسؤول.
- مبادئ حوكمة حكومة حماية البيانات في سنغافورة - جمعت لجنة حماية البيانات الشخصية التابعة لحكومة سنغافورة مجموعة من المبادئ التوجيهية نحو حماية البيانات والمشاركة البشرية في الأنظمة الآلية ، وتأتي مع تقرير يكسر المبادئ والدوافع التوجيهية.
- إعلان تورنتو يحمي الحق في المساواة وعدم التمييز في أنظمة التعلم الآلي عن طريق الوصول.
- مبادئ إطار أخلاقيات البيانات التابعة لحكومة المملكة المتحدة - مورد جمعته وزارة الرقمية والثقافة والوسائط والرياضة (DCMS) التي تحدد نظرة عامة على أخلاقيات البيانات ، إلى جانب إطار عمل من 7 مقدمة.
- ميثاق الخوارزمية لـ Aotearoa New Zealand-يعد ميثاق الخوارزمية لـ Aotearoa New Zealand عملًا متطورًا يحتاج إلى الاستجابة للتكنولوجيات الناشئة وأيضًا أن يكون مناسبًا للوكالات الحكومية.
- Montreal AI Ethics Institute State of AI Ethics June 2020 Report - وهو مورد جمعه معهد Montreal AI Ethics الذي يجسد أكثر الأبحاث والإبلاغ الأكثر صلة في مجال أخلاقيات الذكاء الاصطناعي بين مارس 2020 ويونيو 2020.
- تقرير Montreal AI Ethics Institute of AI Ethics October 2020 - وهو مورد جمعه معهد Montreal AI Ethics الذي يلتقط أكثر الأبحاث والإبلاغ الأكثر صلة في مجال أخلاقيات الذكاء الاصطناعي بين يوليو 2020 وأكتوبر 2020.
- أفضل الممارسات التقنية والتنظيمية - وهو مورد تم تجميعه من قبل الأساس لأفضل الممارسات في التعلم الآلي (FBPML) مع إرشادات تقنية (مثل الإنصاف وعدم التمييز ، وإدارة وصيانة ، وجودة البيانات ، وتتبع المنتج ، والشرح) والإرشادات التنظيمية (مثل حوكمة البيانات ، وإدارة المنتجات ، وإدارة الموارد البشرية ، والامتثال). مساهمات المجتمع موضع ترحيب عبر FBPML Wiki.
- فهم أخلاقيات وسلامة الذكاء الاصطناعي - دليل للتصميم المسؤول وتنفيذ أنظمة الذكاء الاصطناعى في القطاع العام من قبل ديفيد ليزلي من معهد آلان تورينج.
- إعلان عن ممارسة البيانات المسؤولة والذكاء - رؤية مشتركة لما يبدو أفضل ممارسات في البيانات من خلال فتح البيانات مانشستر.
- توصية بشأن أخلاقيات الذكاء الاصطناعي - توصية اليونسكو هي إطار دولي شامل يهدف إلى تشكيل تطوير واستخدام تقنيات الذكاء الاصطناعي وإنشاء مجموعة من القيم بما يتماشى مع تعزيز وحماية حقوق الإنسان ، والكرامة الإنسانية ، والاستدامة البيئية. تم تبنيها من قبل 193 دولة عضو في المؤتمر العام لليونسكو في نوفمبر 2021. لمزيد من المعلومات ، راجع منشور اليونسكو 2023 حول الحقائق الرئيسية هنا.
العمليات وقوائم المراجعة
- AI RFX Procurement Framework - إطار عمل للمشتريات لتقييم نضج أنظمة التعلم الآلي الذي تم تجميعه من قبل الفرق الوظيفية المتقاطعة من الأكاديميين وممارسي الصناعة والأفراد التقنيين في معهد الذكاء الاصطناعي والتعلم الآلي لتمكين ممارسي الصناعة الذين يتطلعون إلى شراء موردي التعلم الآلي.
- قائمة مراجعة لمشاريع علوم البيانات - Deon by Drivendata هي أداة سطر أوامر تتيح لك إضافة قائمة مراجعة أخلاقية بسهولة إلى مشاريع علوم البيانات الخاصة بك.
- تصميم قائمة مراجعة واتفاقية تجارب الذكاء الاصطناعى الأخلاقي - توثيق لتوجيه تطوير أنظمة الذكاء الاصطناعي (AI) المساءلة والمخطئة والاحترام والآمن والصادق والاستخدام مع فريق متنوع يتماشى مع الأخلاق المشتركة. جامعة كارنيجي ميلون ، معهد هندسة البرمجيات.
- مجموعة أدوات OS الأخلاقية - مجموعة أدوات تتسرب إلى 8 مناطق مخاطرة لتقييم التحديات المحتملة التي قد يواجهها فريق التكنولوجيا ، إلى جانب 14 سيناريوهات لتوفير أمثلة ، و 7 استراتيجيات للتقويم في المستقبل للمساعدة في اتخاذ إجراء أخلاقي.
- Canvas Ethics-مورد مستوحى من قماش الأعمال التقليدي ، والذي يوفر طريقة تفاعلية لطرح المخاطر والفرص والحلول المحتملة للتحديات الأخلاقية التي قد تواجه مشروعًا باستخدام نهج ما بعد الملاحظة.
- تصميم Kat Zhou الأخلاقي - مجموعة من ورش العمل التي يمكن تنظيمها عبر الفرق لتحديد التحديات وتقييم المخاطر الحالية واتخاذ إجراءات بشأن القضايا المحتملة حول التحديات الأخلاقية التي قد تواجه.
- مجموعة الأدوات الأخلاقية في Markula Center لممارسة الهندسة/التصميم - مجموعة أدوات عملية ومفهومة بها سبعة مكونات لمساعدة الممارسين ، والحكم على الأسباب الأخلاقية التي يعملون فيها.
- مجموعة أدوات الأخلاق والخوارزميات في مدينة سان فرانسيسكو - إطار إدارة للمخاطر لقادة الحكومة والموظفين الذين يعملون مع الخوارزميات ، وتوفير عملية تقييم جزئيين بما في ذلك عملية تقييم الخوارزمية ، وعملية لمعالجة المخاطر.
- مصنف أخلاقيات البيانات التابع لحكومة المملكة المتحدة - مورد جمعته وزارة الرقمية والثقافة والوسائط والرياضة (DCMS) التي توفر مجموعة من الأسئلة التي يمكن أن يطرحها الممارسون في القطاع العام ، والتي تتناول كل من المبادئ في مبادئ إطار أخلاقيات البيانات الخاصة بهم.
- المبادئ التوجيهية للمنتدى الاقتصادي العالمي للمشتريات - جمعت WEF مجموعة من الإرشادات للحكومات لتتمكن من شراء الأنظمة المتعلقة بالتعلم الآلي بأمان وموثوقية ، والتي تم تجربتها مع حكومة المملكة المتحدة.
- ضمان التعلم الآلي - إلقاء نظرة سريعة على ضمان التعلم الآلي: عملية التسجيل والتفاهم والتحقق ومراجعة نماذج تعلم الآلة ومعاملاتها.
- قائمة مراجعة ODEP لأصحاب العمل: تسهيل توظيف الأشخاص ذوي الإعاقة من خلال استخدام أنظمة فحص ERECRUITING ، بما في ذلك AI - شبكة العمل وشبكة الموارد حول إدراج العجز (كسب) وشراكة في مجال التوظيف والتكنولوجيا التي يمكن الوصول إليها (PEAT) ، والتي يتم تمويلها من خلال إدارة العمل في وزارة العمل الأمريكية (ODEP) ، تم التعاون في قائمة العمل. توفر قائمة المراجعة توجيهًا للقيادة ، وموظفي الموارد البشرية ، ومديري تكافؤ فرص العمل ، وموظفي المشتريات لمراجعة أدوات الذكاء الاصطناعى المستخدمة في توظيف وتقييم المرشحين للإنصاف وإدراج الأفراد ذوي الإعاقة.
- قائمة مراجعة الإنصاف من Microsoft AI
- إطار إدارة المخاطر في الولايات المتحدة - يهدف الإطار إلى مساعدة المطورين والمستخدمين والمقيمين لأنظمة الذكاء الاصطناعى على إدارة مخاطر الذكاء الاصطناعي التي يمكن أن تؤثر على الأفراد أو المنظمات أو المجتمع أو البيئة.
أدوات تفاعلية وعملية
- مجموعة أدوات Aequitas 'Bias & Fairness Audit-تقرير التحيز مدعوم من Aequitas ، مجموعة أدوات تدقيق التحيز مفتوحة المصدر لمطوري التعلم الآلي ، والمحللين ، وأدوات السياسات لتدقيق نماذج التعلم الآلي للتمييز والتحيز ، واتخاذ قرارات مستنيرة ومستندة حول تطوير وتنمية المخاطر المتوقعة.
- قائمة الإنتاج الرائعة للتعلم الآلي - قائمة بالأدوات والأطر التي تدعم تصميم وتطوير وتشغيل أنظمة التعلم الآلي الإنتاجي ، الذي يحتفظ به معهد التعلم الآلي والآلة الأخلاقية حاليًا.
- Cape Python - قم بتطبيق تقنيات تعزيز الخصوصية بسهولة لمهام علوم البيانات والتعلم الآلي في Pandas و Spark. يمكن استخدامها بالاقتران مع Cape Core للتعاون في سياسات الخصوصية وتوزيع هذه السياسات لمشاريع البيانات عبر الفرق والمنظمات.
- Exploy Toolbox - معهد AI AI والتعلم الآلي لإصدار موسع من عملية علوم البيانات التقليدية التي تركز على التحيز الخوارزمي والشرح ، لضمان تخفيف خط الأساس حول التحيزات غير المرغوب فيها.
- الطب الشرعي الدهون هي مجموعة أدوات Python لتقييم الإنصاف والمساءلة والشفافية في أنظمة الذكاء الاصطناعي. تم تصميمه على قمة Scipy و Numpy ، وتوزيعه تحت ترخيص BSD المكون من 3 أبناء (BSD جديد).
- IBM's AI Explability 360 Open Source Toolkit - هذه هي مجموعة أدوات IBM التي تتضمن عددًا كبيرًا من الأمثلة والأوراق البحثية والعروض التوضيحية التي تنفذ العديد من الخوارزميات التي توفر رؤى حول الإنصاف في أنظمة التعلم الآلي.
- Linux Foundation AI Landscape - القائمة الرسمية للأدوات في مشهد الذكاء الاصطناعى برعاية مؤسسة Linux ، والتي تحتوي على أدوات وأطر وأطواق مستخدمة جيدًا.
- اتخاذ إجراءات بشأن الأخلاق الرقمية من Avanade
- Microsoft Fairlearn - مجموعة أدوات مفتوحة المصدر لتقييم وتحسين الإنصاف في منتجات التعلم الآلي الذي طورته Microsoft
- Microsoft تفسير ML - مجموعة أدوات مفتوحة المصدر لتحسين قابلية التفسير/التفسير التي طورتها Microsoft
- Alibi - مكتبة Python مفتوحة المصدر لفحص نموذج التعلم الآلي وتفسيره.
مبادرات معايير الصناعة
- قواعد السلوك المهني ACS - PDF - منظمة تكنولوجيا المعلومات والاتصالات الأسترالية (تكنولوجيا المعلومات والاتصالات) منظمة مهنية.
- رابطة مدونة أخلاقيات آلات الكمبيوتر والسلوك المهني - هذا هو مدونة الأخلاقيات التي تم جمعها في عام 1992 من قبل جمعية آلات الكمبيوتر وتحديثها في عام 2018. تم تصميم الرمز لإلهام وتوجيه السلوك الأخلاقي لجميع أخصائيي الحوسبة ، بما في ذلك الممارسين الحاليين والطموحين ، والمدربين ، والمؤسسين ، وأي شخص يستخدمون تقنية الحساب في طريقة التأثير. بالإضافة إلى ذلك ، يعمل الرمز كأساس للعلاج عند حدوث انتهاكات. يتضمن القانون مبادئ صياغة كبيانات للمسؤولية ، بناءً على فهم أن الصالح العام هو دائمًا الاعتبار الأساسي.
- مبادرة IEEE العالمية للاعتبارات الأخلاقية في الذكاء الاصطناعي (AI) والأنظمة المستقلة (AS) - تركز مشاريع المعايير المعتمدة على IEEE على وجه التحديد على مبادئ التصميم المحاذاة أخلاقياً ، وتشمل 14 (P700X) التي تغطي موضوعات من جمع البيانات إلى الخصوصية ، إلى الحافلات التي تتجاوزها.
- معايير ISO/IEC للذكاء الاصطناعي - مبادرة ISO لمعايير الذكاء الاصطناعي ، والتي تشمل مجموعة كبيرة من المعايير اللاحقة التي تتراوح عبر البيانات الكبيرة ، ومصطلحات الذكاء الاصطناعي ، وأطر التعلم الآلي ، وما إلى ذلك.
الدورات التدريبية عبر الإنترنت وموارد التعلم
- دورة AI الآمنة والخاصة من Udacity-دورة مجانية من قبل Udacity التي تقدم ثلاث تقنيات متطورة للحفاظ على الخصوصية الذكاء الاصطناعي: التعلم الموحدة ، الخصوصية التفاضلية ، والحساب المشفر.
- أخلاقيات علوم البيانات - دورة مجانية من قبل البروفيسور جاجاديش من جامعة ميشيغان (عبر كورسيرا) التي تغطي ملكية البيانات والخصوصية وعدم الكشف عن هويتها وصلاحية البيانات والإنصاف الخوارزمي.
- أخلاقيات البيانات العملية - المسار المجاني لراشيل توماس من معهد البيانات بجامعة سان فرانسيسكو (عبر Fast.ai) الذي يغطي المعلومات المضللة والتحيز والإنصاف ، أسس الأخلاق ، الخصوصية والمراقبة ، الاستعمار الخوارزمي
- التحيز والتمييز في الذكاء الاصطناعى - المسار الحر من قبل جامعة مونتريال وإيفادو (عبر EDX) حول الآثار التمييزية لاتخاذ القرارات الخوارزمية والتعلم الآلي المسؤول (الاستراتيجيات المؤسسية والتقنية لتحديد التحيز ومعالجتها).
- مقدمة إلى أخلاقيات الذكاء الاصطناعي - مسار مجاني من قبل Kaggle تقديم مفاهيم الأخلاق الأساسية في الذكاء الاصطناعي وكيفية التخفيف من المشكلات ذات الصلة.
- مقدمة عن سلامة الذكاء الاصطناعي والأخلاق والمجتمع - التي طورها دان هندريكس ، مدير مركز سلامة الذكاء الاصطناعي ، يهدف هذا الكتاب المدرسي المجاني عبر الإنترنت إلى تقديم مقدمة يمكن الوصول إليها للطلاب والممارسين وغيرهم الذين يتطلعون إلى فهم القضايا المتعلقة بسلامة وأخلاقيات الذكاء الاصطناعي بشكل أفضل. بصرف النظر عن القراءة عبر الإنترنت ، يتوفر هذا الكتاب كـ PDF هنا وأيضًا كدورة افتراضية مجانية هنا.
النشرات الإخبارية للأبحاث والصناعة
- استيراد الذكاء الاصطناعى - رسالة إخبارية برعاية جاك كلارك من Openai والتي ترجع أكثر أبحاث الذكاء الاصطناعي للاعتبار ، بالإضافة إلى القضايا المجتمعية ذات الصلة التي تتقاطع مع أبحاث الذكاء الاصطناعي الفني.
- أفكار مات بينهما - النشرة الإخبارية برعاية رائد الأعمال ، الرئيس التنفيذي الأول مات كليفورد التي توفر تحليلًا نقديًا منسقًا حول الموضوعات السياسية الجغرافية والشركات الناشئة في مجال التكنولوجيا العميقة والاقتصاد وما بعده.
- مهندس التعلم الآلي - رسالة إخبارية برعاية معهد منظمة العفو الدولية والتعلم الآلي الذي يحتوي على مقالات منسقة ، ودروس تعليمية ومدونات من أخصائيي التعلم الآليين ذوي الخبرة ، ويتضمن رؤى حول أفضل الممارسات والأدوات والتقنيات في توضيح التعلم الآلي ، والاستنساخ ، وتقييم النموذج ، وتحليل الميزات وما بعده.
- Montreal AI Ethics Institute Weekly AI Ethics Newsletter - رسالة إخبارية أسبوعية برعاية Abhishek Gupta وفريقه في معهد Montreal AI Ethics الذي يعرض ملخصات يمكن الوصول إليها من الأوراق التقنية والأكاديمية إلى جانب التعليق على الأحدث في مجال أخلاقيات الذكاء الاصطناعي.
- AI Safety Newsletter - رسالة إخبارية أسبوعية من مركز سلامة الذكاء الاصطناعى تقدم تحديثات حول أبحاث الذكاء الاصطناعي والسياسة وغيرها من المجالات لجمهور غير تقني.
- ML Safety Newsletter - رسالة إخبارية من مركز سلامة الذكاء الاصطناعى توفر الغطس العميق في بعض الأحيان عن النتائج الرئيسية في أبحاث الذكاء الاصطناعى الفني.