مجموعة أدوات AI Fairness 360 عبارة عن مكتبة مفتوحة المصدر وقابلة للتوسيع تحتوي على تقنيات طورها مجتمع البحث للمساعدة في اكتشاف التحيز في نماذج التعلم الآلي وتخفيفه طوال دورة حياة تطبيق الذكاء الاصطناعي. تتوفر حزمة AI Fairness 360 في كل من لغة Python وR.
تتضمن حزمة AI Fairness 360
توفر تجربة AI Fairness 360 التفاعلية مقدمة لطيفة للمفاهيم والقدرات. تقدم البرامج التعليمية ودفاتر الملاحظات الأخرى مقدمة أعمق موجهة نحو علماء البيانات. واجهة برمجة التطبيقات الكاملة متاحة أيضًا.
نظرًا لكونها مجموعة شاملة من الإمكانات، فقد يكون من المربك معرفة المقاييس والخوارزميات الأكثر ملاءمة لحالة استخدام معينة. وللمساعدة، قمنا بإنشاء بعض المواد الإرشادية التي يمكن الرجوع إليها.
لقد قمنا بتطوير الحزمة مع أخذ القابلية للتوسعة في الاعتبار. هذه المكتبة لا تزال قيد التطوير. نحن نشجع مساهمة مقاييسك وتفسيراتك وخوارزميات إزالة التحيز.
تواصل معنا على Slack (الدعوة هنا)!
install.packages( " aif360 " )
لمزيد من التفاصيل حول إعداد R، يرجى الرجوع إلى التعليمات هنا.
تكوينات بايثون المدعومة:
نظام التشغيل | نسخة بايثون |
---|---|
ماك | 3.8 - 3.11 |
أوبونتو | 3.8 - 3.11 |
ويندوز | 3.8 - 3.11 |
يتطلب AIF360 إصدارات محددة من العديد من حزم Python والتي قد تتعارض مع مشاريع أخرى على نظامك. يوصى بشدة باستخدام مدير بيئة افتراضية لضمان تثبيت التبعيات بأمان. إذا كانت لديك مشكلة في تثبيت AIF360، فجرّب ذلك أولاً.
يوصى باستخدام Conda لجميع التكوينات على الرغم من أن Virtualenv قابل للتبديل بشكل عام لأغراضنا. يعد Miniconda كافيًا (راجع الفرق بين Anaconda وMiniconda إذا كنت مهتمًا بالفضول) إذا لم يكن لديك conda مثبتًا بالفعل.
ثم، لإنشاء بيئة Python 3.11 جديدة، قم بتشغيل:
conda create --name aif360 python=3.11
conda activate aif360
يجب أن تبدو القشرة الآن بالشكل (aif360) $
. لإلغاء تنشيط البيئة، قم بتشغيل:
(aif360)$ conda deactivate
سيعود الموجه إلى $
.
pip
لتثبيت أحدث إصدار ثابت من PyPI، قم بتشغيل:
pip install aif360
ملاحظة: تتطلب بعض الخوارزميات تبعيات إضافية (على الرغم من أن المقاييس ستعمل جميعها خارج الصندوق). للتثبيت مع بعض تبعيات الخوارزمية المضمنة، قم بتشغيل، على سبيل المثال:
pip install ' aif360[LFR,OptimPreproc] '
أو، للحصول على وظائف كاملة، قم بتشغيل:
pip install ' aif360[all] '
خيارات الإضافات المتاحة هي: OptimPreproc, LFR, AdversarialDebiasing, DisparateImpactRemover, LIME, ART, Reductions, FairAdapt, inFairness, LawSchoolGPA, notebooks, tests, docs, all
إذا واجهت أي أخطاء، فجرّب خطوات استكشاف الأخطاء وإصلاحها.
استنساخ أحدث إصدار من هذا المستودع:
git clone https://github.com/Trusted-AI/AIF360
إذا كنت ترغب في تشغيل الأمثلة، فقم بتنزيل مجموعات البيانات الآن وضعها في المجلدات الخاصة بها كما هو موضح في aif360/data/README.md.
ثم انتقل إلى الدليل الجذر للمشروع وقم بتشغيل:
pip install --editable ' .[all] '
لتشغيل أمثلة دفاتر الملاحظات، أكمل خطوات التثبيت اليدوي المذكورة أعلاه. وبعد ذلك، إذا لم تستخدم الخيار [all]
، فقم بتثبيت المتطلبات الإضافية كما يلي:
pip install -e ' .[notebooks] '
أخيرًا، إذا لم تكن قد قمت بذلك بالفعل، فقم بتنزيل مجموعات البيانات كما هو موضح في aif360/data/README.md.
إذا واجهت أي أخطاء أثناء عملية التثبيت، فابحث عن مشكلتك هنا وجرب الحلول.
راجع صفحة تثبيت TensorFlow مع النقطة للحصول على إرشادات مفصلة.
ملحوظة: نحن نطلب 'tensorflow >= 1.13.1'
.
بمجرد تثبيت Tensorflow، حاول إعادة التشغيل:
pip install ' aif360[AdversarialDebiasing] '
TensorFlow مطلوب فقط للاستخدام مع فئة aif360.algorithms.inprocessing.AdversarialDebiasing
.
على نظام التشغيل MacOS، قد يتعين عليك أولاً تثبيت أدوات سطر أوامر Xcode إذا لم تقم بذلك من قبل:
xcode-select --install
على نظام التشغيل Windows، قد تحتاج إلى تنزيل Microsoft C++ Build Tools لـ Visual Studio 2019. راجع صفحة تثبيت CVXPY للحصول على الإرشادات المحدثة.
ثم حاول إعادة التثبيت عبر:
pip install ' aif360[OptimPreproc] '
CVXPY مطلوب فقط للاستخدام مع فئة aif360.algorithms.preprocessing.OptimPreproc
.
يحتوي دليل examples
على مجموعة متنوعة من دفاتر ملاحظات jupyter التي تستخدم AI Fairness 360 بطرق مختلفة. توضح كل من البرامج التعليمية والعروض التوضيحية كود العمل باستخدام AIF360. توفر البرامج التعليمية مناقشة إضافية ترشد المستخدم خلال الخطوات المختلفة لدفتر الملاحظات. اطلع على التفاصيل حول البرامج التعليمية والعروض التوضيحية هنا
يتوفر وصف فني لـ AI Fairness 360 في هذه الورقة. يوجد أدناه إدخال bibtex لهذه الورقة.
@misc{aif360-oct-2018,
title = "{AI Fairness} 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias",
author = {Rachel K. E. Bellamy and Kuntal Dey and Michael Hind and
Samuel C. Hoffman and Stephanie Houde and Kalapriya Kannan and
Pranay Lohia and Jacquelyn Martino and Sameep Mehta and
Aleksandra Mojsilovic and Seema Nagar and Karthikeyan Natesan Ramamurthy and
John Richards and Diptikalyan Saha and Prasanna Sattigeri and
Moninder Singh and Kush R. Varshney and Yunfeng Zhang},
month = oct,
year = {2018},
url = {https://arxiv.org/abs/1810.01943}
}
شوكة التطوير لـ Rich Group Fairness ( inprocessing/gerryfair_classifier.py
) موجودة هنا. المساهمات مرحب بها ويمكن العثور على قائمة المساهمات المحتملة من المؤلفين هنا.