مجموعة أدوات AI Explanability 360 هي مكتبة مفتوحة المصدر تدعم إمكانية التفسير وقابلية الشرح لمجموعات البيانات ونماذج التعلم الآلي. تتضمن حزمة AI Explanability 360 Python مجموعة شاملة من الخوارزميات التي تغطي أبعادًا مختلفة للتفسيرات جنبًا إلى جنب مع مقاييس تفسير الوكيل. تدعم مجموعة أدوات AI التفسيرية 360 البيانات الجدولية والنصية والصور والسلاسل الزمنية.
توفر تجربة AI التفسيرية 360 التفاعلية مقدمة لطيفة للمفاهيم والقدرات من خلال الاطلاع على مثال لحالة الاستخدام لمختلف شخصيات المستهلكين. تقدم البرامج التعليمية ودفاتر الملاحظات النموذجية مقدمة أعمق وموجهة نحو علماء البيانات. واجهة برمجة التطبيقات الكاملة متاحة أيضًا.
لا يوجد نهج واحد لقابلية التفسير يعمل بشكل أفضل. هناك العديد من الطرق للشرح: البيانات مقابل النموذج، والتفسير المباشر مقابل التفسير اللاحق، والمحلية مقابل العالمية، وما إلى ذلك. لذلك قد يكون من المربك معرفة أي الخوارزميات هي الأكثر ملاءمة لحالة استخدام معينة. وللمساعدة، قمنا بإنشاء بعض المواد الإرشادية وشجرة التصنيف التي يمكن الرجوع إليها.
لقد قمنا بتطوير الحزمة مع أخذ القابلية للتوسعة في الاعتبار. هذه المكتبة لا تزال قيد التطوير. نحن نشجعك على المساهمة بخوارزميات الشرح والمقاييس وحالات الاستخدام. للبدء كمساهم، يرجى الانضمام إلى مجتمع AI التفسيري 360 على Slack عن طريق طلب دعوة هنا. يرجى مراجعة التعليمات للمساهمة بالكود ودفاتر ملاحظات بايثون هنا.
الكلمة المفتاحية التثبيت | المفسرون | نظام التشغيل | نسخة بايثون |
---|---|---|---|
cofrnet | cofrnet | ماك، أوبونتو، ويندوز | 3.10 |
متناقض | جيم، جيم_ماف | ماك، أوبونتو، ويندوز | 3.6 |
com.dipvae | com.dipvae | ماك، أوبونتو، ويندوز | 3.10 |
com.gce | com.gce | ماك، أوبونتو، ويندوز | 3.10 |
تصدق | تصدق | ماك، أوبونتو، ويندوز | 3.10 |
إمد | إمد | ماك، أوبونتو | 3.10 |
الجير | الجير | ماك، أوبونتو، ويندوز | 3.10 |
مطابقة | مطابقة | ماك، أوبونتو، ويندوز | 3.10 |
على النقيض | على النقيض | ماك، أوبونتو، ويندوز | 3.10 |
com.profwt | com.profwt | ماك، أوبونتو، ويندوز | 3.6 |
بروتوداش | بروتوداش | ماك، أوبونتو، ويندوز | 3.10 |
rbm | بركج، جلرم | ماك، أوبونتو، ويندوز | 3.10 |
Rule_induction | الخارق | ماك، أوبونتو، ويندوز | 3.10 |
شكل | شكل | ماك، أوبونتو، ويندوز | 3.6 |
تيد | تيد | ماك، أوبونتو، ويندوز | 3.10 |
tice | tice | ماك، أوبونتو، ويندوز | 3.10 |
com.tslime | com.tslime | ماك، أوبونتو، ويندوز | 3.10 |
com.tssaliency | com.tssaliency | ماك، أوبونتو، ويندوز | 3.10 |
يتطلب AI Explanability 360 إصدارات محددة من العديد من حزم Python التي قد تتعارض مع مشاريع أخرى على نظامك. يوصى بشدة باستخدام مدير بيئة افتراضية لضمان تثبيت التبعيات بأمان. إذا كانت لديك مشكلة في تثبيت مجموعة الأدوات، فجرّب ذلك أولاً.
يوصى باستخدام Conda لجميع التكوينات على الرغم من أن Virtualenv قابل للتبديل بشكل عام لأغراضنا. Miniconda كافٍ (انظر الفرق بين Anaconda و Miniconda إذا كنت فضوليًا) ويمكن تثبيته من هنا إذا لم يكن لديك بالفعل.
بعد ذلك، قم بإنشاء بيئة بايثون جديدة بناءً على خوارزميات الشرح التي ترغب في استخدامها من خلال الرجوع إلى الجدول أعلاه. على سبيل المثال، بالنسبة لـ python 3.10، استخدم الأمر التالي:
conda create --name aix360 python=3.10
conda activate aix360
يجب أن تبدو القشرة الآن بالشكل (aix360) $
. لإلغاء تنشيط البيئة، قم بتشغيل:
(aix360)$ conda deactivate
سيعود الموجه مرة أخرى إلى $
أو (base)$
.
ملاحظة: قد تستخدم الإصدارات الأقدم من conda source activate aix360
source deactivate
( activate aix360
وإلغاء deactivate
على نظام التشغيل Windows).
استنساخ أحدث إصدار من هذا المستودع:
(aix360)$ git clone https://github.com/Trusted-AI/AIX360
إذا كنت ترغب في تشغيل الأمثلة ودفاتر الملاحظات التعليمية، فقم بتنزيل مجموعات البيانات الآن وضعها في المجلدات الخاصة بها كما هو موضح في aix360/data/README.md.
بعد ذلك، انتقل إلى الدليل الجذر للمشروع الذي يحتوي على ملف setup.py
وقم بتشغيل:
(aix360)$ pip install -e .[ < algo 1> , < algo 2> , ...]
يقوم الأمر أعلاه بتثبيت الحزم المطلوبة بواسطة خوارزميات محددة. يشير <algo>
هنا إلى الكلمة الأساسية للتثبيت في الجدول أعلاه. على سبيل المثال، لتثبيت الحزم التي تحتاجها خوارزميات BRCG وDIPVAE وTSICE، يمكن للمرء استخدامها
(aix360)$ pip install -e .[rbm,dipvae,tsice]
الأمر الافتراضي pip install .
يقوم بتثبيت التبعيات الافتراضية وحدها.
لاحظ أنك قد لا تتمكن من تثبيت خوارزميتين تتطلبان إصدارات مختلفة من python في نفس البيئة (على سبيل المثال، contrastive
مع rbm
).
إذا واجهت أية مشكلات، فيرجى محاولة ترقية أدوات النقطة والإعداد وإلغاء تثبيت أي إصدارات سابقة من aix360 قبل محاولة تنفيذ الخطوة أعلاه مرة أخرى.
(aix360)$ pip install --upgrade pip setuptools
(aix360)$ pip uninstall aix360
إذا كنت ترغب في البدء سريعًا في استخدام مجموعة أدوات AI شرح 360 دون استنساخ هذا المستودع بشكل صريح، فيمكنك استخدام أحد هذه الخيارات:
(your environment)$ pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[ < algo 1> , < algo 2> ,...]
على سبيل المثال، استخدم pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[rbm,dipvae,tsice]
لتثبيت BRCG، وDIPVAE، وTSICE. قد تحتاج إلى تثبيت cmake
إذا لم يكن مثبتًا بالفعل في بيئتك باستخدام conda install cmake
.
(your environment)$ pip install aix360
إذا اتبعت أيًا من هذين الخيارين، فستحتاج إلى تنزيل دفاتر الملاحظات المتوفرة في مجلد الأمثلة بشكل منفصل.
تم اختبار مجموعة أدوات AI Explanability 360 على أنظمة التشغيل Windows وMacOS وLinux. ومع ذلك، إذا كنت لا تزال تواجه مشكلات في التثبيت بسبب تبعيات الحزمة، فيرجى محاولة تثبيت الحزمة المقابلة عبر conda (على سبيل المثال conda install package-name) ثم تثبيت مجموعة الأدوات باتباع الخطوات المعتادة. على سبيل المثال، إذا واجهت مشكلات تتعلق بـ pygraphviz أثناء التثبيت، فاستخدم conda install pygraphviz
ثم قم بتثبيت مجموعة الأدوات.
يرجى استخدام بيئة بايثون المناسبة بناءً على الجدول أعلاه.
AIX360
أنشئ صورة الحاوية من Dockerfile باستخدام docker build -t aix360_docker .
docker run -it -p 8888:8888 aix360_docker:latest bash
بافتراض أن المنفذ 8888 مجاني على جهازك.jupyter lab --allow-root --ip 0.0.0.0 --port 8888 --no-browser
localhost:8888
يحتوي دليل examples
على مجموعة متنوعة من دفاتر ملاحظات jupyter التي تستخدم AI Explanability 360 بطرق مختلفة. توضح كل من الأمثلة ودفاتر الملاحظات التعليمية التعليمات البرمجية للعمل باستخدام مجموعة الأدوات. توفر البرامج التعليمية مناقشة إضافية ترشد المستخدم خلال الخطوات المختلفة لدفتر الملاحظات. راجع التفاصيل حول البرامج التعليمية والأمثلة هنا.
إذا كنت تستخدم AI Explanability 360 في عملك، فنحن نشجعك على ذلك
@misc{aix360-sept-2019,
title = "One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques",
author = {Vijay Arya and Rachel K. E. Bellamy and Pin-Yu Chen and Amit Dhurandhar and Michael Hind
and Samuel C. Hoffman and Stephanie Houde and Q. Vera Liao and Ronny Luss and Aleksandra Mojsilovi'c
and Sami Mourad and Pablo Pedemonte and Ramya Raghavendra and John Richards and Prasanna Sattigeri
and Karthikeyan Shanmugam and Moninder Singh and Kush R. Varshney and Dennis Wei and Yunfeng Zhang},
month = sept,
year = {2019},
url = {https://arxiv.org/abs/1909.03012}
}
ضع نجمة على هذا المستودع.
شارك قصص نجاحك معنا ومع الآخرين في مجتمع AI شرح 360.
تم تصميم AIX360 بمساعدة العديد من الحزم مفتوحة المصدر. تم إدراج كل هذه العناصر في setup.py وبعضها يتضمن:
الرجاء عرض كل من ملف الترخيص ومجلد الترخيص الإضافي الموجود في الدليل الجذر للحصول على معلومات الترخيص.