La boîte à outils AI Explainability 360 est une bibliothèque open source qui prend en charge l'interprétabilité et l'explicabilité des ensembles de données et des modèles d'apprentissage automatique. Le package AI Explainability 360 Python comprend un ensemble complet d'algorithmes qui couvrent différentes dimensions d'explications ainsi que des métriques d'explicabilité de proxy. La boîte à outils AI Explainability 360 prend en charge les données tabulaires, textuelles, images et séries chronologiques.
L'expérience interactive AI Explainability 360 fournit une introduction douce aux concepts et aux capacités en parcourant un exemple de cas d'utilisation pour différentes personnalités de consommateur. Les didacticiels et les exemples de cahiers offrent une introduction plus approfondie et orientée vers les data scientists. L'API complète est également disponible.
Il n’existe pas d’approche unique de l’explicabilité qui fonctionne le mieux. Il existe de nombreuses façons d'expliquer : données ou modèle, explication directement interprétable ou post hoc, locale ou globale, etc. Il peut donc être déroutant de déterminer quels algorithmes sont les plus appropriés pour un cas d'utilisation donné. Pour vous aider, nous avons créé du matériel d'orientation et un arbre taxonomique qui peuvent être consultés.
Nous avons développé le package en gardant à l'esprit l'extensibilité. Cette bibliothèque est toujours en développement. Nous vous encourageons à contribuer avec vos algorithmes d’explicabilité, vos métriques et vos cas d’utilisation. Pour commencer en tant que contributeur, veuillez rejoindre la communauté AI Explainability 360 sur Slack en demandant une invitation ici. Veuillez consulter les instructions pour contribuer au code et aux notebooks Python ici.
Mot-clé d'installation | Explication(s) | Système d'exploitation | Version Python |
---|---|---|---|
cofrnet | cofrnet | macOS, Ubuntu, Windows | 3.10 |
contrastif | cem, cem_maf | macOS, Ubuntu, Windows | 3.6 |
dipvae | dipvae | macOS, Ubuntu, Windows | 3.10 |
gce | gce | macOS, Ubuntu, Windows | 3.10 |
ecertifier | ecertifier | macOS, Ubuntu, Windows | 3.10 |
je suis | je suis | macOS, Ubuntu | 3.10 |
citron vert | citron vert | macOS, Ubuntu, Windows | 3.10 |
correspondance | correspondance | macOS, Ubuntu, Windows | 3.10 |
nncontraste | nncontraste | macOS, Ubuntu, Windows | 3.10 |
profit | profit | macOS, Ubuntu, Windows | 3.6 |
protodash | protodash | macOS, Ubuntu, Windows | 3.10 |
RBM | brcg, fille | macOS, Ubuntu, Windows | 3.10 |
règle_induction | éventreur | macOS, Ubuntu, Windows | 3.10 |
forme | forme | macOS, Ubuntu, Windows | 3.6 |
ted | ted | macOS, Ubuntu, Windows | 3.10 |
tsice | tsice | macOS, Ubuntu, Windows | 3.10 |
slime | slime | macOS, Ubuntu, Windows | 3.10 |
tssalience | tssalience | macOS, Ubuntu, Windows | 3.10 |
AI Explainability 360 nécessite des versions spécifiques de nombreux packages Python qui peuvent entrer en conflit avec d'autres projets sur votre système. Un gestionnaire d'environnement virtuel est fortement recommandé pour garantir que les dépendances peuvent être installées en toute sécurité. Si vous rencontrez des difficultés pour installer la boîte à outils, essayez d'abord ceci.
Conda est recommandé pour toutes les configurations bien que Virtualenv soit généralement interchangeable pour nos besoins. Miniconda est suffisant (voir la différence entre Anaconda et Miniconda si vous êtes curieux) et peut être installé à partir d'ici si vous ne l'avez pas déjà.
Ensuite, créez un nouvel environnement Python basé sur les algorithmes d'explicabilité que vous souhaitez utiliser en vous référant au tableau ci-dessus. Par exemple, pour python 3.10, utilisez la commande suivante :
conda create --name aix360 python=3.10
conda activate aix360
Le shell devrait maintenant ressembler à (aix360) $
. Pour désactiver l'environnement, exécutez :
(aix360)$ conda deactivate
L'invite reviendra à $
ou (base)$
.
Remarque : les anciennes versions de conda peuvent utiliser source activate aix360
et source deactivate
( activate aix360
et deactivate
sous Windows).
Clonez la dernière version de ce dépôt :
(aix360)$ git clone https://github.com/Trusted-AI/AIX360
Si vous souhaitez exécuter les exemples et les blocs-notes du didacticiel, téléchargez les ensembles de données maintenant et placez-les dans leurs dossiers respectifs comme décrit dans aix360/data/README.md.
Ensuite, accédez au répertoire racine du projet qui contient le fichier setup.py
et exécutez :
(aix360)$ pip install -e .[ < algo 1> , < algo 2> , ...]
La commande ci-dessus installe les packages requis par des algorithmes spécifiques. Ici, <algo>
fait référence au mot-clé d'installation dans le tableau ci-dessus. Par exemple, pour installer les packages nécessaires aux algorithmes BRCG, DIPVAE et TSICE, on pourrait utiliser
(aix360)$ pip install -e .[rbm,dipvae,tsice]
La commande par défaut pip install .
installe uniquement les dépendances par défaut.
Notez que vous ne pourrez peut-être pas installer deux algorithmes nécessitant des versions différentes de python dans le même environnement (par exemple contrastive
avec rbm
).
Si vous rencontrez des problèmes, essayez de mettre à niveau pip et setuptools et désinstallez toutes les versions précédentes d'aix360 avant de réessayer l'étape ci-dessus.
(aix360)$ pip install --upgrade pip setuptools
(aix360)$ pip uninstall aix360
Si vous souhaitez commencer rapidement à utiliser la boîte à outils AIexplicability 360 sans cloner explicitement ce référentiel, vous pouvez utiliser l'une de ces options :
(your environment)$ pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[ < algo 1> , < algo 2> ,...]
Par exemple, utilisez pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[rbm,dipvae,tsice]
pour installer BRCG, DIPVAE et TSICE. Vous devrez peut-être installer cmake
s'il n'est pas déjà installé dans votre environnement à l'aide conda install cmake
.
(your environment)$ pip install aix360
Si vous suivez l'une de ces deux options, vous devrez télécharger séparément les cahiers disponibles dans le dossier des exemples.
La boîte à outils AI Explainability 360 est testée sur Windows, MacOS et Linux. Cependant, si vous rencontrez toujours des problèmes d'installation en raison de dépendances de packages, essayez d'installer le package correspondant via conda (par exemple conda install package-name), puis installez la boîte à outils en suivant les étapes habituelles. Par exemple, si vous rencontrez des problèmes liés à pygraphviz lors de l'installation, utilisez conda install pygraphviz
puis installez la boîte à outils.
Veuillez utiliser le bon environnement Python basé sur le tableau ci-dessus.
AIX360
créez l'image du conteneur à partir de Dockerfile à l'aide docker build -t aix360_docker .
docker run -it -p 8888:8888 aix360_docker:latest bash
en supposant que le port 8888 est libre sur votre ordinateur.jupyter lab --allow-root --ip 0.0.0.0 --port 8888 --no-browser
localhost:8888
Le répertoire examples
contient une collection diversifiée de blocs-notes Jupyter qui utilisent AI Explainability 360 de différentes manières. Les exemples et les cahiers de didacticiels illustrent le code de travail à l’aide de la boîte à outils. Les didacticiels fournissent des discussions supplémentaires qui guident l'utilisateur à travers les différentes étapes du bloc-notes. Voir les détails sur les didacticiels et les exemples ici.
Si vous utilisez AI Explainability 360 pour votre travail, nous vous encourageons à
@misc{aix360-sept-2019,
title = "One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques",
author = {Vijay Arya and Rachel K. E. Bellamy and Pin-Yu Chen and Amit Dhurandhar and Michael Hind
and Samuel C. Hoffman and Stephanie Houde and Q. Vera Liao and Ronny Luss and Aleksandra Mojsilovi'c
and Sami Mourad and Pablo Pedemonte and Ramya Raghavendra and John Richards and Prasanna Sattigeri
and Karthikeyan Shanmugam and Moninder Singh and Kush R. Varshney and Dennis Wei and Yunfeng Zhang},
month = sept,
year = {2019},
url = {https://arxiv.org/abs/1909.03012}
}
Mettez une étoile sur ce référentiel.
Partagez vos réussites avec nous et d’autres membres de la communauté AI Explainability 360.
AIX360 est construit à l'aide de plusieurs packages open source. Tous ces éléments sont répertoriés dans setup.py et certains d'entre eux incluent :
Veuillez consulter le fichier LICENSE et le dossier de licence supplémentaire présents dans le répertoire racine pour obtenir des informations sur la licence.