Das AI Explainability 360 Toolkit ist eine Open-Source-Bibliothek, die die Interpretierbarkeit und Erklärbarkeit von Datensätzen und Modellen für maschinelles Lernen unterstützt. Das AI Explainability 360 Python-Paket enthält einen umfassenden Satz von Algorithmen, die verschiedene Dimensionen von Erklärungen sowie Proxy-Erklärbarkeitsmetriken abdecken. Das AI Explainability 360-Toolkit unterstützt Tabellen-, Text-, Bild- und Zeitreihendaten.
Das interaktive AI Explainability 360-Erlebnis bietet eine sanfte Einführung in die Konzepte und Funktionen, indem es einen Beispielanwendungsfall für verschiedene Verbraucherpersönlichkeiten durchgeht. Die Tutorials und Beispiel-Notebooks bieten eine tiefergehende, auf Datenwissenschaftler ausgerichtete Einführung. Die vollständige API ist ebenfalls verfügbar.
Es gibt keinen einzigen Ansatz zur Erklärbarkeit, der am besten funktioniert. Es gibt viele Erklärungsmöglichkeiten: Daten vs. Modell, direkt interpretierbar vs. Post-hoc-Erklärung, lokal vs. global usw. Es kann daher verwirrend sein, herauszufinden, welche Algorithmen für einen bestimmten Anwendungsfall am besten geeignet sind. Um Ihnen dabei zu helfen, haben wir einige Leitfäden und einen Taxonomiebaum erstellt, der eingesehen werden kann.
Wir haben das Paket unter Berücksichtigung der Erweiterbarkeit entwickelt. Diese Bibliothek befindet sich noch in der Entwicklung. Wir ermutigen Sie, Ihre Erklärbarkeitsalgorithmen, Metriken und Anwendungsfälle einzubringen. Um als Mitwirkender zu beginnen, treten Sie bitte der AI Explainability 360 Community auf Slack bei, indem Sie hier eine Einladung anfordern. Bitte lesen Sie hier die Anweisungen zum Beitragen von Code und Python-Notebooks.
Installationsschlüsselwort | Erklärer | Betriebssystem | Python-Version |
---|---|---|---|
cofrnet | cofrnet | macOS, Ubuntu, Windows | 3.10 |
kontrastiv | cem, cem_maf | macOS, Ubuntu, Windows | 3.6 |
Dipvae | Dipvae | macOS, Ubuntu, Windows | 3.10 |
gce | gce | macOS, Ubuntu, Windows | 3.10 |
ezertifizieren | ezertifizieren | macOS, Ubuntu, Windows | 3.10 |
imd | imd | macOS, Ubuntu | 3.10 |
Kalk | Kalk | macOS, Ubuntu, Windows | 3.10 |
passend | passend | macOS, Ubuntu, Windows | 3.10 |
kontrastiv | kontrastiv | macOS, Ubuntu, Windows | 3.10 |
Profit | Profit | macOS, Ubuntu, Windows | 3.6 |
protodash | protodash | macOS, Ubuntu, Windows | 3.10 |
rbm | brcg, glrm | macOS, Ubuntu, Windows | 3.10 |
Regel_Induktion | Ripper | macOS, Ubuntu, Windows | 3.10 |
Gestalt | Gestalt | macOS, Ubuntu, Windows | 3.6 |
ted | ted | macOS, Ubuntu, Windows | 3.10 |
tsice | tsice | macOS, Ubuntu, Windows | 3.10 |
Schleim | Schleim | macOS, Ubuntu, Windows | 3.10 |
Tssalienz | Tssalienz | macOS, Ubuntu, Windows | 3.10 |
AI Explainability 360 erfordert bestimmte Versionen vieler Python-Pakete, die möglicherweise mit anderen Projekten auf Ihrem System in Konflikt geraten. Ein virtueller Umgebungsmanager wird dringend empfohlen, um sicherzustellen, dass Abhängigkeiten sicher installiert werden können. Wenn Sie Probleme bei der Installation des Toolkits haben, versuchen Sie es zuerst.
Conda wird für alle Konfigurationen empfohlen, obwohl Virtualenv für unsere Zwecke im Allgemeinen austauschbar ist. Miniconda ist ausreichend (sehen Sie sich den Unterschied zwischen Anaconda und Miniconda an, wenn Sie neugierig sind) und kann von hier aus installiert werden, wenn Sie es noch nicht haben.
Erstellen Sie dann eine neue Python-Umgebung basierend auf den Erklärbarkeitsalgorithmen, die Sie verwenden möchten, indem Sie sich auf die obige Tabelle beziehen. Verwenden Sie beispielsweise für Python 3.10 den folgenden Befehl:
conda create --name aix360 python=3.10
conda activate aix360
Die Shell sollte jetzt wie folgt aussehen: (aix360) $
. Um die Umgebung zu deaktivieren, führen Sie Folgendes aus:
(aix360)$ conda deactivate
Die Eingabeaufforderung kehrt zu $
oder (base)$
zurück.
Hinweis: Ältere Versionen von Conda verwenden möglicherweise source activate aix360
und source deactivate
( activate aix360
und deactivate
unter Windows).
Klonen Sie die neueste Version dieses Repositorys:
(aix360)$ git clone https://github.com/Trusted-AI/AIX360
Wenn Sie die Beispiele und Tutorial-Notebooks ausführen möchten, laden Sie die Datensätze jetzt herunter und platzieren Sie sie in ihren jeweiligen Ordnern, wie in aix360/data/README.md beschrieben.
Navigieren Sie dann zum Stammverzeichnis des Projekts, das die Datei setup.py
enthält, und führen Sie Folgendes aus:
(aix360)$ pip install -e .[ < algo 1> , < algo 2> , ...]
Der obige Befehl installiert Pakete, die für bestimmte Algorithmen erforderlich sind. Hier bezieht sich <algo>
auf das Installationsschlüsselwort in der Tabelle oben. Um beispielsweise Pakete zu installieren, die von BRCG-, DIPVAE- und TSICE-Algorithmen benötigt werden, könnte man Folgendes verwenden
(aix360)$ pip install -e .[rbm,dipvae,tsice]
Der Standardbefehl pip install .
Installiert nur Standardabhängigkeiten.
Beachten Sie, dass Sie möglicherweise nicht in der Lage sind, zwei Algorithmen, die unterschiedliche Python-Versionen erfordern, in derselben Umgebung zu installieren (z. B. contrastive
zusammen mit rbm
).
Wenn Sie auf Probleme stoßen, versuchen Sie bitte, pip und setuptools zu aktualisieren und alle früheren Versionen von aix360 zu deinstallieren, bevor Sie den obigen Schritt erneut versuchen.
(aix360)$ pip install --upgrade pip setuptools
(aix360)$ pip uninstall aix360
Wenn Sie schnell mit der Verwendung des AI Explainability 360-Toolkits beginnen möchten, ohne dieses Repository explizit zu klonen, können Sie eine dieser Optionen verwenden:
(your environment)$ pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[ < algo 1> , < algo 2> ,...]
Verwenden Sie beispielsweise pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[rbm,dipvae,tsice]
um BRCG, DIPVAE und TSICE zu installieren. Möglicherweise müssen Sie cmake
installieren, wenn es nicht bereits in Ihrer Umgebung mit conda install cmake
installiert ist.
(your environment)$ pip install aix360
Wenn Sie einer dieser beiden Optionen folgen, müssen Sie die im Beispielordner verfügbaren Notizbücher separat herunterladen.
Das AI Explainability 360-Toolkit wurde unter Windows, MacOS und Linux getestet. Sollten dennoch Installationsprobleme aufgrund von Paketabhängigkeiten auftreten, versuchen Sie bitte, das entsprechende Paket über Conda zu installieren (z. B. conda install package-name) und installieren Sie dann das Toolkit, indem Sie den üblichen Schritten folgen. Wenn Sie beispielsweise während der Installation auf Probleme im Zusammenhang mit Pygraphviz stoßen, verwenden Sie conda install pygraphviz
und installieren Sie dann das Toolkit.
Bitte verwenden Sie die richtige Python-Umgebung basierend auf der obigen Tabelle.
AIX360
Verzeichnis das Container-Image aus der Docker-Datei mit docker build -t aix360_docker .
docker run -it -p 8888:8888 aix360_docker:latest bash
vorausgesetzt, Port 8888 ist auf Ihrem Computer frei.jupyter lab --allow-root --ip 0.0.0.0 --port 8888 --no-browser
localhost:8888
auf die Beispiel-Tutorials auf Ihrem Computer zu Das examples
enthält eine vielfältige Sammlung von Jupyter-Notebooks, die AI Explainability 360 auf verschiedene Weise nutzen. Sowohl Beispiele als auch Tutorial-Notebooks veranschaulichen funktionierenden Code mithilfe des Toolkits. Tutorials bieten zusätzliche Diskussionen, die den Benutzer durch die verschiedenen Schritte des Notebooks führen. Einzelheiten zu Tutorials und Beispielen finden Sie hier.
Wenn Sie AI Explainability 360 für Ihre Arbeit verwenden, empfehlen wir Ihnen, dies zu tun
@misc{aix360-sept-2019,
title = "One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques",
author = {Vijay Arya and Rachel K. E. Bellamy and Pin-Yu Chen and Amit Dhurandhar and Michael Hind
and Samuel C. Hoffman and Stephanie Houde and Q. Vera Liao and Ronny Luss and Aleksandra Mojsilovi'c
and Sami Mourad and Pablo Pedemonte and Ramya Raghavendra and John Richards and Prasanna Sattigeri
and Karthikeyan Shanmugam and Moninder Singh and Kush R. Varshney and Dennis Wei and Yunfeng Zhang},
month = sept,
year = {2019},
url = {https://arxiv.org/abs/1909.03012}
}
Geben Sie diesem Repository einen Stern.
Teilen Sie Ihre Erfolgsgeschichten mit uns und anderen in der AI Explainability 360 Community.
AIX360 wird mit Hilfe mehrerer Open-Source-Pakete erstellt. Alle diese sind in setup.py aufgeführt und einige davon umfassen:
Bitte sehen Sie sich sowohl die LIZENZ-Datei als auch den Ordner „Zusatzlizenz“ im Stammverzeichnis an, um Lizenzinformationen zu erhalten.