El kit de herramientas AI Explicabilidad 360 es una biblioteca de código abierto que admite la interpretabilidad y explicabilidad de conjuntos de datos y modelos de aprendizaje automático. El paquete AI Explicabilidad 360 Python incluye un conjunto completo de algoritmos que cubren diferentes dimensiones de explicaciones junto con métricas de explicabilidad proxy. El kit de herramientas AI Explicabilidad 360 admite datos tabulares, de texto, imágenes y series temporales.
La experiencia interactiva AI Explicabilidad 360 proporciona una suave introducción a los conceptos y capacidades al recorrer un caso de uso de ejemplo para diferentes consumidores. Los tutoriales y cuadernos de ejemplo ofrecen una introducción más profunda y orientada a los científicos de datos. La API completa también está disponible.
No existe un único enfoque de la explicabilidad que funcione mejor. Hay muchas formas de explicar: datos frente a modelo, directamente interpretable frente a explicación post hoc, local frente a global, etc. Por lo tanto, puede resultar confuso determinar qué algoritmos son los más apropiados para un caso de uso determinado. Para ayudar, hemos creado material de orientación y un árbol de taxonomía que se puede consultar.
Hemos desarrollado el paquete teniendo en cuenta la extensibilidad. Esta biblioteca aún está en desarrollo. Le animamos a contribuir con sus algoritmos de explicabilidad, métricas y casos de uso. Para comenzar como colaborador, únase a la comunidad AI Explicabilidad 360 en Slack solicitando una invitación aquí. Revise las instrucciones para contribuir con código y cuadernos de Python aquí.
Palabra clave de instalación | Explicador(es) | SO | Versión de Python |
---|---|---|---|
cofre | cofre | macOS, Ubuntu, Windows | 3.10 |
contrastivo | cem, cem_maf | macOS, Ubuntu, Windows | 3.6 |
dipvae | dipvae | macOS, Ubuntu, Windows | 3.10 |
gce | gce | macOS, Ubuntu, Windows | 3.10 |
certificar | certificar | macOS, Ubuntu, Windows | 3.10 |
imd | imd | macOS, Ubuntu | 3.10 |
cal | cal | macOS, Ubuntu, Windows | 3.10 |
pareo | pareo | macOS, Ubuntu, Windows | 3.10 |
nncontrastivo | nncontrastivo | macOS, Ubuntu, Windows | 3.10 |
beneficio | beneficio | macOS, Ubuntu, Windows | 3.6 |
protodash | protodash | macOS, Ubuntu, Windows | 3.10 |
rbm | brcg, glrm | macOS, Ubuntu, Windows | 3.10 |
inducción_regla | destripador | macOS, Ubuntu, Windows | 3.10 |
dar forma | dar forma | macOS, Ubuntu, Windows | 3.6 |
ted | ted | macOS, Ubuntu, Windows | 3.10 |
tics | tics | macOS, Ubuntu, Windows | 3.10 |
limo | limo | macOS, Ubuntu, Windows | 3.10 |
saliencia | saliencia | macOS, Ubuntu, Windows | 3.10 |
AI Explicabilidad 360 requiere versiones específicas de muchos paquetes de Python que pueden entrar en conflicto con otros proyectos de su sistema. Se recomienda encarecidamente un administrador de entorno virtual para garantizar que las dependencias se puedan instalar de forma segura. Si tiene problemas para instalar el kit de herramientas, intente esto primero.
Se recomienda Conda para todas las configuraciones, aunque Virtualenv generalmente es intercambiable para nuestros propósitos. Miniconda es suficiente (vea la diferencia entre Anaconda y Miniconda si tiene curiosidad) y puede instalarse desde aquí si aún no la tiene.
Luego, cree un nuevo entorno de Python basado en los algoritmos de explicabilidad que desea utilizar consultando la tabla anterior. Por ejemplo, para Python 3.10, utilice el siguiente comando:
conda create --name aix360 python=3.10
conda activate aix360
El shell ahora debería verse como (aix360) $
. Para desactivar el entorno, ejecute:
(aix360)$ conda deactivate
El mensaje volverá a $
o (base)$
.
Nota: Las versiones anteriores de conda pueden usar source activate aix360
y source deactivate
( activate aix360
y deactivate
en Windows).
Clona la última versión de este repositorio:
(aix360)$ git clone https://github.com/Trusted-AI/AIX360
Si desea ejecutar los ejemplos y los cuadernos de tutoriales, descargue los conjuntos de datos ahora y colóquelos en sus respectivas carpetas como se describe en aix360/data/README.md.
Luego, navegue hasta el directorio raíz del proyecto que contiene el archivo setup.py
y ejecute:
(aix360)$ pip install -e .[ < algo 1> , < algo 2> , ...]
El comando anterior instala paquetes requeridos por algoritmos específicos. Aquí <algo>
se refiere a la palabra clave de instalación en la tabla anterior. Por ejemplo, para instalar los paquetes necesarios para los algoritmos BRCG, DIPVAE y TSICE, se podría utilizar
(aix360)$ pip install -e .[rbm,dipvae,tsice]
El comando predeterminado pip install .
Instala las dependencias predeterminadas solo.
Tenga en cuenta que es posible que no pueda instalar dos algoritmos que requieran diferentes versiones de Python en el mismo entorno (por ejemplo, contrastive
junto con rbm
).
Si tiene algún problema, intente actualizar pip y setuptools y desinstale cualquier versión anterior de aix360 antes de intentar el paso anterior nuevamente.
(aix360)$ pip install --upgrade pip setuptools
(aix360)$ pip uninstall aix360
Si desea comenzar a utilizar rápidamente el kit de herramientas AI explicabilidad 360 sin clonar explícitamente este repositorio, puede utilizar una de estas opciones:
(your environment)$ pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[ < algo 1> , < algo 2> ,...]
Por ejemplo, utilice pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[rbm,dipvae,tsice]
para instalar BRCG, DIPVAE y TSICE. Es posible que necesite instalar cmake
si aún no está instalado en su entorno usando conda install cmake
.
(your environment)$ pip install aix360
Si sigue cualquiera de estas dos opciones, deberá descargar los cuadernos disponibles en la carpeta de ejemplos por separado.
El kit de herramientas AI Explicabilidad 360 se prueba en Windows, MacOS y Linux. Sin embargo, si aún tiene problemas de instalación debido a dependencias de paquetes, intente instalar el paquete correspondiente a través de conda (por ejemplo, conda install nombre-paquete) y luego instale el kit de herramientas siguiendo los pasos habituales. Por ejemplo, si tiene problemas relacionados con pygraphviz durante la instalación, use conda install pygraphviz
y luego instale el kit de herramientas.
Utilice el entorno Python adecuado según la tabla anterior.
AIX360
cree la imagen del contenedor desde Dockerfile usando docker build -t aix360_docker .
docker run -it -p 8888:8888 aix360_docker:latest bash
suponiendo que el puerto 8888 esté libre en su máquina.jupyter lab --allow-root --ip 0.0.0.0 --port 8888 --no-browser
localhost:8888
El directorio examples
contiene una colección diversa de cuadernos de jupyter que utilizan AI Explicabilidad 360 de varias maneras. Tanto los ejemplos como los cuadernos de tutoriales ilustran el código de trabajo utilizando el kit de herramientas. Los tutoriales proporcionan discusión adicional que guía al usuario a través de los distintos pasos del cuaderno. Vea los detalles sobre tutoriales y ejemplos aquí.
Si utiliza AI Explicabilidad 360 para su trabajo, le animamos a que
@misc{aix360-sept-2019,
title = "One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques",
author = {Vijay Arya and Rachel K. E. Bellamy and Pin-Yu Chen and Amit Dhurandhar and Michael Hind
and Samuel C. Hoffman and Stephanie Houde and Q. Vera Liao and Ronny Luss and Aleksandra Mojsilovi'c
and Sami Mourad and Pablo Pedemonte and Ramya Raghavendra and John Richards and Prasanna Sattigeri
and Karthikeyan Shanmugam and Moninder Singh and Kush R. Varshney and Dennis Wei and Yunfeng Zhang},
month = sept,
year = {2019},
url = {https://arxiv.org/abs/1909.03012}
}
Pon una estrella en este repositorio.
Comparta sus historias de éxito con nosotros y otros en la comunidad AI Explicabilidad 360.
AIX360 se construye con la ayuda de varios paquetes de código abierto. Todos estos se enumeran en setup.py y algunos de ellos incluyen:
Consulte el archivo LICENCIA y la carpeta de licencia complementaria presentes en el directorio raíz para obtener información sobre la licencia.