O kit de ferramentas AI Explicabilidade 360 é uma biblioteca de código aberto que oferece suporte à interpretabilidade e explicabilidade de conjuntos de dados e modelos de aprendizado de máquina. O pacote AI Explicabilidade 360 Python inclui um conjunto abrangente de algoritmos que cobrem diferentes dimensões de explicações junto com métricas de explicabilidade de proxy. O kit de ferramentas AI Explicabilidade 360 suporta dados tabulares, de texto, imagens e séries temporais.
A experiência interativa AI Explicabilidade 360 fornece uma introdução suave aos conceitos e recursos, percorrendo um exemplo de caso de uso para diferentes personas de consumidores. Os tutoriais e cadernos de exemplo oferecem uma introdução mais profunda e orientada para cientistas de dados. A API completa também está disponível.
Não existe uma abordagem única para a explicabilidade que funcione melhor. Há muitas maneiras de explicar: dados versus modelo, interpretação direta versus explicação post hoc, local versus global, etc. Portanto, pode ser confuso descobrir quais algoritmos são mais apropriados para um determinado caso de uso. Para ajudar, criamos alguns materiais de orientação e uma árvore taxonômica que pode ser consultada.
Desenvolvemos o pacote pensando na extensibilidade. Esta biblioteca ainda está em desenvolvimento. Incentivamos você a contribuir com seus algoritmos de explicabilidade, métricas e casos de uso. Para começar como colaborador, junte-se à comunidade AI Explicabilidade 360 no Slack solicitando um convite aqui. Revise as instruções para contribuir com código e notebooks python aqui.
Palavra-chave de instalação | Explicador(es) | SO | Versão Python |
---|---|---|---|
cofre | cofre | macOS, Ubuntu, Windows | 3.10 |
contrastante | cem, cem_maf | macOS, Ubuntu, Windows | 3.6 |
dipvae | dipvae | macOS, Ubuntu, Windows | 3.10 |
gce | gce | macOS, Ubuntu, Windows | 3.10 |
certificar | certificar | macOS, Ubuntu, Windows | 3.10 |
imd | imd | MacOS, Ubuntu | 3.10 |
Lima | Lima | macOS, Ubuntu, Windows | 3.10 |
correspondência | correspondência | macOS, Ubuntu, Windows | 3.10 |
nncontrastivo | nncontrastivo | macOS, Ubuntu, Windows | 3.10 |
profundo | profundo | macOS, Ubuntu, Windows | 3.6 |
protodash | protodash | macOS, Ubuntu, Windows | 3.10 |
RBM | brcg, glrm | macOS, Ubuntu, Windows | 3.10 |
regra_indução | estripador | macOS, Ubuntu, Windows | 3.10 |
forma | forma | macOS, Ubuntu, Windows | 3.6 |
ted | ted | macOS, Ubuntu, Windows | 3.10 |
tsice | tsice | macOS, Ubuntu, Windows | 3.10 |
limo | limo | macOS, Ubuntu, Windows | 3.10 |
tssaliência | tssaliência | macOS, Ubuntu, Windows | 3.10 |
AI Explicabilidade 360 requer versões específicas de muitos pacotes Python que podem entrar em conflito com outros projetos em seu sistema. Um gerenciador de ambiente virtual é altamente recomendado para garantir que as dependências possam ser instaladas com segurança. Se você tiver problemas para instalar o kit de ferramentas, tente primeiro.
O Conda é recomendado para todas as configurações, embora o Virtualenv seja geralmente intercambiável para nossos propósitos. Miniconda é suficiente (veja a diferença entre Anaconda e Miniconda se tiver curiosidade) e pode ser instalado aqui caso ainda não o tenha.
Em seguida, crie um novo ambiente python baseado nos algoritmos de explicabilidade que você deseja usar, consultando a tabela acima. Por exemplo, para python 3.10, use o seguinte comando:
conda create --name aix360 python=3.10
conda activate aix360
O shell agora deve se parecer com (aix360) $
. Para desativar o ambiente, execute:
(aix360)$ conda deactivate
O prompt retornará para $
ou (base)$
.
Nota: Versões mais antigas do conda podem usar source activate aix360
e source deactivate
( activate aix360
and deactivate
no Windows).
Clone a versão mais recente deste repositório:
(aix360)$ git clone https://github.com/Trusted-AI/AIX360
Se desejar executar os exemplos e os cadernos do tutorial, baixe os conjuntos de dados agora e coloque-os em suas respectivas pastas conforme descrito em aix360/data/README.md.
Em seguida, navegue até o diretório raiz do projeto que contém o arquivo setup.py
e execute:
(aix360)$ pip install -e .[ < algo 1> , < algo 2> , ...]
O comando acima instala pacotes exigidos por algoritmos específicos. Aqui <algo>
refere-se à palavra-chave de instalação na tabela acima. Por exemplo, para instalar pacotes necessários aos algoritmos BRCG, DIPVAE e TSICE, pode-se usar
(aix360)$ pip install -e .[rbm,dipvae,tsice]
O comando padrão pip install .
instala apenas as dependências padrão.
Observe que talvez você não consiga instalar dois algoritmos que exigem versões diferentes de python no mesmo ambiente (por exemplo, contrastive
junto com rbm
).
Se você enfrentar algum problema, tente atualizar o pip e o setuptools e desinstale todas as versões anteriores do aix360 antes de tentar a etapa acima novamente.
(aix360)$ pip install --upgrade pip setuptools
(aix360)$ pip uninstall aix360
Se quiser começar a usar rapidamente o kit de ferramentas AI explicability 360 sem clonar explicitamente este repositório, você pode usar uma destas opções:
(your environment)$ pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[ < algo 1> , < algo 2> ,...]
Por exemplo, use pip install -e git+https://github.com/Trusted-AI/AIX360.git#egg=aix360[rbm,dipvae,tsice]
para instalar BRCG, DIPVAE e TSICE. Pode ser necessário instalar cmake
se ainda não estiver instalado em seu ambiente usando conda install cmake
.
(your environment)$ pip install aix360
Se você seguir qualquer uma dessas duas opções, precisará baixar separadamente os notebooks disponíveis na pasta de exemplos.
O kit de ferramentas AI Explicabilidade 360 é testado em Windows, MacOS e Linux. No entanto, se você ainda enfrentar problemas de instalação devido a dependências de pacotes, tente instalar o pacote correspondente via conda (por exemplo, conda install package-name) e depois instale o kit de ferramentas seguindo as etapas usuais. Por exemplo, se você enfrentar problemas relacionados ao pygraphviz durante a instalação, use conda install pygraphviz
e instale o kit de ferramentas.
Use o ambiente python correto com base na tabela acima.
AIX360
crie a imagem do contêiner do Dockerfile usando docker build -t aix360_docker .
docker run -it -p 8888:8888 aix360_docker:latest bash
assumindo que a porta 8888 está livre em sua máquina.jupyter lab --allow-root --ip 0.0.0.0 --port 8888 --no-browser
localhost:8888
O diretório examples
contém uma coleção diversificada de notebooks Jupyter que usam o AI Explicabilidade 360 de várias maneiras. Os exemplos e os cadernos do tutorial ilustram o código funcional usando o kit de ferramentas. Os tutoriais fornecem discussões adicionais que orientam o usuário pelas diversas etapas do notebook. Veja os detalhes sobre tutoriais e exemplos aqui.
Se você estiver usando o AI Explicabilidade 360 em seu trabalho, encorajamos você a
@misc{aix360-sept-2019,
title = "One Explanation Does Not Fit All: A Toolkit and Taxonomy of AI Explainability Techniques",
author = {Vijay Arya and Rachel K. E. Bellamy and Pin-Yu Chen and Amit Dhurandhar and Michael Hind
and Samuel C. Hoffman and Stephanie Houde and Q. Vera Liao and Ronny Luss and Aleksandra Mojsilovi'c
and Sami Mourad and Pablo Pedemonte and Ramya Raghavendra and John Richards and Prasanna Sattigeri
and Karthikeyan Shanmugam and Moninder Singh and Kush R. Varshney and Dennis Wei and Yunfeng Zhang},
month = sept,
year = {2019},
url = {https://arxiv.org/abs/1909.03012}
}
Coloque uma estrela neste repositório.
Compartilhe suas histórias de sucesso conosco e com outras pessoas na comunidade AI Explicabilidade 360.
O AIX360 é construído com a ajuda de vários pacotes de código aberto. Todos eles estão listados em setup.py e alguns deles incluem:
Consulte o arquivo LICENSE e a pasta licença suplementar presente no diretório raiz para obter informações sobre licença.