Fonte da imagem: site espanhol "El Pais"
Quando se trata de caixas pretas, muita gente pensa em equipamentos usados para registrar dados de voo em aviões ou pequenos teatros cheios de nostalgia. Porém, no campo da inteligência artificial (IA), caixa preta também é um termo importante que não pode ser ignorado.
O El Pais da Espanha salientou que quando uma rede neural de IA está em funcionamento, mesmo os investigadores mais experientes nada sabem sobre as suas operações internas. A discussão aqui não é sobre biologia, mas sobre algoritmos de IA, especialmente aqueles baseados em aprendizagem profunda que imitam as conexões entre neurônios. Esses sistemas são como caixas pretas, e é difícil para os cientistas de dados, os principais talentos acadêmicos e os engenheiros vencedores do Prêmio Nobel da OpenAI e do Google investigarem seus segredos internos.
Modelo e dados são opacos
A revista "Scientific American" informou que uma caixa preta de IA se refere a um sistema de IA cujo funcionamento interno é completamente invisível para os usuários. Os usuários podem inserir informações nesses sistemas e obter resultados, mas não podem inspecionar seu código ou compreender a lógica que produz os resultados.
O aprendizado de máquina, como principal ramo da IA, é a base dos sistemas generativos de IA, como o ChatGPT. O aprendizado de máquina consiste em três partes principais: algoritmo, dados de treinamento e modelo. Um algoritmo é uma série de instruções de programa. No aprendizado de máquina, o algoritmo aprende a reconhecer padrões nos dados por meio de grandes quantidades de dados de treinamento. Quando o algoritmo de aprendizado de máquina conclui o treinamento, o produto é o modelo de aprendizado de máquina, que também é a parte que os usuários realmente usam.
Qualquer uma dessas três partes de um sistema de aprendizado de máquina pode estar oculta, ou seja, colocada em uma caixa preta. Normalmente, os algoritmos estão disponíveis publicamente. Mas para proteger a propriedade intelectual, os desenvolvedores de software de IA muitas vezes colocam modelos ou dados de treinamento em caixas pretas.
A arquitetura do modelo é tão complexa que é difícil explicar
Embora a matemática por trás de muitos algoritmos de IA seja bem compreendida, o comportamento produzido pelas redes formadas por esses algoritmos é ilusório.
ChatGPT, Gemini, Claude, Llama e qualquer gerador de imagens como o DALL-E, bem como qualquer sistema que dependa de redes neurais, incluindo aplicativos de reconhecimento facial e mecanismos de recomendação de conteúdo, enfrentam esse problema.
Em contraste, outros algoritmos de IA, como árvores de decisão ou regressão linear (comumente usados em áreas como medicina e economia), são mais interpretáveis. Seu processo de tomada de decisão é fácil de entender e visualizar. Os engenheiros podem seguir os ramos de uma árvore de decisão e ver claramente como se chega a um resultado específico.
Essa clareza é crítica porque injeta transparência na IA e fornece segurança para aqueles que usam os algoritmos. É importante notar que a Lei da Inteligência Artificial da UE enfatiza a importância de ter sistemas transparentes e explicáveis. No entanto, a própria arquitetura das redes neurais dificulta essa transparência. Para entender o problema da caixa preta desses algoritmos, deve-se imaginar uma rede de neurônios ou nós interconectados.
Juan Antonio, professor do Instituto de IA do Conselho Nacional de Pesquisa da Espanha, explicou que quando você alimenta dados na rede, os valores nos nós acionam uma série de cálculos. A informação é propagada dos primeiros nós em forma numérica para os nós subsequentes, cada nó calcula um número e o envia para todas as conexões, levando em consideração o peso (ou seja, valor numérico) de cada conexão. O novo nó que receber esta informação calculará outro número.
É importante notar que os modelos atuais de aprendizagem profunda contêm milhares a milhões de parâmetros. Esses parâmetros representam o número de nós e conexões após o treinamento, que são grandes e variados, dificultando a derivação manual de equações significativas.
De acordo com estimativas da indústria, o GPT-4 possui quase 1,8 trilhão de parâmetros. De acordo com esta análise, cada modelo de linguagem utilizará aproximadamente 220 bilhões de parâmetros. Isto significa que cada vez que uma pergunta é feita, existem 220 mil milhões de variáveis que podem influenciar a resposta do algoritmo.
Empresas de tecnologia tentam abrir caixas pretas
A opacidade sistêmica torna mais difícil corrigir preconceitos e alimenta a desconfiança. Atualmente, os principais players no campo da IA estão cientes dessa limitação e estão conduzindo pesquisas ativamente para entender melhor como seus modelos funcionam. Por exemplo, OpenAI usa uma rede neural para observar e analisar outra rede neural, e a Anthropic estuda conexões de nós e circuitos de propagação de informações.
A decodificação da caixa preta é de grande benefício para o modelo de linguagem, que pode evitar raciocínios errôneos e informações enganosas geradas pela IA, além de resolver o problema de respostas inconsistentes. No entanto, sem compreender o funcionamento interno da rede, as empresas de tecnologia muitas vezes submetem os modelos a um treinamento extensivo e depois lançam os produtos após passarem nos testes. Essa abordagem também pode apresentar problemas, como o Google Gemini gerar imagens erradas quando foi lançado pela primeira vez.
O conceito oposto à caixa preta é a caixa de vidro. A caixa de vidro da IA significa que seus algoritmos, dados de treinamento e modelos podem ser vistos por qualquer pessoa. O objetivo final da decodificação de caixas pretas é manter o controle da IA, especialmente quando ela é implantada em áreas sensíveis. Suponha que um modelo de aprendizado de máquina tenha feito um diagnóstico da saúde ou da situação financeira de um ser humano. Alguém gostaria que o modelo fosse uma caixa preta ou uma caixa de vidro? A resposta é óbvia. Este não é apenas um forte foco no funcionamento interno do algoritmo, não apenas por curiosidade científica, mas também na proteção da privacidade do usuário.