Source de l'image : site Web espagnol "El Pais"
Lorsqu’on parle de boîtes noires, beaucoup de gens pensent aux équipements utilisés pour enregistrer les données de vol des avions ou aux petits théâtres pleins de nostalgie. Cependant, dans le domaine de l’intelligence artificielle (IA), la boîte noire est également un terme important qui ne peut être ignoré.
L'Espagnol El Pais a souligné que lorsqu'un réseau neuronal d'IA fonctionne, même les chercheurs les plus expérimentés ne savent rien de son fonctionnement interne. La discussion ici ne porte pas sur la biologie, mais sur les algorithmes d’IA, notamment ceux basés sur l’apprentissage profond qui imitent les connexions entre les neurones. Ces systèmes sont comme des boîtes noires, et il est difficile pour les data scientists, les meilleurs talents du monde universitaire et les ingénieurs lauréats du prix Nobel d'OpenAI et de Google de pénétrer dans leurs secrets internes.
Le modèle et les données sont opaques
Le magazine « Scientific American » a rapporté qu'une boîte noire d'IA fait référence à un système d'IA dont le fonctionnement interne est complètement invisible pour les utilisateurs. Les utilisateurs peuvent saisir des informations dans ces systèmes et obtenir un résultat, mais ils ne peuvent pas inspecter leur code ni comprendre la logique qui produit le résultat.
L’apprentissage automatique, en tant que branche principale de l’IA, est la pierre angulaire des systèmes d’IA générative tels que ChatGPT. L'apprentissage automatique se compose de trois parties principales : l'algorithme, les données d'entraînement et le modèle. Un algorithme est une série d'instructions de programme. Dans l'apprentissage automatique, l'algorithme apprend à reconnaître des modèles dans les données grâce à de grandes quantités de données d'entraînement. Lorsque l'algorithme d'apprentissage automatique termine la formation, le produit est le modèle d'apprentissage automatique, qui est également la partie que les utilisateurs utilisent réellement.
Chacune de ces trois parties d’un système d’apprentissage automatique peut être masquée, c’est-à-dire placée dans une boîte noire. En règle générale, les algorithmes sont accessibles au public. Mais pour protéger la propriété intellectuelle, les développeurs de logiciels d’IA placent souvent les modèles ou les données de formation dans des boîtes noires.
L'architecture du modèle est si complexe qu'elle est difficile à expliquer
Bien que les mathématiques derrière de nombreux algorithmes d’IA soient bien comprises, le comportement produit par les réseaux formés par ces algorithmes est insaisissable.
ChatGPT, Gemini, Claude, Llama et tout générateur d'images comme DALL-E, ainsi que tout système reposant sur des réseaux de neurones, y compris les applications de reconnaissance faciale et les moteurs de recommandation de contenu, sont confrontés à ce problème.
En revanche, d’autres algorithmes d’IA, tels que les arbres de décision ou la régression linéaire (couramment utilisés dans des domaines comme la médecine et l’économie), sont plus interprétables. Leur processus de prise de décision est facile à comprendre et à visualiser. Les ingénieurs peuvent suivre les branches d’un arbre de décision et voir clairement comment un résultat spécifique est obtenu.
Cette clarté est essentielle car elle injecte de la transparence dans l’IA et assure la sûreté et la sécurité de ceux qui utilisent les algorithmes. Il convient de noter que la loi européenne sur l’intelligence artificielle souligne l’importance de disposer de systèmes transparents et explicables. Cependant, l’architecture des réseaux de neurones elle-même entrave cette transparence. Pour comprendre le problème de la boîte noire de ces algorithmes, il faut imaginer un réseau de neurones ou de nœuds interconnectés.
Juan Antonio, professeur à l'Institut d'IA du Conseil national espagnol de la recherche, a expliqué que lorsque vous introduisez des données dans le réseau, les valeurs dans les nœuds déclenchent une série de calculs. Les informations sont propagées depuis les premiers nœuds sous forme numérique vers les nœuds suivants, chaque nœud calcule un nombre et l'envoie à toutes les connexions, en tenant compte du poids (c'est-à-dire la valeur numérique) de chaque connexion. Le nouveau nœud qui reçoit ces informations calculera un autre nombre.
Il convient de noter que les modèles d’apprentissage profond actuels contiennent des milliers, voire des millions de paramètres. Ces paramètres représentent le nombre de nœuds et de connexions après la formation, qui sont importants et variés, ce qui rend difficile la dérivation manuelle d'équations significatives.
Selon les estimations de l’industrie, GPT-4 compte près de 1 800 milliards de paramètres. Selon cette analyse, chaque modèle de langage utilisera environ 220 milliards de paramètres. Cela signifie que chaque fois qu’une question est posée, 220 milliards de variables pourraient influencer la réponse de l’algorithme.
Les entreprises technologiques tentent d’ouvrir des boîtes noires
L’opacité systémique rend plus difficile la correction des préjugés et alimente la méfiance. Actuellement, les principaux acteurs du domaine de l’IA sont conscients de cette limitation et mènent activement des recherches pour mieux comprendre le fonctionnement de leurs modèles. Par exemple, OpenAI utilise un réseau neuronal pour observer et analyser un autre réseau neuronal, et Anthropic étudie les connexions de nœuds et les circuits de propagation des informations.
Le décodage de la boîte noire présente un grand avantage pour le modèle de langage, qui peut éviter les raisonnements erronés et les informations trompeuses générées par l'IA, et résoudre le problème des réponses incohérentes. Cependant, sans comprendre le fonctionnement interne du réseau, les entreprises technologiques soumettent souvent leurs modèles à une formation approfondie, puis lancent leurs produits après avoir réussi les tests. Cette approche peut également poser des problèmes, par exemple lorsque Google Gemini génère des images erronées lors de sa première publication.
Le concept opposé à la boîte noire est la boîte en verre. La boîte en verre de l'IA signifie que ses algorithmes, ses données d'entraînement et ses modèles peuvent être vus par n'importe qui. Le but ultime du décodage des boîtes noires est de garder le contrôle de l’IA, notamment lorsqu’elle est déployée dans des zones sensibles. Supposons qu'un modèle d'apprentissage automatique ait établi un diagnostic sur la santé ou la situation financière d'un être humain, voudrait-il que le modèle soit une boîte noire ou une boîte en verre ? La réponse est évidente. Il ne s’agit pas seulement d’une forte concentration sur le fonctionnement interne de l’algorithme, non seulement par curiosité scientifique, mais également pour la protection de la vie privée des utilisateurs.