Bildquelle: Spanische Website „El Pais“.
Bei Blackboxen denken viele Menschen an Geräte zur Aufzeichnung von Flugdaten in Flugzeugen oder an kleine Theater voller Nostalgie. Aber auch im Bereich der künstlichen Intelligenz (KI) ist Black Box ein wichtiger Begriff, der nicht ignoriert werden darf.
El Pais aus Spanien wies darauf hin, dass selbst die erfahrensten Forscher nichts über seine internen Abläufe wissen, wenn ein neuronales KI-Netzwerk läuft. Die Diskussion dreht sich hier nicht um Biologie, sondern um KI-Algorithmen, insbesondere solche, die auf Deep Learning basieren und die Verbindungen zwischen Neuronen nachahmen. Diese Systeme sind wie Black Boxes, und es ist für Datenwissenschaftler, Top-Talente in der Wissenschaft und Nobelpreisträger-Ingenieure bei OpenAI und Google schwierig, in ihre internen Geheimnisse einzudringen.
Modell und Daten sind undurchsichtig
Das Magazin „Scientific American“ berichtete, dass sich eine KI-Blackbox auf ein KI-System bezieht, dessen Innenleben für Nutzer völlig unsichtbar ist. Benutzer können Informationen in diese Systeme eingeben und eine Ausgabe erhalten, aber sie können ihren Code nicht überprüfen oder die Logik verstehen, die die Ausgabe erzeugt.
Maschinelles Lernen als Hauptzweig der KI ist der Grundstein generativer KI-Systeme wie ChatGPT. Maschinelles Lernen besteht aus drei Kernteilen: Algorithmus, Trainingsdaten und Modell. Ein Algorithmus ist eine Reihe von Programmanweisungen. Beim maschinellen Lernen lernt der Algorithmus anhand großer Mengen an Trainingsdaten, Muster in den Daten zu erkennen. Wenn der Algorithmus für maschinelles Lernen das Training abschließt, ist das Produkt das Modell für maschinelles Lernen, das auch der Teil ist, den Benutzer tatsächlich verwenden.
Jeder dieser drei Teile eines maschinellen Lernsystems kann verborgen sein, also in einer Blackbox platziert werden. Typischerweise sind Algorithmen öffentlich verfügbar. Um geistiges Eigentum zu schützen, legen KI-Softwareentwickler Modelle oder Trainingsdaten jedoch häufig in Blackboxen ab.
Die Modellarchitektur ist so komplex, dass sie schwer zu erklären ist
Obwohl die Mathematik hinter vielen KI-Algorithmen gut verstanden ist, ist das Verhalten der von diesen Algorithmen gebildeten Netzwerke schwer zu fassen.
ChatGPT, Gemini, Claude, Llama und jeder Bildgenerator wie DALL-E sowie jedes System, das auf neuronalen Netzen basiert, einschließlich Gesichtserkennungsanwendungen und Inhaltsempfehlungsmaschinen, sind mit diesem Problem konfrontiert.
Im Gegensatz dazu sind andere KI-Algorithmen wie Entscheidungsbäume oder lineare Regression (häufig in Bereichen wie Medizin und Wirtschaft verwendet) besser interpretierbar. Ihr Entscheidungsprozess ist leicht zu verstehen und zu visualisieren. Ingenieure können den Zweigen eines Entscheidungsbaums folgen und klar erkennen, wie ein bestimmtes Ergebnis erzielt wird.
Diese Klarheit ist von entscheidender Bedeutung, da sie der KI Transparenz verleiht und denjenigen Sicherheit bietet, die die Algorithmen verwenden. Es ist erwähnenswert, dass das EU-Gesetz über künstliche Intelligenz die Bedeutung transparenter und erklärbarer Systeme betont. Allerdings behindert die Architektur neuronaler Netze selbst diese Transparenz. Um das Black-Box-Problem dieser Algorithmen zu verstehen, muss man sich ein Netzwerk miteinander verbundener Neuronen oder Knoten vorstellen.
Juan Antonio, Professor am KI-Institut des spanischen Nationalen Forschungsrats, erklärte, dass die Werte in den Knoten eine Reihe von Berechnungen auslösen, wenn man Daten in das Netzwerk einspeist. Informationen werden von den ersten Knoten in numerischer Form an nachfolgende Knoten weitergegeben. Jeder Knoten berechnet eine Zahl und sendet sie an alle Verbindungen, wobei das Gewicht (d. h. der numerische Wert) jeder Verbindung berücksichtigt wird. Der neue Knoten, der diese Informationen empfängt, berechnet eine andere Zahl.
Es ist erwähnenswert, dass aktuelle Deep-Learning-Modelle Tausende bis Millionen von Parametern enthalten. Diese Parameter stellen die Anzahl der Knoten und Verbindungen nach dem Training dar, die groß und vielfältig sind, was es schwierig macht, sinnvolle Gleichungen manuell abzuleiten.
Branchenschätzungen zufolge verfügt GPT-4 über fast 1,8 Billionen Parameter. Laut dieser Analyse wird jedes Sprachmodell etwa 220 Milliarden Parameter verwenden. Das bedeutet, dass es jedes Mal, wenn eine Frage gestellt wird, 220 Milliarden Variablen gibt, die die Antwort des Algorithmus beeinflussen können.
Technologieunternehmen versuchen, Black Boxes zu öffnen
Systemische Undurchsichtigkeit erschwert die Korrektur von Vorurteilen und schürt Misstrauen. Derzeit sind sich große Akteure im KI-Bereich dieser Einschränkung bewusst und führen aktiv Forschungen durch, um die Funktionsweise ihrer Modelle besser zu verstehen. OpenAI verwendet beispielsweise ein neuronales Netzwerk, um ein anderes neuronales Netzwerk zu beobachten und zu analysieren, und Anthropic untersucht Knotenverbindungen und Informationsverbreitungskreise.
Das Entschlüsseln der Black Box ist für das Sprachmodell von großem Nutzen, da es fehlerhafte Überlegungen und irreführende Informationen vermeiden kann, die von der KI generiert werden, und das Problem inkonsistenter Antworten lösen kann. Ohne die Funktionsweise des Netzwerks zu verstehen, unterziehen Technologieunternehmen ihre Modelle jedoch oft einer umfangreichen Schulung und veröffentlichen dann Produkte, nachdem sie die Tests bestanden haben. Dieser Ansatz kann auch zu Problemen führen, beispielsweise dass Google Gemini bei der ersten Veröffentlichung falsche Bilder generierte.
Das Gegenkonzept zur Blackbox ist die Glasbox. Durch die KI-Glasbox sind ihre Algorithmen, Trainingsdaten und Modelle für jedermann einsehbar. Das ultimative Ziel der Entschlüsselung von Black Boxes besteht darin, die Kontrolle über die KI zu behalten, insbesondere wenn sie in sensiblen Bereichen eingesetzt wird. Angenommen, ein Modell für maschinelles Lernen hat eine Diagnose über die Gesundheit oder die finanzielle Situation eines Menschen gestellt. Würde man dann wollen, dass das Modell eine Blackbox oder eine Glasbox ist? Die Antwort liegt auf der Hand. Dies ist nicht nur ein starker Fokus auf das Innenleben des Algorithmus, nicht nur aus wissenschaftlicher Neugier, sondern auch zum Schutz der Privatsphäre der Benutzer.