Washington – Zehn Jahre nach dem Start des DARPA-Programms zur Erklärbaren Künstlichen Intelligenz im Jahr 2016 zeichnet sich eine ernüchternde Bilanz ab. Das Vorhaben, das Millionen an Fördermitteln verschlang, zielte darauf ab, die Undurchsichtigkeit moderner KI-Systeme zu beseitigen und Entscheidungsprozesse nachvollziehbar zu machen. Trotz intensiver Bemühungen fehlen bis heute breit einsetzbare Lösungen, die den hohen Ansprüchen gerecht werden.
Das Programm konzentrierte sich auf die Entwicklung neuer maschineller Lernverfahren, die nicht nur präzise Vorhersagen treffen, sondern auch transparente Begründungen liefern. Im Mittelpunkt standen drei Kernbereiche: die Schaffung intrinsisch erklärbarer Modelle durch innovative Lernmethoden, die Gestaltung benutzerfreundlicher Schnittstellen für Visualisierungen und interaktive Dialoge sowie die Integration psychologischer Theorien zur Optimierung von Erklärungen. Als Anwendungsfelder dienten die Analyse komplexer Datenmengen zur Mustererkennung und die Entscheidungsfindung in autonomen Systemen, etwa bei Drohnen. Die Bewertung umfasste Kriterien wie die Lernfähigkeit der Modelle und die Wirksamkeit der Erklärungen, gemessen an Aspekten wie Nutzervertrauen und der Fähigkeit, Fehler zu korrigieren.
Heute, im Jahr 2026, offenbaren sich mehrere Schwachstellen, die den Fortschritt behindern. Zunächst mangelt es an gesetzlichen Vorgaben, die Erklärbarkeit verbindlich machen. In der Europäischen Union fordert der AI Act aus dem Jahr 2024 Transparenz für risikoreiche Anwendungen, doch intrinsische Erklärbarkeit bleibt optional. Ohne regulatorischen Druck priorisieren Unternehmen und Forscher oft leistungsstarke, aber undurchsichtige Modelle, da transparente Alternativen teurer und weniger effizient sind.
Ein zentrales Problem bleibt der Konflikt zwischen Genauigkeit und Nachvollziehbarkeit. Komplexe Systeme wie Deep-Learning-Netze oder Transformer erzielen hohe Präzision, erschweren jedoch echte Transparenz. Statt echter Lösungen greifen viele auf nachträgliche Analysemethoden zurück, die zwar Erklärungen simulieren, aber keine grundlegende Veränderung der Modelle bewirken. Das Programm hat diesen Trade-off nicht nachhaltig überwunden.
Auch die psychologischen Grundlagen, die in computergestützte Modelle umgesetzt werden sollten, blieben größtenteils theoretisch. Praktische Anwendungen, die Entwicklern helfen, Erklärungen zu verbessern, fehlen weitgehend.
Zudem existiert keine einheitliche, offen zugängliche Referenzlösung. Vorhandene Bibliotheken sind hilfreich, doch fragmentiert und nicht auf dem ambitionierten Niveau, das anfangs angekündigt wurde.
In sensiblen Bereichen wie Medizin, Justiz, Kreditvergabe oder autonomen Fahrzeugen ist Erklärbarkeit unverzichtbar, doch Regulierungen in Europa und den USA verlangen keine verbindlichen transparenten Modelle. Oft genügen oberflächliche Darstellungen, deren Zuverlässigkeit wissenschaftlich angezweifelt wird. Hier fehlt der politische Wille, den das Programm eigentlich unterstützen sollte.
Zusammenfassend hat das DARPA-Vorhaben wegweisende Ideen geliefert, die Kluft zwischen Theorie und Praxis jedoch nicht geschlossen. Solange Erklärbarkeit freiwillig bleibt, behalten undurchsichtige Systeme die Oberhand, und das Programm wirkt wie ein kostspieliges Experiment mit begrenztem Einfluss.
