Warum die KI halluziniert – und wie wir das nutzen können
22 Oktober 2025 15:03
Partner
Haben Sie jemals einer Tabellenkalkulation vertraut, nur um dann einen kritischen Fehler in einer Formel zu entdecken? Stellen Sie sich nun vor, dieser Fehler könnte Quellen erfinden, Daten fälschen und diese mit unerschütterlicher Überzeugung präsentieren. Das ist das Schreckgespenst der „halluzinierenden KI". OpenAI hat bestätigt, dass es sich dabei nicht um einen zu behebenden Fehler handelt, sondern um ein grundlegendes Funktionsprinzip grosser Sprachmodelle.
1931 warf der Mathematiker Kurt Gödel eine Bombe in die Welt der Logik. Vereinfacht gesagt bewies er, dass es in jedem ausreichend komplexen Regelsystem, wie beispielsweise einer Reihe von Axiomen für die Arithmetik – oder dem gesamten Internet, das zum Trainieren einer KI verwendet wird, – immer wahre Aussagen gibt, die innerhalb dieses Systems nicht bewiesen werden können. Das System kann konsistent sein, d. h. frei von Widersprüchen, oder es kann vollständig sein, d. h. in der Lage, jede wahre Aussage zu beweisen, aber es kann niemals beides sein.
Stellen Sie sich das wie das Regelwerk eines Unternehmens vor. Sie können ein vollkommen konsistentes Regelwerk ohne Widersprüche haben. Aber es wird immer reale Szenarien geben, wie z. B. eine disruptive neue Technologie oder ein beispielloses Marktereignis, die das Regelwerk nicht abdeckt und nicht beurteilen kann. Um damit umzugehen, müssen Sie ausserhalb der Regeln handeln und menschliches Urteilsvermögen, Kreativität oder Ethik einsetzen. Das Regelwerk ist konsistent, aber unvollständig.
Alternativ könnten Sie ein Regelwerk verfassen, das so umfassend ist, dass es versucht, eine Antwort für jede denkbare Situation vorzugeben. Dabei würden Sie jedoch unweigerlich Widersprüche schaffen, bei denen eine Regel mit einer anderen in Konflikt kommt. Dieses Regelwerk wäre vollständig, aber inkonsistent.
Gödel hat bewiesen, dass dies keine Einschränkung unseres derzeitigen Wissens ist, sondern ein Gesetz logischer Systeme.
Wenden wir dies nun auf die KI an. Ihr Regelwerk ist der riesige Datensatz, mit dem sie trainiert wurde. Sie hat einen bedeutenden Teil des menschlichen Wissens aufgenommen, aber dieses Wissen ist ein endliches, inkonsistentes und unvollständiges System. Es enthält Widersprüche, Unwahrheiten und vor allem Lücken.
Eine KI, die ausschliesslich innerhalb ihrer Trainingsdaten arbeitet, ist wie ein Manager, der sich weigert, über den Tellerrand des Unternehmens hinauszuschauen. Wenn sie mit einer Frage konfrontiert wird, die in eine von Gödels Lücken fällt – eine Frage, deren Antwort zwar wahr ist, aber anhand ihrer Daten nicht bewiesen werden kann –, verfügt die KI nicht über die menschliche Fähigkeit, zu sagen: „Ich weiss es nicht“ oder nach völlig neuen Informationen zu suchen. Ihre Kernprogrammierung besteht darin zu antworten. Also tut sie das, was in der OpenAI-Veröffentlichung beschrieben wird: Sie vervollständigt automatisch. Sie schafft eine plausibel klingende Realität auf der Grundlage der Muster in ihren Daten – sie halluziniert: Sie erfindet eine Finanzkennzahl, weil das Muster nahelegt, dass dort eine Zahl stehen sollte. Sie zitiert einen nicht existierenden Rechtsfall, weil das Muster der Rechtssprache überzeugend ist. Sie entwirft eine Produktfunktion, die physikalisch unmöglich ist, weil die Trainingsdaten sowohl technische Wahrheiten als auch Science-Fiction enthalten.
Die Halluzination der KI ist nicht einfach ein technischer Fehler, sondern eine Gödelsche Unvermeidbarkeit. Es ist der Versuch des Systems, vollständig zu sein, der es zwingt, inkonsistent zu werden, es sei denn, das System sagt: „Ich weiß es nicht.“ In diesem Fall wäre das System konsistent, aber unvollständig.
Interessanterweise verfügt das neueste Modell von OpenAI über eine Funktion, die als Verbesserung angepriesen wird – nämlich seine „Enthaltungsrate“ (die Rate, mit der das Modell zugibt, dass es keine Antwort geben kann). Diese Rate ist von etwa 1 Prozent in früheren Modellen auf über 50 Prozent in GPT-5 gestiegen.
Soll man also auf KI verzichten? KI entweder als Retter oder als Paria zu betrachten, verfehlt den Punkt völlig. Unsere Diskussion muss sich von der Einführung hin zur Orchestrierung verlagern. Die inhärente Natur dieser Systeme, wie sie sowohl durch die Forschung von OpenAI als auch durch Gödels kalte Logik unterstrichen wird, ist nicht die einer letztendlichen Unfehlbarkeit, sondern die einer konstitutionellen Schwäche. Halluzinationen sind kein Fehler, sondern liegen in der Natur von Sprachmodellen und zwar sowohl in denen, die von Menschen verwendet werden, als auch in denen, die von Maschinen verwendet werden.
Diese Erkenntnis erfordert eine Strategieänderung: Das Ziel ist nicht mehr, ein Orakel zu schaffen, sondern einen Provokateur von Weltklasse zu entwickeln.
Die Aufgabe der Führungskräfte besteht also darin, mit der Dissonanz umgehen zu können und sich mit den Unsicherheiten der vorgeschlagenen Ergebnisse dennoch wohlzufühlen. Anders gesagt: Betrachten Sie die KI nicht mehr als Junior-Analyst, sondern als designierten Dissidenten, als ein System, das entwickelt wurde, um die Selbstzufriedenheit der Menschen herauszufordern, indem es alternative Strategien generiert, logische Schwachstellen aufdeckt und die Schritte der Konkurrenz mit beunruhigender Geschwindigkeit simuliert. Anstatt Halluzinationen als den Preis zu betrachten, den wir für das Genie der KI zahlen, sollten wir auf ihnen aufbauen, um bessere Ideen zu entwickeln und uns unserer blinden Flecken bewusst zu werden.
Die robustesten Organisationen werden diejenigen sein, die Widersprüche institutionalisieren und eine Kultur aufbauen, in der jede von der KI generierte Erkenntnis einer Reihe menschlicher Überprüfungstandhalten muss. Die Zukunft gehört nicht denen mit der leistungsfähigsten KI, sondern denen mit der ausgefeiltesten Symbiose zwischen Menschen und KI. Sie werden nicht deshalb erfolgreich sein, weil ihre Technologie perfekt ist, sondern weil ihre Mitarbeiter gut gerüstet sind, um die Unvollkommenheiten der LLMs zu nutzen. Sie werden kein Orakel befragen, sondern sich mit einer probabilistischen Maschine auseinandersetzen – und das ist etwas weitaus Mächtigeres.
José Parra Moyano ist Professor für digitale Strategie am International Institute for Management Development (IMD) in Lausanne. Seine Schwerpunkte sind das Management und die Ökonomie von Daten und Datenschutz sowie die Frage, wie Unternehmen in der digitalen Wirtschaft nachhaltigen Wert schaffen können. Er wurde in die Global Shapers Community des Weltwirtschaftsforums und in die Forbes-Liste „30 under 30“ der herausragenden jungen Unternehmer in der Schweiz aufgenommen. Bei IMD unterrichtet er in verschiedenen Programmen, darunter MBA und Strategische Finanzen, zu den Themen KI, Strategie und Innovation.
José Parra Moyano spricht auch am IMD KI-Update, das am 20. Januar 2026 in THE HALL Zürich stattfindet. Der Leadership Summit im Zeitalter der KI wird von der echo group mit dem IMD Lausanne als Knowledge Partner organisiert. Bis zum 31. Oktober gilt noch ein Early Bird-Preis mit 20 Rabatt.