Zurück zum Blog
AIBewusstseinKognitionSelbstwahrnehmungNeurowissenschaft

14. Januar 2026

Wie denkt eine KI? Und verstehen wir uns selbst?

Wir versuchen zu entschlüsseln, wie KI denkt — dabei haben wir kaum verstanden, wie unser eigenes Denken funktioniert. Zwei Blackboxen im Vergleich.

Wie denkt eine KI? Und verstehen wir uns selbst?
Artikel anhörenVorgelesen von Thomas' KI-Klon
0:00

Zwei Blackboxen, die sich gegenseitig anstarren

Stell dir vor, du sitzt einem System gegenüber, das Sprache produziert, Argumente abwägt und auf Fragen antwortet, die selbst viele Menschen ins Stolpern bringen. Du fragst dich: Versteht es wirklich, was es sagt? Und dann kommt die unbequemere Frage: Verstehst du eigentlich, was du sagst?

Neurowissenschaftlich betrachtet ist dein Gehirn eine 1,4 Kilogramm schwere Masse aus rund 86 Milliarden Neuronen. Jede Sekunde verarbeitet es Millionen sensorischer Signale, filtert, gewichtet, interpretiert. Das meiste davon passiert, ohne dass du es bemerkst. Was du als „Denken" erlebst, ist das Endergebnis. Den Prozess selbst siehst du nicht.

Bei einer KI ist es ähnlich, nur anders verpackt. Milliarden von Parametern, trainiert auf Textdaten, erzeugen statistische Vorhersagen für das nächste Wort. Auch hier: Der Output ist sichtbar. Der Prozess dahinter? Undurchsichtig.

Zwei Systeme, die Ergebnisse produzieren, aber ihre eigene Verarbeitung nicht transparent machen können. Eines biologisch, eines digital.

Warum wir KI nicht verstehen

Die Forschung zur Explainable AI (XAI) versucht seit Jahren, die internen Prozesse neuronaler Netze nachvollziehbar zu machen. Wirklich weit ist sie damit nicht gekommen. Chris Olah und sein Team bei Anthropic haben 2023 und 2024 sogenannte „Features" in Sprachmodellen identifiziert, aktivierte Muster, die bestimmten Konzepten entsprechen. Das ist ein Anfang. Aber zwischen einem identifizierten Feature und dem Verständnis, warum ein Modell eine bestimmte Schlussfolgerung zieht, liegt noch sehr viel ungeklärtes Terrain.

Das Problem ist nicht nur technisch. Es ist konzeptionell. Wir versuchen, ein System zu verstehen, das auf eine völlig andere Art funktioniert als unser Denken. Gleichzeitig haben wir nur unser Denken als Werkzeug, um es zu analysieren. Wir setzen voraus, dass „Verstehen" bedeutet, einen Prozess in eine Geschichte zu übersetzen, die sich für uns logisch anfühlt. Doch wie real ist das, was sich für uns logisch anfühlt?

Und genau hier verschiebt sich das Problem. Von der Frage, ob wir KI verstehen können, zur Frage, ob wir überhaupt das richtige Werkzeug dafür haben.

Warum wir uns selbst nicht verstehen

Denn dasselbe Werkzeug, das wir auf KI richten, versagt schon bei sich selbst.

Die Neurowissenschaftlerin Lisa Feldman Barrett hat gezeigt, dass dein Gehirn Emotionen nicht erkennt, sondern konstruiert. Es nimmt Körpersignale, vergleicht sie mit vergangenen Erfahrungen und erzeugt eine Vorhersage. Was du als „Angst" oder „Aufregung" erlebst, ist eine Interpretation. Keine objektive Messung. Mehr dazu findest du in Was sind Emotionen?.

Benjamin Libet zeigte bereits in den 1980er Jahren, dass neuronale Aktivität einer bewussten Entscheidung um mehrere hundert Millisekunden vorausgeht. Du entscheidest nicht, und dann feuern die Neuronen. Die Neuronen feuern, und dann erlebst du die Illusion einer bewussten Entscheidung. Woher kommen dann deine Gedanken?

Du bist nicht der Denker deiner Gedanken. Du bist der Beobachter eines Prozesses, der längst stattgefunden hat.

Das heißt nicht, dass du keinen Einfluss hast. Aber dein Zugang zu deinem eigenen Denken ist weit weniger direkt, als du annimmst. Du interpretierst dein Denken, genauso wie du das Denken einer KI interpretierst. In beiden Fällen arbeitest du mit dem Output, nicht mit dem Prozess. Dein Gehirn liefert dir ein fertiges Narrativ, und du verwechselst dieses Narrativ mit der Realität.

Der Spiegel-Effekt

Damit stehen wir vor einer merkwürdigen Situation. Zwei Blackboxen, eine aus Neuronen, eine aus Transistoren, und ein Beobachter, der bei beiden nur den Output sieht. Die Diskussion über KI-Bewusstsein zwingt uns, unsere eigenen Annahmen offenzulegen. Wenn wir fragen „Versteht die KI wirklich?", müssen wir zuerst definieren, was „verstehen" überhaupt heißt. Und sobald wir das tun, merken wir, wie wackelig unsere eigene Definition ist.

Ein Sprachmodell kann einen Text über Trauer schreiben, der Menschen zu Tränen rührt. Versteht es Trauer? Wahrscheinlich nicht in dem Sinne, wie du sie erlebst. Aber kann eine KI Emotionen fühlen? Die Frage ist komplizierter als ein einfaches Nein.

Was wir wissen: Sowohl dein Gehirn als auch ein neuronales Netz sind Mustererkennungssysteme. Dein Gehirn erkennt Muster in sensorischen Daten und erzeugt daraus eine Erfahrung. Ein Sprachmodell erkennt Muster in Textdaten und erzeugt daraus Sprache. Der Unterschied liegt im Material, Neuronen versus Transistoren, und in der Tatsache, dass du eine subjektive Erfahrung hast. Oder zumindest glaubst du das.

Wenn du verstehen willst, wie du wirklich denkst — jenseits der Narrative, die dein Gehirn dir liefert — dann fang bei deiner Persönlichkeit an. Hier geht's zum ersten Schritt.

Denn auch deine subjektive Erfahrung ist ein Konstrukt deines Gehirns. Die Farbe Rot existiert nicht in der Außenwelt. Dort gibt es nur elektromagnetische Wellen mit einer Wellenlänge von etwa 700 Nanometern. „Rot" ist das, was dein Gehirn daraus macht. Wenn schon deine Wahrnehmung der Welt eine Konstruktion ist, wie sicher kannst du dir dann sein, dass deine Wahrnehmung deines eigenen Denkens es nicht auch ist?

Was das für dich bedeutet

Die Frage „Können wir verstehen, wie KI denkt?" ist weniger eine technische und mehr eine philosophische. Sie hält uns einen Spiegel vor.

Dein Verständnis deiner eigenen Gedanken ist eine Interpretation, keine Beobachtung. Du hast keinen direkten Zugang zu den neuronalen Prozessen, die dein Erleben erzeugen. Du hast Zugang zu dem, was dein Gehirn dir als Ergebnis präsentiert. Und Eloquenz ist kein Beweis für Verständnis. Weder bei KI noch bei Menschen. Jemand kann brillant über Liebe sprechen und trotzdem nicht lieben. Ein Modell kann brillant über Physik schreiben und trotzdem keine Physik „verstehen". Hinterfrage den Output, nicht nur die Quelle.

Die interessanteste Frage ist am Ende gar nicht, ob KI denkt. Die interessanteste Frage ist, warum du so sicher bist, dass du weißt, was Denken ist.

Wenn du dich das nächste Mal dabei ertappst, wie du über das Bewusstsein einer Maschine nachdenkst, dreh die Frage um. Wie viel von deinem eigenen „Denken" steuerst du tatsächlich bewusst? Wie viel von deiner Wahrnehmung ist Konstruktion? Ist der Unterschied zwischen dir und einer Maschine so klar, wie du glaubst, oder einfach nur bequemer?

Das ist keine Bedrohung. Es ist eine Einladung, genauer hinzusehen.

Du kannst die Blackbox KI nicht öffnen. Aber deine eigene schon. 30 Persönlichkeitsfacetten, 9 Motive, 25 Kompetenzen — messbar statt geraten. Hier findest du den Zugang.

Bleibe bewusst. Folge der Freude.

Wie ersetzbar bist du wirklich?

10 Fragen, die dir zeigen, wo KI dich heute schon ersetzen kann — und wo deine Persönlichkeit dein stärkster Schutz ist.

Kostenloser Quick-Check

Das könnte dich auch interessieren