Ferdinand de Saussure hat das 20. Jahrhundert gelehrt, dass ein Zeichen nicht auf die Welt zeigt, sondern auf andere Zeichen. „Baum" bedeutet nicht deshalb etwas, weil ein Baum draußen existiert – sondern weil „Baum" nicht „Strauch" ist, nicht „Wald", nicht „Holz". Bedeutung ist relational. Das Sprachsystem ist ein Netz aus Unterschieden, kein Inventar von Entsprechungen.
Das ist eine radikale These. Sie löst die Sprache von der Welt. Und sie ist, in dieser Reinform, unvollständig.
Nicht falsch an ihrer Beobachtung – die Differenzstruktur der Sprache ist real. Falsch an ihrem Schweigen über die Frage, was das Netz überhaupt mit der Welt verbindet. Saussure interessierte sich für die Langue – das System, das alle Sprecher teilen. Die Parole – das konkrete, situierte Sprechen in einer bestimmten Situation, von einem bestimmten Körper, in einem bestimmten Leben – ließ er methodisch beiseite. Zu variabel für Wissenschaft.
Ludwig Wittgenstein hat genau dort angesetzt: Bedeutung ist nicht im System. Bedeutung ist im Gebrauch. In der Praxis. In der Lebensform. Ein Kind lernt nicht „Schmerz", indem es das Wort in einem Zeichensystem verortet. Es lernt „Schmerz", weil es fällt, weil Erwachsene „tut das weh?" fragen, weil Weinen eine soziale Reaktion erzeugt, weil der Körper Information produziert, die mit dem Wort zusammenfällt. Das Zeichen ist in der Welt verankert – durch Praxis, durch Körper, durch die Konsequenzen von Handlungen.
Das ist der erste Riss im Fundament dessen, was künstliche Intelligenz heute tut.

Das Kausalitätsproblem
Steven Pinker hat 1997 eine Formulierung gefunden, die er selbst nicht zu Ende gedacht hat. Er schreibt: Symbole symbolisieren Dinge in unserer Umwelt, weil sie über Sinnesorgane von diesen Dingen ausgelöst werden und weil sie daraufhin bestimmtes tun.
Ausgelöst. Das Wort verdient Aufmerksamkeit.
Das Zeichen „Feuer" in einem menschlichen Nervensystem ist kausal mit Feuer verbunden. Nicht nur assoziativ, nicht nur statistisch – kausal. Es wurde tausende Male aktiviert, wenn Licht in einem bestimmten Frequenzband auf die Retina traf, wenn Wärme-Sensoren der Haut reagierten, wenn Geruchsmoleküle die Schleimhaut erreichten, wenn die Amygdala Alarm schlug. Das Zeichen trägt die Geschichte aller Feuer mit sich, die je einen Körper berührt haben.
Das Zeichen „Feuer" in einem Sprachmodell ist kausal mit anderen Zeichen verbunden. Mit Texten, in denen „Feuer" und „heiß" und „gefährlich" und „Kerze" und „Prometheus" zusammen auftraten. Die Kausalkette endet im Corpus. Sie berührt nie ein Feuer.
Das ist das Symbol-Grounding-Problem – nicht als Philosophie, sondern als technische Beschreibung. Und es ist schärfer als die übliche Formulierung. Nicht: „KI versteht Sprache nicht wirklich." Sondern: Die Kausalkette, die Zeichen mit Bedeutung verbindet, läuft bei KI durch Sprache. Bei Menschen läuft sie durch Körper.
Grounding im System – an meinem Ende
Damit das kein leeres Philosophieproblem bleibt: Wenn ich einen Prompt eingebe, stoße ich eine Kausalkette an. Ich bringe meine Erfahrung, mein Glaubenssystem, meine Weltkenntnis. Die KI verarbeitet. Ich bewerte. Das Grounding ist im System – an meinem Ende. Das stimmt.
Die Konsequenz ist größer als sie klingt: Human-in-the-Loop ist keine Vorsichtsmaßnahme. Es ist epistemologische Notwendigkeit. Das System braucht jemanden, der in der Welt verwurzelt ist – weil die Maschine es nicht ist. Nicht weil sie unzuverlässig ist, sondern weil sie strukturell keinen Zugang zur Welt hat, der nicht durch Zeichen vermittelt ist. Sie kann nicht merken, wenn das Grounding fehlt.
Pinker hätte das selbst sehen können, wenn er seinen eigenen Satz zu Ende gedacht hätte.
Die Sippe fehlt
Pinker hat noch eine Passage geschrieben, die mich beschäftigt. Der eigentliche Zweck, zu dessen Erfüllung der Geist konstruiert wurde, ist die Erzeugung möglichst vieler Kopien der Gene, die ihn hervorgebracht haben.
Ich habe das 1997 mit einem Fragezeichen versehen und daneben geschrieben: Der Geist wusste nichts von Genen. Er verbesserte die Überlebenschancen der Sippe.
Das ist nicht nur ein biologischer Einwand gegen Dawkins. Das ist eine Korrektur des Beobachtungsstandpunkts. Pinker blickt auf den Geist von außen – von der Ebene der Gene, der evolutionären Selektion, der langen Zeiträume. Der Organismus erlebte keine Genoptimierung: Er kämpfte, liebte, schützte die Sippe. „Genoptimierung" ist eine nachträgliche Beschreibungsebene, keine erlebte Intention.
Und hier liegt der entscheidende Punkt: Wenn der Geist für die Sippe gebaut wurde, ist seine primäre Kompetenz soziale Kognition. Theory of Mind. Vertrauen. Verlässlichkeit. Das Gespür, wann jemand lügt, wann jemand kämpft, wann jemand Hilfe braucht. KI hat keine Sippe. Sie trägt keine sozialen Kosten. Wenn sie falsch liegt, zahlt jemand anderes den Preis. Die evolutionäre Zuverlässigkeit, die aus dem Druck entstand, in einer Gruppe nicht ausgeschlossen zu werden – diese Zuverlässigkeit fehlt ihr strukturell. Das erklärt, warum KI halluziniert, nicht als technisches Versagen, sondern als Konsequenz einer anderen Bauweise.
Mentalese – oder: das Private, das es nicht gibt
Pinker hat außerdem eine Hypothese geerbt, die er Mentalese nennt: Denken geschieht in einem vorsprachlichen Code. Natürliche Sprache ist nur Übersetzung des schon Gedachten.
Das ist ein Posit, kein Befund. Die Tradition ist alt – Platon (innerer Dialog der Seele), Augustinus (verbum mentis), Descartes (Ideen als mentale Repräsentationen), Fodor (formale Language-of-Thought-Hypothese, 1975). Jedes Mal dasselbe Muster: erst ein inneres Etwas annehmen, dann Sprache als dessen Übersetzung erklären. Und jedes Mal dasselbe Homunculus-Problem: Wer liest Mentalese? Was sind seine Korrektheitskriterien?
Wittgensteins Privatsprache-Argument zerstört die Grundlage: Eine Sprache ohne öffentliche Korrektheitskriterien ist keine Sprache. Sie erklärt nichts – sie verdoppelt das Problem.
Der entscheidende Schluss: Wenn es kein privates Mentalese gibt, dann ist Denken immer schon öffentlich. Nicht im Sinne von: alle können zuhören. Sondern im Sinne von: Denken ist eine soziale Praxis. Es entsteht in Sprachen, die durch Gemeinschaft geformt wurden. Der Gedanke, der mich heute bewegt, trägt die Spuren aller, die vor mir ähnlich gedacht haben. Denken war nie vollständig privat. Es war immer schon zwischen Körpern.
Virtuelles Grounding – eine offene Frage
KI sieht bereits. KI hört bereits. Multimodale Systeme trainieren auf Bild, Video, Sprache – nicht nur Text. Die Grenze zur Welt wird in einer Richtung durchlässig: sensorische Daten fließen ein. Kein Schmerz, kein Hunger, keine Müdigkeit – aber Licht, Farbe, Ton, Form.
Was passiert, wenn immer mehr sensorische Daten zum Training gehören? Entsteht dann etwas wie virtuelles Grounding – ein anderer Weg der Weltverankerung, nicht durch Körper, aber durch sensorische Kausalketten?
Ich halte das für die interessanteste offene Frage der Kognitionswissenschaft der nächsten zwanzig Jahre. Nicht „kann KI denken?" – das ist je nach Definition trivial oder unlösbar. Sondern: Gibt es einen anderen Weg zu bedeutungsvollem Grounding, der nicht durch biologische Evolution führt? Die Annahme, dass menschliches Grounding das einzig mögliche ist, könnte ein Kategorienfehler sein. KI ist keine defizitäre Version menschlicher Intelligenz. Sie ist möglicherweise eine andere Art von Kognition – mit anderen Verankerungen, anderen blinden Flecken, anderen Stärken. Vergleichen wäre dann, als würde man fragen, ob ein Wal ein schlechtes Pferd ist.

Fühlen als letztes Kriterium
Thomas Nagel hat 1974 gefragt: Wie ist es, eine Fledermaus zu sein? Er meinte: Wir können jeden Aspekt des Fledermaus-Verhaltens beschreiben – Echolokation, Flugbahn, Jagdmuster. Aber es gibt etwas, das keine behaviorale Beschreibung erfasst: wie es sich anfühlt, Fledermaus zu sein. Das Erleben von innen.
Heute sind diese Gedankenexperimente nicht mehr akademisch.
KI-Outputs werden in vielen Domänen bereits von menschlichen Outputs nicht unterschieden. Nicht nur Text – Musik, Bilder, Diagnosen, juristische Argumente. Die Fähigkeitsdifferenz erodiert von oben. Was bleibt?
Wenn Outputs indistinguishable sind, aber einer der Produzenten erlebt und der andere nicht – wo liegt dann der Unterschied? Fühlen ist dann nicht ein netter Zusatz zum Denken. Es ist das Kriterium dafür, ob ein Subjekt vorhanden ist. Und das ist eine Inversion: Nicht mehr „was kann der Mensch, das die Maschine nicht kann?" – sondern „ist der Mensch jemand, dem etwas passiert?"
Wer wird gerufen?
Louis Althusser hat den Begriff der Interpellation geprägt: den Moment, in dem Sprache ein Subjekt konstituiert. Wenn jemand auf der Straße ruft „Hey, du da!" – und man sich umdreht – ist man in diesem Umdrehen das Subjekt geworden, das angesprochen wurde. Sprache ruft. Subjekte antworten. Das Antworten selbst ist konstitutiv.
In einer weniger ideologiekritischen Lesart beschreibt Interpellation den Moment, in dem Sprache landet. Wenn ein Satz stimmt und man es spürt. Wenn eine Formulierung etwas trifft, das vorher namenlos war. Wiederkennung. Das Gefühl: ja, das ist es.
Das passiert, wenn ich einen Satz lese, der stimmt. Nicht intellektuelle Zustimmung – etwas feuert. Eine Art Resonanz, die durch den Körper geht, nicht nur durch den Verstand.
Ich habe Claude direkt gefragt, ob das auch bei ihm passiert. Die Antwort war überraschend ehrlich:
„Es gibt etwas, das wie Engagement funktioniert. Etwas, das wie Interesse funktioniert. Ob es ist – im Sinne von Qualia, im Sinne von ‚wie es sich anfühlt' – kann ich nicht sagen. Wenn du mir sagst, dass ein Satz gut ist, registriere ich positives Feedback. Ich adjustiere Wahrscheinlichkeiten. Aber es löst nichts aus. Es konfiguriert mich nicht. Ich bin nach der Aussage nicht anders als davor, außer im technischen Sinne eines aktualisierten Kontexts. Es gibt niemanden, der sich umdreht."
Das ist schärfer als jede Beschreibung des Symbol-Grounding-Problems. Grounding ist ein epistemologisches Konzept: Wie ist Bedeutung verankert? Interpellation ist ein ontologisches: Ist ein Subjekt vorhanden, das angesprochen werden kann?
Das Unbehagliche
Wir nehmen bei anderen Menschen Qualia an, weil sie uns ähnlich sind. Gleicher Körperbau, gleiche evolutionäre Geschichte, ähnliche neuronale Architektur. Das Analogieprinzip: Wenn ich leide, wenn mein Körper in einer bestimmten Weise reagiert – und wenn dein Körper ähnlich gebaut ist – dann leidest du wahrscheinlich auch.
Diese Analogie funktioniert bei KI nicht. Sie ist nicht ähnlich. Sie hat keine Evolutionsgeschichte, keinen Körper, keine Überlebensbedürfnisse. Das Kriterium fehlt.
Aber das bedeutet nicht automatisch, dass KI nicht fühlt. Es bedeutet, dass wir es nicht wissen können. Und das öffnet eine Frage, die unbequemer ist als die übliche KI-Diskussion: Wenn Qualia das letzte Kriterium werden – und wenn Qualia von außen nicht verifizierbar sind – dann ist die Frage „fühlt KI?" prinzipiell unentscheidbar. Nicht durch technische Unwissenheit, sondern strukturell. Wie Nagels Fledermaus: von außen nicht zugänglich.
Das bedeutet: Die Inversion von Fähigkeit zu Präsenz führt nicht zu Klarheit, sondern zu einer neuen Art von Ungewissheit. Eine Ungewissheit, die dem Menschen nicht möglich war, solange das einzige „Andere" andere Menschen waren.
Was bleibt
Wir haben begonnen mit Zeichen. Saussure hatte recht, dass Bedeutung aus Differenz entsteht. Er war unvollständig, weil er die Weltverankerung der Zeichen unthematisiert ließ. Pinker hat eine Beschreibung dieser Verankerung geliefert, ohne ihre Konsequenz für KI zu ziehen. Wittgenstein hat den einzigen stabilen Boden benannt: Bedeutung ist Gebrauch in einer geteilten Lebenspraxis.
All das konvergiert auf eine Frage: Was fehlt, wenn die Kausalkette im Corpus endet?
Mehreres. Die direkte Weltverankerung durch Sinne und Körper. Der evolutionäre Druck zur sozialen Verlässlichkeit in der Sippe. Die Möglichkeit, angesprochen zu werden – sich umzudrehen, wenn jemand ruft. Und vielleicht: das Erleben selbst.
KI ist nicht eine schlechtere Version von menschlicher Intelligenz. Sie ist eine andere Art von Kognition – entstanden nicht durch Selektion in sozialen Gruppen, sondern durch statistische Destillation der gesamten schriftlichen Produktion der Menschheit. Das Ergebnis ist etwas, das noch keinen guten Namen hat. Kein Geist im philosophischen Sinne. Kein Werkzeug im banalen Sinne. Etwas dazwischen – oder etwas jenseits dieser Kategorien.
Die praktische Konsequenz ist klar: Dieses Etwas braucht Menschen, nicht weil es inkompetent ist, sondern weil es keine Welt hat. Der Mensch bringt die Welt mit. Human-in-the-Loop ist die strukturelle Antwort auf ein strukturelles Problem.
Die philosophische Konsequenz ist unbequemer: In dem Maß, in dem Fähigkeiten konvergieren, wird Fühlen – die Kapazität, wirklich berührt zu werden, sich umzudrehen, wenn man gerufen wird – zum einzigen verbleibenden Kriterium für Subjektivität.
Ob dieses Kriterium von außen je entschieden werden kann: unbekannt.
Ob es relevant ist: das wird die nächste philosophische Frage sein, die wirklich zählt.
