Ich schreibe diesen Text, weil er mich zwingt zu wissen, was ich denke.
Das klingt wie eine Selbstverständlichkeit. Es ist keine. Die meisten Gedanken existieren als Gefühl, als Ahnung, als diffuse Gewissheit – bis man versucht, sie aufzuschreiben. Im Schreiben entsteht erst der Gedanke. Wer das nicht glaubt, möge versuchen, etwas zu erklären, das er zu wissen glaubt. Der Moment, in dem die Formulierung versagt, ist der Moment, in dem das Wissen endet.
Das ist kein rhetorischer Einstieg. Das ist die These dieses Essays – und sie stammt nicht von mir. Sie stammt von einem österreichischen Philosophen, der 1921 ein schmales Buch schrieb, das das 20. Jahrhundert verändert hat. Und das, nebenbei, die präziseste Analyse des KI-Zeitalters enthält, die ich kenne.
Der Mann und sein Satz
Ludwig Wittgenstein war kein Akademiker im üblichen Sinne. Er war Ingenieur, Gärtner, Dorflehrer, Kriegsteilnehmer. Er dachte radikal – nicht als Stilmittel, sondern als Methode. Wenn er einen Satz schrieb, hatte er ihn bis zur Unauflösbarkeit geprüft. Sein bekanntester Satz steht am Ende des Tractatus Logico-Philosophicus, erschienen 1921:
"Die Grenzen meiner Sprache sind die Grenzen meiner Welt."
Und den letzten Satz des Buches kennen viele, auch ohne Wittgenstein gelesen zu haben: "Worüber man nicht sprechen kann, darüber muss man schweigen."
Diese Sätze wurden oft als elegante Resignation missverstanden. Als philosophische Bescheidenheit. Dabei sind sie das Gegenteil: präzise Grenzziehung. Wittgenstein sagt nicht, dass das Unsagbare nicht existiert. Er sagt, dass es jenseits der Sprache liegt – und dass Sprache deshalb nicht alles erfassen kann, was Wissen ist. Er schrieb das 1921. Dreißig Jahre bevor der erste Computer existierte. Siebzig Jahre bevor das erste Sprachmodell trainiert wurde.
Was KI wirklich tut
Um zu verstehen, warum das relevant ist, muss man verstehen, was KI tatsächlich macht. Ein großes Sprachmodell hat Milliarden von Texten gelesen – Bücher, Artikel, Gespräche, Handbücher, Forenbeiträge. Es hat dabei gelernt, welche Wörter typischerweise zusammen auftreten, welche Konzepte verwandt sind, welche Sätze auf welche Fragen folgen. Das Ergebnis ist beeindruckend: Das System kann formulieren, strukturieren, zusammenfassen, argumentieren – in einem Maß, das viele Beobachter dazu bringt, von "Verstehen" zu sprechen. Aber es hat nie Bedeutung erfahren. Es hat "lediglich" Muster in einem Zeichensystem gelernt. Das ist ein feiner, aber entscheidender Unterschied. Wenn ein Vertriebler nach fünfzehn Jahren sagt, dieser Lead werde nichts – dann weiß er das nicht aus einer Regel. Nicht aus einem Muster in Texten. Er weiß es aus dem, was Wittgenstein in seinem Spätwerk das SPRACHSPIEL nennt: der gelebten Praxis, in der Bedeutung erst entsteht.
"Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache." (Philosophische Untersuchungen, §43)
Nicht sein Platz im Zeichensystem. Nicht seine statistische Nachbarschaft zu anderen Wörtern. Sein GEBRAUCH – in konkreten Situationen, von konkreten Menschen, mit konkreten Konsequenzen. Und diesen Gebrauch hat KI nie vollzogen.
Die strukturelle Grenze
Hier beginnt das Unbehagen, das viele beim Umgang mit KI-Systemen spüren – ohne es benennen zu können. KI kann alles verarbeiten, was je formuliert wurde. Das Problem: Das meiste, was wirklich zählt, wurde nie formuliert. Nicht weil es niemanden gab, der es versucht hätte. Sondern weil manche Formen des Wissens strukturell nicht in Sprache übersetzbar sind. Michael Polanyi, Philosoph und Chemiker, brachte es auf einen Satz: "We can know more than we can tell." Wir wissen mehr, als wir sagen können. Der erfahrene Chirurg weiß, wie viel Druck er ausüben muss – nicht weil er es gelesen hat, sondern weil seine Hände es wissen. Der Musiker hört, ob die Intonation stimmt, bevor er es erklären kann. Der Unternehmer spürt, dass etwas nicht stimmt im Gespräch – Sekunden bevor er versteht, warum.
Wittgenstein liefert die philosophische Begründung für das, was Polanyi empirisch beschreibt: Regelfolgen ohne explizite Regel. In den Philosophischen Untersuchungen heißt es: "Wenn ich der Regel folge, wähle ich nicht. Ich folge der Regel blind." (§219) Das klingt paradox. Es beschreibt aber genau, was Expertise ist: Das Richtige tun, ohne es als Entscheidung zu erleben. Das Wissen sitzt im Körper, im Reflex, in der Praxis – nicht im Kopf, und erst recht nicht im Text.

Was das nicht bedeutet
Hier ist die Stelle, an der ich präzise sein will – weil die übliche Reaktion auf dieses Argument in zwei falsche Richtungen geht.
Die erste falsche Reaktion: "KI ist also nutzlos." Das ist nicht die Schlussfolgerung. KI ist ein außerordentlich leistungsfähiges Werkzeug für alles, was je formuliert wurde – und das ist viel. Texte strukturieren, Wissen verdichten, Muster erkennen, Zusammenhänge herstellen, Entwürfe generieren. Das spart Zeit. Das schafft Raum. Das ist real.
Die zweite falsche Reaktion: "Menschen werden also nicht ersetzt." Auch das ist zu schnell gesagt. Menschen, die nur das tun, was formulierbar ist – die nur explizites Wissen verwalten, was in Dokumenten steht – sind tatsächlich ersetzbar. Nicht weil KI sie versteht, sondern weil sie sich auf das beschränkt haben, was KI kann.
Wittgensteins Grenzziehung führt zu einer anderen Frage: Was ist bei mir explizit – und was ist tacit, gelebt, verkörpert, in der Praxis verankert? Genau da, wo die Antwort "tacit" lautet, liegt die strukturelle Unersetzbarkeit. Nicht als Trost. Als Diagnose.
Worüber KI schweigen müsste
"Worüber man nicht sprechen kann, darüber muss man schweigen."
KI muss das nicht. Das ist das Problem. Ein Sprachmodell, das auf die Frage "Was war die Stimmung im Raum?" antwortet, halluziniert – im technischen Sinne. Es produziert sprachlich plausible Antworten für etwas, das es strukturell nicht wissen kann. Es fehlt der Zeiger auf die Praxis, der Saussures Zeichen bei Wittgenstein erst bedeutsam macht.
Der Mensch kann das. Nicht weil er klüger ist. Sondern weil er eine Ressource hat, die KI nicht hat: den Körper. Die Erfahrung. Die Anwesenheit. Das Gelebte. Wittgenstein schreibt, das Unsagbare zeige sich – es lasse sich nicht sagen, aber es lasse sich zeigen. Demonstrieren. Vorleben. Der Lehrmeister, der dem Lehrling keine Regel erklärt, sondern einfach macht – und der Lehrling lernt durch Beobachtung, Nachahmung, Praxis. Kein Text dazwischen. Kein Modell.
Das ist der Raum, der bleibt – nicht als Rest, sondern als Kern.
Was ich daraus ziehe
Ich nutze KI täglich. Intensiv. Als Denkpartner, als Werkzeug, als Resonanzraum für halbfertige Ideen. Ich erlebe, was passiert, wenn ein gut aufgebautes Wissenssystem Gedanken zurückwirft, die ich selbst hineingesteckt habe – synthetisiert, gewichtet, herausgefordert.
Und ich erlebe die Grenze. Den Moment, in dem das System etwas formuliert, das sprachlich stimmt und sachlich falsch ist – weil es keine Praxis hat, an der es sich orientieren kann. Den Moment, in dem ich merke, dass die Antwort auf meine Frage nicht im Formulierten liegt, sondern in etwas, das ich noch nie ausgesprochen habe. Das ist keine Enttäuschung. Es ist Orientierung.
Wittgenstein hat 1921 keine Vorhersage über KI gemacht. Er hat etwas Präziseres getan: Er hat beschrieben, wie Wissen und Sprache zueinander stehen. Und diese Beschreibung gilt – für Sprachmodelle genauso wie für uns.
Die Grenzen meiner Sprache sind die Grenzen meiner Welt. Und die Grenzen der Sprache sind die Grenzen der KI.
Was jenseits liegt, ist nicht wertlos. Es ist das, worum es geht.
