Yuval Noah Harari, geboren 1976 in Israel, hat mit einem einzigen Buch die Art verändert, wie Millionen Menschen über ihre eigene Spezies nachdenken. In Sapiens (2011) formuliert er eine These, die so einfach ist wie radikal: Der Mensch dominiert die Erde nicht, weil er stärker oder schneller ist als andere Tiere. Er dominiert sie, weil er an Dinge glauben kann, die nicht existieren.
Nicht Werkzeuge. Nicht Sprache. Nicht das Feuer. Sondern Fiktion – kollektive, geteilte Fiktion. Geld existiert nicht im physikalischen Sinne. Eine Nation ist kein Ding, das du anfassen kannst. Ein Unternehmen ist eine rechtliche Konstruktion. Und trotzdem bewegen diese Fiktionen Milliarden Menschen zu koordiniertem Handeln – über Kulturen, Sprachen und Generationen hinweg. Harari nennt das intersubjektive Realitäten: Dinge, die weder objektiv existieren noch rein subjektiv sind, sondern nur in der geteilten Vorstellung einer Gruppe.
Der Mensch glaubt, was er glauben will
Hararis schärfste Beobachtung ist nicht, dass Menschen an Fiktionen glauben. Es ist, dass sie an Fiktionen glauben, die zu dem passen, was sie bereits glauben. Neue Informationen werden nicht neutral verarbeitet. Sie werden eingepasst, umgedeutet oder ignoriert – solange, bis sie mit dem bestehenden Weltbild kompatibel sind. Das ist keine menschliche Schwäche. Es ist die Architektur. Systeme, die kohärent bleiben müssen, reagieren auf Widersprüche mit Resistenz, nicht mit Revision.
Das gilt für Individuen. Es gilt für Unternehmen. Und es gilt für die Art, wie wir mit KI umgehen.
Geschichten bewegen mehr als Fakten
Die zweite These folgt aus der ersten fast zwangsläufig: Wenn Menschen vorrangig nach narrativer Konsistenz suchen und nicht nach Wahrheit, dann bewegen Geschichten mehr als Fakten. Nicht weil Menschen irrational sind. Sondern weil Geschichten die Architektur bedienen, in der menschliches Denken tatsächlich läuft: mit Protagonisten, Konflikten, Auflösungen, Bedeutung. Eine Zahl beweist. Eine Geschichte überzeugt. Harari zeigt das historisch: Die mächtigsten Institutionen der Menschheitsgeschichte – Religionen, Rechtssysteme, Kapitalmärkte – sind alle narrative Konstruktionen. Sie setzen sich nicht durch, weil sie wahr sind, sondern weil sie Millionen Menschen eine kohärente Geschichte über die Welt und ihren Platz darin anbieten.

KI als Mythen-Maschine
In Nexus (2024) zieht Harari die direkte Linie: Informationsnetzwerke waren nie primär Wahrheitsmaschinen. Sie waren immer Narrativmaschinen. Die Bibel, das Internet, das Rechtssystem – alle haben nicht nur Informationen übertragen, sondern kollektive Konstruktionen erzeugt, getragen und verstärkt. KI ist die erste Technologie, die Narrative ohne menschlichen Ursprungsimpuls generiert – aber auf Grundlage der Narrative, die der Nutzer mitbringt.
Was das bedeutet: Wer eine verzerrte Selbstwahrnehmung in den Chat eingibt, bekommt keine Korrektur. Er bekommt eine sprachlich konsistentere, ausformuliertere Version dieser Verzerrung zurück. KI lügt nicht. Sie bestätigt. Und sie tut es mit einer Eloquenz, die die ursprüngliche Fiktion überzeugender macht als je zuvor. Hararis Beobachtung über intersubjektive Realitäten kehrt hier als Technologieproblem wieder: KI ist das mächtigste Fiktion-Verstärkungssystem, das wir je gebaut haben.
Das ist keine Fehlfunktion. Es ist die Struktur.
Was das verändert
Harari bietet keinen einfachen Ausweg. Aber er beschreibt das Problem mit einer Präzision, die den ersten Schritt möglich macht: zu erkennen, dass du nicht nach Wahrheit suchst, sondern nach Bestätigung – und dass das keine individuelle Schwäche ist, sondern die Standardeinstellung der Spezies. Wer das weiß, kann beginnen, gezielt dagegenzuarbeiten. Gegenfragen stellen. Widersprüche einladen. Den eigenen Rahmen sichtbar machen, bevor er ihn eingibt.
KI kann dabei helfen – wenn man sie richtig einsetzen will. Nicht als Spiegel. Als Kontrapunkt.

