Weltsicht & Methode
FAQ
Keine Support-FAQ. Fragen, die ich mir selbst stelle — und Antworten, die ich ehrlich geben kann. Wird nach den ersten Essays überarbeitet und erweitert.
Die falsche Frage. Nicht weil sie provokant gestellt ist — sondern weil "Kreativität" darin so unscharf ist, dass jede Antwort stimmt.
Die Kognitionswissenschaftlerin Margaret Boden hat Kreativität in drei Formen zerlegt, und diese Unterscheidung ist das Schärfste, das mir dazu begegnet ist. Die erste Form ist kombinatorisch: bekannte Elemente neu zusammensetzen, überraschende Verbindungen herstellen. Die zweite ist explorativ: einen Konzeptraum systematisch durchforsten, seine Grenzen austesten, seine unerwarteten Ecken aufdecken. Die dritte — und die, um die es eigentlich geht — ist transformational: den Raum selbst verändern. Nicht innerhalb der Regeln spielen, sondern verstehen, warum diese Regeln existieren — und sie deshalb brechen können.
KI beherrscht die ersten beiden Formen inzwischen besser als die meisten Menschen. AlphaGos Move 37 im zweiten Spiel gegen Lee Sedol 2016 war ein Fall exploratorischer Kreativität — ein Zug, der nach menschlichen Maßstäben "falsch" war und dennoch zum entscheidenden Wendepunkt wurde. KI kann kombinieren und explorieren mit einer Geschwindigkeit und Breite, die kein Mensch erreicht.
Aber das Transformatorische setzt etwas voraus, das KI strukturell nicht hat: dass etwas auf dem Spiel steht. Eine KI kann ein perfektes Trauerlied komponieren. Sie kann nicht trauern. Sie kann analysieren, was Menschen in Krisenzeiten bewegt hat. Sie kann nicht scheitern, aufstehen und deshalb verstehen, warum manche Ideen überleben und andere nicht. Transformation entsteht, wenn jemand einen Rahmen verlässt, weil er persönlich gespürt hat, warum er zu eng ist.
Es gibt noch ein zweites Argument — und es ist das, das mich am meisten beschäftigt.
KI-Systeme, die ausschließlich aus KI-generierten Inhalten lernen, degenerieren. Die Nuancen verschwinden. Das Abwegige wird geglättet. Das System schrumpft auf den Durchschnitt des bereits Gedachten. Forscher nennen das Model Collapse — und es ist keine Hypothese, sondern eine beobachtbare Tendenz. Der Kreislauf funktioniert nur, solange Menschen sich wirklich einbringen: eigene Widersprüche, eigene Irrationalitäten, eigene Fragen, die noch keine Antworten kennen.
Das bedeutet: KI braucht menschliche Kreativität. Nicht als Feigenblatt — als strukturelle Voraussetzung ihres eigenen Funktionierens. Ohne den menschlichen Input, der den Durchschnitt durchbricht, kollabiert das System zur Wiederholung.
Was KI ersetzt, sind die Mechanik und die Erschöpfung: das stundenlange Durchforsten, das Synthetisieren verstreuter Quellen, das Formulieren von Gedanken, die man längst hatte. Was bleibt, ist das Eigentliche — der Moment, in dem etwas einen Namen bekommt und dadurch real wird. Der Claim, der eine Marke definiert. Die Frage, die ein Gespräch in eine andere Richtung dreht. Die Entscheidung, einen Rahmen zu verlassen, weil man gespürt hat, dass er falsch ist.
Das ist kein Trost für Kreative. Das ist eine Herausforderung. Wer KI als Beschleuniger benutzt, bekommt mehr von dem, was er schon hatte. Wer sie als Resonanzraum benutzt — als System, das das eigene Denken zurückwirft, schärft, herausfordert — bekommt Klarheit darüber, was man wirklich denkt. Und Klarheit ist die Voraussetzung für alles Transformatorische.
KI macht Kreativität nicht überflüssig. Sie macht sie zum ersten Mal vollständig sichtbar.
Automatisierung macht Abläufe effizienter und Menschen ersetzbar. Amplifikation macht das Implizite sichtbar und Menschen unersetzlich.
Wer KI für Automatisierung nutzt, fragt: Wie kann ich das schneller machen? Wie kann ich mehr Output erzeugen? Wie kann ich Schritte überspringen? Das ist legitim — und in vielen Kontexten die richtige Frage. Aber es ist ein zu kleines Ziel, wenn man ein Kreativer ist.
Wer KI als Amplifikator nutzt, fragt etwas anderes: Was denke ich eigentlich? Was will ich wirklich sagen? Was ist der Kern, unter all dem Formulieren und Strukturieren und Überarbeiten?
Der dänische Wissenschaftler Tor Nørretranders hat beschrieben, was das Bewusstsein eigentlich ist: ein Nadelöhr. Die Sinnesorgane verarbeiten etwa 11 Millionen Bit pro Sekunde — das Bewusstsein davon genau 40. Wir erleben uns als Denker, aber das meiste Denken findet ohne uns statt: tiefer, schneller, kompetenter. Das Unbewusste filtert, gewichtet, synthetisiert — und reicht dem Bewusstsein das Destillat.
Wenn KI mir mehr Rohstoff gibt — mehr Entwürfe, mehr Formulierungen, mehr Strukturen — dann hat das Unbewusste mehr Material zum Filtern. Nicht weniger. Ich erkenne schneller, was ich wirklich meine. Nicht weil KI für mich denkt, sondern weil ich durch KI mehr von meinem eigenen Denken sehen kann.
Aber hier liegt eine Falle, die ich ehrlich benennen muss.
Amplifikation setzt voraus, dass du weißt, wer du bist. Ein Verstärker verstärkt alles — auch das Falsche. Wer keine eigene Frage hat, die ihn wirklich beschäftigt, bekommt von KI schnell formulierte Leere. Wer keine Überzeugung hat, bekommt konsistenten Opportunismus. Wer nicht weiß, was er mitteilen will, bekommt elegante Texte über nichts.
Automatisierung funktioniert ohne Selbstkenntnis. Du brauchst nur eine Aufgabe, die sich wiederholt. Amplifikation funktioniert nur mit Selbstkenntnis. Du brauchst etwas, das du zu sagen hast.
Das erklärt auch, warum so viele Menschen mit KI-Tools unzufrieden sind. Sie nutzen sie für Automatisierung und wundern sich, dass der Output beliebig wirkt. Der Output ist beliebig — weil der Input beliebig war. KI ist in dieser Hinsicht unerbittlich ehrlich: Sie gibt zurück, was du ihr gibst. Nicht mehr. Nicht weniger.
Die produktivste Frage, die KI mir je gestellt hat, kam nicht durch Sprache. Sie kam durch Stille. Als die Mechanik erledigt war — das Formulieren, Strukturieren, Überarbeiten — blieb eine einzige Frage übrig: Was willst du eigentlich sagen? Diese Frage ist unbequem. Sie ist auch die einzige, die zählt.
Ich habe mich räumlich, seelisch, emotional, geistig, körperlich und kreativ kleiner gemacht, als ich sein könnte.
Diesen Satz habe ich 2021 geschrieben – über ein Jahr, das mich gelehrt hat, was fehlt, wenn echte Begegnung fehlt. Homeoffice. Kinder. Keine Kundenbesuche. Keine Gespräche, die mich überraschten. Ich hatte Zugang zu allen Informationen. Und trotzdem hatte ich das Gefühl, nicht mehr richtig zu denken.
Das war keine Faulheit. Kein Burnout. Es war etwas Subtileres: Das Wissen hatte aufgehört zu entstehen.
Nonaka und Takeuchi haben in den 1990er Jahren beschrieben, was ich damals nur spürte. Wissen entsteht nicht im Kopf. Es entsteht im Zwischen – in dem Raum, den sie Ba nennen. Ba ist kein Ort im physischen Sinne. Es ist ein geteiltes Feld: ein Kontext, in dem Menschen miteinander denken, beobachten, fragen. In dem das, was man nicht sagen kann (Polanyi: We know more than we can tell), durch Resonanz sichtbar wird – durch ein Gespräch, das unerwartet eine Richtung nimmt, durch einen Widerspruch, der einen zwingt zu präzisieren, durch jemanden, der eine Frage stellt, die man sich selbst nicht getraut hatte.
2020 hatte ich all das verloren. Nicht wegen mangelnder Information – ich hatte mehr davon als je zuvor. Sondern weil der Raum fehlte, in dem Wissen aus Information werden kann. Ich habe das gelernt durch Abwesenheit: Was Wissen braucht, ist Resonanz. Nicht Stille. Nicht Effizienz. Den anderen. Das Dazwischen.
2024 habe ich es ein zweites Mal gelernt – diesmal nicht durch Isolation, sondern durch Vertrauensbrüche in einem Umfeld, das ich für stabil gehalten hatte. Der Ba, den ich aufgebaut hatte, kollabierte. Und wieder: das Denken stockte. Nicht weil die Aufgaben komplexer geworden wären – sondern weil der geteilte Raum nicht mehr existierte.
AGILERO ist der Versuch, diesen Raum bewusst neu zu bauen. Mit Strukturen, die Ba ermöglichen: Menschen, die sich gegenseitig herausfordern, nicht nur zuarbeiten. Systeme, die implizites Wissen sichtbar machen, nicht nur explizites verwalten. KI als Resonanzverstärker, nicht als Ersatz für Begegnung.
Die Antwort auf die Frage lautet also: Wissen entsteht im Ba. Durch Resonanz – durch Begegnung, Widerspruch, Präsenz. Durch den Mut, sich in echten Kontakt zu begeben.
Was KI in diesem Prozess leisten kann: Sie kann Ba simulieren. Einen Gesprächspartner sein, der zurückwirft, hinterfragt, strukturiert. Aber Ba braucht Haut im Spiel. Jemanden, dem das Ergebnis des Gesprächs wirklich etwas bedeutet. Den Raum sein – das kann nur der Mensch.
Keines von beidem. Und ich misstraue jedem, der sich klar entscheiden kann.
Enthusiasmus ohne Tiefe ist Werbung. Wer KI nur als Werkzeug der Beschleunigung feiert, hat sich nicht gefragt, was beschleunigt wird — und ob das die richtige Richtung war. Kritik ohne Alternativen ist Angst. Wer KI pauschal ablehnt, kämpft gegen ein Phänomen, das sich nicht abstimmen lässt, und verliert dabei die einzige Frage, die zählt: Wie gestalten wir das?
Ich interessiere mich für die Stelle, an der KI auf echtes menschliches Denken trifft. Und was dann passiert.
Was dort passiert, ist selten dramatisch. Es ist meistens eine Erkenntnisfrage: Wer bin ich, wenn ich nicht mehr derjenige sein muss, der das Dokument formuliert? Was bleibt übrig, wenn die Mechanik wegfällt? Diese Fragen sind unbequem — und sie sind produktiver als jede Positionierung auf einem Begeisterungs-Skepsis-Spektrum.
Harari hat das schärfer formuliert als ich es je könnte: Das Gefährlichste an KI ist nicht, dass sie uns zerstört, sondern dass wir aufhören, uns selbst zu befragen. Dass wir Systemen Entscheidungen überlassen, nicht weil sie besser entscheiden, sondern weil Entscheiden anstrengend ist. Das ist kein KI-Problem. Das ist ein menschliches Problem, für das KI ein sehr effizientes Vehikel geworden ist.
Meine Position ist deshalb keine Mitte zwischen zwei Lagern. Sie ist ein anderes Koordinatensystem: nicht enthusiastisch oder kritisch, sondern neugierig und konsequent. Neugierig auf das, was KI wirklich verändert — jenseits der Hochglanz-Demos und der Apokalypse-Narrative. Konsequent in der Frage, was der Mensch dabei tun muss, damit das gut ausgeht.
Das eine, das ich klar sagen kann: Wer die Technologie nicht versteht, kann sie nicht gestalten. Und wer sie nur feiert, versteht sie nicht.
Alles. Aber nicht auf die Art, die man erwartet.
Philosophie liefert keine Antworten auf KI-Fragen. Sie liefert die Sprache, um die richtigen Fragen überhaupt stellen zu können. Wer nicht weiß, was Wissen ist, wird KI falsch einsetzen. Wer nicht weiß, was eine Entscheidung ist, wird sie an Maschinen delegieren. Wer nicht weiß, was das Selbst ist, wird nicht merken, wenn es sich aufzulösen beginnt.
Das ist keine Bildungsfrage. Das ist eine Orientierungsfrage.
Ludwig Wittgenstein hat in seinen Philosophischen Untersuchungen geschrieben: Die Grenzen meiner Sprache sind die Grenzen meiner Welt. Was sich nicht formulieren lässt, existiert nicht — zumindest nicht in der Welt, die durch Sprache zugänglich ist. Für KI hat das eine konkrete Konsequenz: KI operiert ausschließlich innerhalb der Grenzen dessen, was je formuliert wurde. Sie kann kein Wissen verarbeiten, das nie in Sprache gefasst wurde. Das ist keine technische Schwäche — das ist eine strukturelle Grenze, die Wittgenstein 70 Jahre vor dem ersten Sprachmodell präzise beschrieben hat.
Polanyi ergänzt das: Wir wissen mehr, als wir sagen können. Das meiste menschliche Wissen existiert jenseits der Sprache — in Körpern, Reflexen, gelebter Erfahrung. Es ist exakt der Bereich, den Wittgenstein markiert: Worüber man nicht sprechen kann, darüber muss man schweigen. KI muss darüber schweigen. Der Mensch nicht.
Kahneman erklärt, wie wir entscheiden. Nørretranders, was Bewusstsein wirklich ist. Harari, wohin sich Macht verschiebt, wenn Algorithmen lernen, uns besser zu kennen als wir uns selbst. Precht fragt, was vom Menschsein bleibt. Ich lese das nicht als Bildung — ich lese es, weil es die schärfsten Werkzeuge sind, die ich kenne, um in einer technologischen Beschleunigung nicht die Orientierung zu verlieren.
Philosophie ist langsam. KI ist schnell. Beides braucht das andere.
Wer nur schnell ist, wiederholt Fehler effizienter. Wer nur langsam ist, verliert die Welt, während er über sie nachdenkt. Die Kombination — KI als Beschleuniger, Philosophie als Kompass — ist das, worüber ich auf dieser Seite nachdenke. Nicht als akademische Übung. Als Arbeitsmethode.
Weil die Frage das Schreiben mit dem Text verwechselt.
KI ist schneller im Text. Das stimmt. Ein Essay wie dieser ließe sich in Sekunden generieren — kohärent, informiert, lesbar. Was KI dabei auslässt, ist der einzige Grund, warum ich schreibe: den Prozess.
Ich schreibe nicht, um einen Text zu haben. Ich schreibe, um zu verstehen, was ich eigentlich denke.
Das klingt banal, ist es aber nicht. Solange ein Gedanke in meinem Kopf ist, erscheint er mir vollständig. Präzise. Überzeugend. Erst wenn ich ihn aufschreibe, wird sichtbar, wo er aufhört. Wo er eine Behauptung ist, keine Erkenntnis. Wo ich argumentiere, obwohl ich eigentlich frage. Schreiben ist das schärfste Diagnosewerkzeug, das ich kenne. Es zeigt mir, wo ich mir selbst etwas vorgemacht habe.
Nørretranders hat das Bewusstsein als Nadelöhr beschrieben: 11 Millionen Bit pro Sekunde verarbeiten die Sinne — bewusst zugänglich sind 40. Schreiben ist das Verfahren, durch das ich das Unbewusste zwinge, sein Destillat zu liefern. Die Langsamkeit ist keine Ineffizienz. Sie ist der Mechanismus.
KI kann schnell Text produzieren, weil KI keinen inneren Widerstand kennt. Sie hat keine Momente, in denen ein Satz dreimal umgeschrieben wird, weil er sich noch nicht wahr anfühlt. Diese Reibung, die mich verlangsamt — sie ist der Ort, wo das Denken stattfindet.
Das erklärt auch, warum ich nie schreibe, was ich vorhatte zu schreiben. Nicht selten beginne ich mit einer These und ende mit der Einsicht, dass die These falsch war. Nicht weil ich schlecht recherchiert habe — sondern weil Schreiben Präzision erzwingt, die das Denken allein nicht schafft.
Was KI in diesem Prozess verändert hat: den handwerklichen Teil übernehmen. Das Formulieren, Strukturieren, Überarbeiten. Das befreit mich — aber nicht vom Schreiben, sondern zu mehr Schreiben. Zu den Sätzen, die nur entstehen, wenn ich wirklich nicht weiterkomme.
Ob, was dabei entsteht, andere anspricht, ist ein schöner Nebeneffekt. Es ist nicht der Grund.
Der Grund ist: Ich weiß nicht, was ich denke, bevor ich es geschrieben habe.
Nein. Aber die Frage verdeckt etwas Wichtigeres: Sie setzt voraus, dass Wissen das ist, was KI verarbeiten kann. Das ist die eigentliche Verwechslung.
Ludwig Wittgenstein hat in seinen Philosophischen Untersuchungen gezeigt, dass Bedeutung nicht in Wörtern steckt — sondern im Gebrauch. Was ein Wort bedeutet, entscheidet sich nicht im Wörterbuch, sondern im Sprachspiel: im Kontext, in der Situation, in der Beziehung zwischen Sprecher und Gehörtem. Übertragen auf Wissen: Was eine Information bedeutet, entscheidet sich nicht im Dokument, sondern in der Praxis, in der sie angewendet wird.
KI kann alles lesen, was je geschrieben wurde. Aber das meiste Wissen wurde nie geschrieben — nicht weil niemand es aufschreiben wollte, sondern weil es sich nicht aufschreiben lässt. Michael Polanyi hat das mit einem Satz gefasst, der seitdem nicht widerlegbar ist: We know more than we can tell. Wir wissen mehr als wir sagen können.
Der Handwerker, der am Klang der Maschine hört, dass etwas nicht stimmt. Die Verhandlungsführerin, die instinktiv spürt, wann der richtige Moment für das Angebot ist. Das Urteil, das aus Jahren der Erfahrung kommt und sich trotzdem nicht in Regeln fassen lässt. Dieses Wissen existiert — aber es existiert nie in einer Form, die KI verarbeiten könnte. Es steckt in Körpern, in Reflexen, in der gelebten Wiederholung von tausend ähnlichen Situationen.
Nørretranders nennt das Exformation: den unsichtbaren Kontext hinter jeder Kommunikation. Wenn ein erfahrener Mitarbeiter "das ist kein guter Lead" sagt, sind das fünf Wörter. Dahinter stecken fünfzehn Jahre: Muster, Ausnahmen, Körpersprache, Marktkenntnis, Branchenspezifik. Die fünf Wörter sind Information. Die fünfzehn Jahre sind Exformation. KI kann die Information verarbeiten. Die Exformation ist nie angekommen.
Das hat eine Konsequenz, die ich in der Praxis immer wieder beobachte: Unternehmen, die KI einführen ohne diese Unterscheidung zu treffen, automatisieren das Falsche. Sie dokumentieren Prozesse und übergeben sie an KI — aber der Wert lag nie in den Prozessen. Er lag in dem Urteil, das dahinter stand.
Was KI kann, ist etwas anderes und trotzdem Bedeutsames: Sie macht explizites Wissen außerordentlich gut zugänglich, kombinierbar und durchsuchbar. Und — das ist der Punkt, den ich für den wichtigsten halte — sie kann helfen, Implizites sichtbar zu machen. Nicht indem sie es abruft, sondern indem sie Fragen stellt, Widersprüche aufzeigt, Muster benennt, die man selbst nicht gesehen hat.
KI ersetzt kein Wissen. Sie ist der bislang schärfste Spiegel, den wir haben, um zu erkennen, was wir eigentlich wissen — und was wir nur zu wissen glauben.
Alles hier ist Theorie. AGILERO ist die Praxis — und ohne die eine ist die andere leer.
Bei AGILERO helfe ich Unternehmen, KI strategisch einzuführen. Nicht als Automatisierungsprojekt, sondern als Frage: Was weiß diese Organisation eigentlich, und wie kann sie dieses Wissen besser nutzen? Das klingt einfach. Es ist es nicht. Die Antwort hängt daran, was man unter Wissen versteht — und damit ist man mitten in dem, worüber diese Seite nachdenkt.
Die Trennung zwischen AGILERO und seankollak.de ist bewusst. AGILERO hat eine Unternehmenssprache: Strukturen, Pakete, Ergebnisse. Hier habe ich eine andere Sprache: Fragen, Widersprüche, Denkbewegungen. Beides gehört zusammen — aber es sind zwei verschiedene Gespräche, und sie funktionieren nicht in einem Raum.
Was die Verbindung herstellt, ist die Überzeugung, die beiden zugrunde liegt: KI verändert nicht zuerst die Prozesse. Sie verändert zuerst, wer entscheidet, was als Wissen gilt. Wer das nicht versteht, führt KI als Effizienzmaschine ein und wundert sich, warum die Organisation dabei kleiner wird statt größer.
Auf dieser Seite denke ich laut — für Kreative, für Führungskräfte, für alle, die spüren, dass sich gerade etwas Grundlegendes verschiebt. Bei AGILERO übersetze ich das in Strukturen, die in Unternehmen funktionieren.
Lieber lesen als fragen?
Essays lesen →