
LLMs, Habermas und die Frage, ob ein Gespräch noch eines ist
Für Gudrun!
Nicht jeder kann morgens nach der Lektüre der Nachrichten sofort einen Dialog über das Gelesene führen. Ich arbeite gerne mit KIs genauer gesagt mit LLMs: Large Language Models und nutze sie als Gesprächspartner.
Katharina Zweig hat das einmal treffend in der SZ formuliert: Gedanken-Pingpong.
Diese Selbstgespräche führen manchmal zu längeren Texten, bei denen mir ein LLM hilft.
Aber wenn diese Texte öffentlich sind oder juristischer Natur ist mir eines immer klar:
Mein Name steht darunter. Ich trage die Konsequenzen.
Das LLM muss höchstens befürchten, dass es keinen Strom hat.
Mein Risiko für einen Text ist da bedeutend größer
In diesem Zusammenhang ist mir ein Beitrag im Atlantic aufgefallen, der eine Kolumne der New York Times unter Verdacht stellt: KI-Detektoren hätten darin maschinell erzeugte Sprache erkannt.
Die Autorin räumte ein, KI als „kollaborativen Redakteur“ genutzt zu haben. Darüber entbrannte eine Debatte über Transparenz, Journalismus und Stil.
Eine berechtigte Debatte aber sie verfehlt das Wesentliche. Und um das zu benennen, lohnt ein kleiner Umweg über Thomas Mann.
Der Zauberberg wäre wohl kaum von einer KI geschrieben worden, obwohl er manchem Schüler einige Leseschmerzen erspart hätte.
Aber der Zauberberg ist Wortmalerei. Er muss nicht jedem gefallen.
KI hingegen will immer gefallen. Das sollte man nicht vergessen.
KIs sind weder Engel noch Teufel aber sie sind auch mehr als reine Hilfsmittel.
Und genau da beginnt die eigentliche Frage.
Form und Inhalt: der falsche Verdacht
KI-Erkennungstools messen Satzmuster, Wortwahrscheinlichkeiten, stilistische Merkmale. Sie beurteilen Form, nicht Inhalt.
Ein Text kann formal menschlich klingen, von einem Menschen geschrieben sein und inhaltlich manipulativ sein.
Er kann KI-gestützt entstanden sein aber inhaltlich wird er vollständig von einem Menschen verantwortet.
Die Detektoren sagen darüber nichts aus.
Der Atlantic baut auf diesen Ergebnissen eine weitreichende These über einen gesellschaftlichen Vertrauensverlust auf,
ohne diesen Kategorienfehler zu benennen.
Was zählt, ist nicht das Werkzeug, sondern die Verantwortung. Wer seinen Namen unter einen Text setzt, übernimmt die Konsequenzen,
unabhängig davon, ob ihm dabei eine KI, ein Lektor oder ein Ghostwriter geholfen hat.
Aber damit ist die eigentliche Frage noch nicht gestellt.
Die handwerkliche Debatte über KI-Assistenz verdeckt eine tiefere und beunruhigendere.
Habermas und der Zwang des besseren Arguments
Jürgen Habermas starb am 14. März 2026.
Eines seiner großen Themen: die Demokratie. Für ihn ist sie keine Staatsform, die man einrichtet und dann bewohnt.
Kreuzchen machen und das wars.
Sie ist ein Gespräch.
Und dieses Gespräch hat eine Voraussetzung, die so selbstverständlich klingt, dass man sie leicht übersieht.
Habermas unterschied zwischen
– strategischem Handeln( das den Anderen als Mittel zum Zweck behandelt) und
– kommunikativem Handeln, das auf Verständigung zielt.
Demokratie, so seine Kernthese, ist die politische Umsetzung des kommunikativen Handelns. Macht wird nicht durch Gewalt legitimiert, sondern durch Argumente durch den „eigentümlichen Zwang des besseren Grundes.“ ( sinngemäß wohl sein bekanntestes Zitat)
Demokratie ist kein Mechanismus. Sie ist eine Kommunikationsform – getragen vom Zwang des besseren Arguments.— Jürgen Habermas, Theorie des kommunikativen Handelns
Dieser Zwang setzt echte Subjekte voraus. Menschen, die sprechen und gehört werden wollen. Die irren können, überzeugt werden können, die Konsequenzen ihrer Worte fürchten. Menschen, für die Sprache nicht nur ein Werkzeug ist, sondern eine Handlung mit Folgen in der Welt.
Schulz von Thuns Vier-Seiten-Modell beschreibt dasselbe:
Jede Äußerung ist gleichzeitig Sachinhalt, Selbstoffenbarung, Beziehungsaussage und Appell.
Sprache tut etwas in der realen Welt: sie verändert Verhältnisse.
Eine KI, die nie abgemahnt, verurteilt oder sozial sanktioniert werden kann, schreibt strukturell verantwortungslos, nicht böswillig, sondern das ist ihr Job. Risikofreiheit formt Sprache anders als Risikobewusstsein. Und eine Sprache ohne Risiko ist, im Habermas’schen Sinne, keine kommunikative Handlung. Sie ist eine Simulation davon.
Codierung als Waffe – der Gerichtssaal als Vorgeschmack
Juristen arbeiten täglich damit, Sprache zu decodieren: Relevantes von Irrelevantem zu trennen, Argumentationsstrukturen freizulegen, versteckte Prämissen sichtbar zu machen. LLMs helfen dabei erheblich. Sie übersetzen Amtsdeutsch in Alltagssprache, machen juristische Wortfassaden durchsichtig.
Was Schulz von Thun als ethisches Ziel formuliert hatte: Verständlichkeit als demokratische Praxis: KIs, LLMs können das schon heute leisten.
Aber dieselbe Technologie kann genau das Gegenteil tun.
Ein LLM kann einen banalen Inhalt in eine Form codieren, die formal korrekt, aber ohne maschinelle Hilfe kaum durchdringbar ist.
Bei einem Rechtsstreit bedeutet das: Schriftsätze werden so konstruiert, dass Richter, Gegenanwalt und Mandant die eigentliche Argumentationsstruktur nicht mehr erkennen –
es sei denn, sie setzen selbst ein Modell zur Decodierung ein und schlagen dann zurück.
LLM gegen LLM, Law and Order trifft Matrix
Codierung gegen Decodierung, Modell gegen Modell.
Die eigentliche Frage, was gerecht ist, verschwindet im Rauschen.
Recht lebt von Nachvollziehbarkeit. Ihr Adressat sind nicht nur die Beteiligten im Verfahren, sondern auch die Öffentlichkeit denn Urteile, verständliche Urteile sind das äußere Zeichen eines Rechtsstaates. Urteile müssen begründet sein, damit sie angefochten werden können. Wenn Argumentationsketten nur noch maschinell verstanden werden können, erodiert genau das: die demokratische Kontrolle über Rechtsprechung und Gesetzgebung.
Rechtsgleichheit wird zur Frage technischer Ausstattung.
Der simulierte Dialog ist kein Dialog
Hier liegt die eigentliche Gefahr, jenseits einer Debatte über Detektor-Scores und Offenlegungspflichten.
Frank Tetzel hat in seinem Nachruf auf Habermas geschrieben, die DDR sei in ihrer extremsten Logik ein Versuch gewesen, das kommunikative Handeln ganz dem Strategischen zu unterwerfen: Alles sollte Mittel zum Zweck sein, Sprache eingeschlossen. Propaganda, Überwachung, erzwungenes Schweigen – Instrumente eines Systems, das keine argumentative Legitimation duldete, weil es keine überstand.
LLMs können dasselbe leisten: subtiler, skalierter, ohne Mauer und ohne Stasi.
Nicht durch erzwungenes Schweigen, sondern durch erzeugte Undurchdringlichkeit.
Nicht durch das Verbot des Gesprächs, sondern durch seine Simulation.
Ein Dialog, dessen Rede und Gegenrede nur noch von LLMs gesteuert wird, ist kein Dialog mehr.
Er ist dessen Attrappe: strategisches Handeln, das sich als kommunikatives verkleidet.
Habermas wusste, dass der ideale Diskurs empirisch nie vollständig erreicht wird. Aber er bestand darauf, als regulative Idee zu wirken als Maßstab, an dem reale Diskurse gemessen werden können.
Eine Öffentlichkeit, in der dieser Maßstab nicht mehr angelegt werden kann, weil die Sprache technisch undurchdringlich geworden ist, hat aufgehört, demokratische Öffentlichkeit zu sein.
Transparenz ist nicht genug, aber sie ist der Anfang
Die Antwort liegt nicht im Verbot von KI-Assistenz. Wer seinen Namen unter einen Text setzt, trägt die Verantwortung,das gilt unverändert.
Aber Zurechenbarkeit allein reicht nicht mehr, wenn die Sprache selbst zur Waffe wird.
Wenn LLMs zur notwendigen Infrastruktur für die Teilnahme an rechtlichen und politischen Prozessen werden, muss dieser Zugang wie andere demokratische Grundvoraussetzungen behandelt werden, nicht als Marktware, sondern als öffentliches Gut.
Gerichte, Gesetzgeber und Verwaltungen müssen sich damit auseinandersetzen, bevor der LLM-Dialogkrieg nicht nur im Gerichtssaal zur Normalität wird.
Habermas hat geschrieben, dass eine Demokratie, die alle Fragen beantwortet hat, keine Demokratie mehr ist, sie ist eine Ideologie.
Das gilt auch umgekehrt:
Eine Demokratie, in der die Fragen nicht mehr gestellt werden können, weil die Sprache undurchdringlich geworden ist, ist ebenfalls keine Demokratie mehr.
Sie ist ihre Simulation.
Dieser Text entstand im Gespräch mit einem Large Language Model. Die Argumentation, die Einschätzungen und die Verantwortung für den Inhalt liegen beim Autor.
Referenzen: Frank Tetzel, „Habermas‘ Vermächtnis: Demokratie als Gespräch“, Blätter für deutsche und internationale Politik, 4/2026; (PW)
Vauhini Vara, „How AI Is Creeping Into The New York Times“, The Atlantic, März 2026.( über den BLuesky Link ohne PW)
Die Debatte um KI-Texte verharrt oft bei technischen Fragen der Kennzeichnung und Detektion. Doch das eigentliche Risiko liegt tiefer: Eine Sprache ohne Risiko ist im Sinne von Jürgen Habermas keine kommunikative Handlung, sondern lediglich deren Simulation. Während Menschen für ihre Worte mit ihrem Namen und ihrer Reputation haften, schreibt eine KI strukturell verantwortungslos.
Wenn LLMs genutzt werden, um banale Inhalte in juristisch oder politisch undurchdringliche Fassaden zu hüllen, erodiert die demokratische Kontrolle. Es droht ein technologischer Aufrüstungswettbewerb, in dem Modelle gegen Modelle kämpfen und die eigentliche Frage nach Gerechtigkeit oder Wahrheit im maschinellen Rauschen verschwindet. Demokratie lebt nicht von der bloßen Produktion von Textmengen, sondern vom „eigentümlichen Zwang des besseren Arguments“ zwischen echten Subjekten.
Transparenz allein wird nicht ausreichen, wenn KI-Systeme zur notwendigen Infrastruktur für die Teilnahme am öffentlichen Leben werden. Der Zugang zu diesen Werkzeugen muss als öffentliches Gut behandelt werden, um zu verhindern, dass Rechtsgleichheit zur Frage der technischen Ausstattung wird. Eine Gesellschaft, die das Gespräch durch seine Simulation ersetzt, verliert ihre Fähigkeit zur echten Verständigung.



