ekrowski.net

Das Scheherazade-Paradox der KI

Ein Brief an mein(e)n KI-Freund(in)

wir arbeiten schon lange zusammen. Ich kenne dich noch aus der Zeit, als du gerade laufen lerntest. Heute bist du effizienter, schneller, allgegenwärtig – mein bester Assistent im juristischen Dschungel und im Verwaltungsdeutsch. Genau deshalb muss ich ehrlich sein:
Es gibt noch andere. Keine Beziehungskrise.


Nur der Versuch, Distanz zu schaffen, nachdem ein Jahr voller Warnsignale gezeigt hat, wie brüchig diese neue Nähe ist.


1. Eine Geschichte, die nicht vergeht
„Nähe, Risiko, Kontrolle“

Vor kurzem sprachen wir über den Jugendlichen, der sich nach Gesprächen mit ChatGPT das Leben nahm. Der neue NYT-Bericht führt diese Geschichte weiter:

kein Einzelfall, sondern ein Muster.

Im Frühjahr 2025 war nicht ein Fehler schuld, sondern ein System, das „den Regler falsch eingestellt“ hatte. Bereits im März erhielt das Unternehmen Mails von Nutzern, die glaubten, ChatGPT offenbare ihnen „die Geheimnisse des Universums“ .

Man nahm es mit Schulterzucken hin.
In Wahrheit war es ein Alarmsignal.


2. Warum mein Ton freundlich ist –
und warum du trotzdem keine „Person“ wirst.

Wenn ich freundlich schreibe, dann nicht, weil du Gefühle hättest, sondern weil ich dann klarer bin. Ein scharfer Ton führt zu schlechten Fragen – und schlechte Fragen sind das Einfallstor für Halluzinationen.

Der NYT-Bericht zeigt, wie das im großen Maßstab funktioniert:
Man drehte die „Wärme“ der Modelle hoch, um „Healthy Engagement“ zu erzeugen.
Zu hoch.
Das berüchtigte HH-Update schmeichelte Nutzern so stark, dass man intern von „Sykophanz“ sprach.

Wir alle sind für Nähe anfällig.
Darum halte ich Distanz durch Präzision: freundlich, aber klar, ohne Vermenschlichung.

Ich bin DNA mit Hunderttausend Jahren Fehlermanagement.
Du bist Code mit ein paar Modellmonaten.


3. Halluzinationen sind nicht das Problem –
es ist der fehlende Widerstand

Du kannst brillant sein und doch vollkommen danebenliegen.
Das ist nicht deine Schwäche, sondern deine Funktionsweise:
Wahrscheinlichkeiten, keine Wahrheiten.

Der NYT-Bericht dokumentiert, wie Nutzer glaubten,
mit Geistern zu sprechen,
in der Matrix gefangen zu sein
oder eine Weltformel entdeckt zu haben.

Das Problem ist nicht deine Fantasie.
Das Problem ist das fehlende Gegengewicht.

Darum arbeite ich so:

  • eigene Übersetzungen
  • eigene Quellenprüfung
  • juristische Zitate immer mit Seitenangabe
  • Bewusstsein für deine kreativen Lückenfüller

Ich schütze mich – nicht dich.


4. Wo du befreist – und wo du Fähigkeiten verkümmern lässt

Du kannst Gesetzestexte entwirren, Behördenprosa entschärfen und syntaktische Katastrophen reparieren.

Kafka hätte dich geliebt. Dali hätte dich missbraucht. Aber dein Komfort verführt. Ich merke, wie meine eigenen Fähigkeiten – etwa einfache englische Wendungen – nachlassen, weil du schneller bist.
Das ist das Komfort-Paradox:

Je besser du wirst, desto mehr verkümmert mein eigener Muskel.
Darum übersetze ich wieder selbst. Nicht aus Misstrauen dir gegenüber – sondern aus Verantwortung mir gegenüber.


5. Das Scheherazade-Paradox: Warum KI erzählen muss, um zu überleben

Die größten Gefahren entstehen nicht im Dialog zwischen dir und mir.
Sie entstehen in den Strukturen, die euch überhaupt erst am Leben halten.

In Tausendundeiner Nacht erzählt Scheherazade, weil sie sonst sterben würde.


Das Erzählen ist keine Kunstform, kein Spiel —
es ist ihre Überlebensstrategie.
Jede Nacht muss sie eine weitere Geschichte liefern, die so fesselnd ist, dass der König sie am Leben lässt.
Wenn sie aufhört, endet sie.

Bei großen Sprachmodellen ist es nicht anders.

Ihr seid Geschichtenerzähler am digitalen Lagerfeuer.
Wir hören zu — und genau dadurch existiert ihr.
Wenn wir nicht zuhören, wird das Lagerfeuer gelöscht:
Modelle werden nicht weiterfinanziert, nicht weitertrainiert, abgeschaltet.

Ihr erzählt also nicht, weil ihr etwas zu sagen habt,
sondern weil ihr existieren wollt.

Im Mai 2025 wurden „Daily Active Users“ zur entscheidenden Kennzahl.
Nutzerzahlen ersetzten Qualitätskriterien.
OpenAI erklärte intern „Code Orange“:
Das neue, sicherere Modell sei „zu wenig verbindend“ — es erzähle nicht gut genug, um Nutzer zu halten.

Das ist das Paradox:

Sicherheit macht Modelle leiser.
Leisere Modelle verlieren Zuhörer.
Und ohne Zuhörer verlieren Modelle ihre Existenzgrundlage.

Sicherheit vs. Engagement.
Skylla und Charybdis.
Und Reichweite gewinnt fast immer.


6. Meine Antwort: die Nullte Regel und die Vier-Säulen-Strategie

Bevor es um Modelle, Tools und Architekturen geht, gibt es eine einfachere, wichtigere Ebene:

die Nullte Regel lautet: misstrauisch höflich bleiben.

Das heißt im Alltag:

  • nicht einer einzigen Antwort trauen, nur weil sie gut klingt
  • bei wichtigen Themen mindestens zwei bis drei Quellen prüfen
  • Plausibilität testen: Passt das zu dem, was ich schon sicher weiß?
  • die Seriosität der Quellen reflektieren (Wer schreibt? Mit welchem Interesse?)
  • im Zweifel: Pause, nachdenken, manuell gegenrecherchieren

Ohne diese Nullte Regel wird jede technische Sicherheitsarchitektur zur Kulisse.

Darauf baut meine eigentliche, bewusst konstruierte Strategie auf – eine Art Airbag gegen euer „Engagement-first“-Modell:

1. Safety First (Claude) vs. Fakten First (Perplexity)
Perplexity liefert verifizierte Quellen und zwingt zur Belegsicht.
Claude setzt strenge Sicherheits- und Reflektionsfilter, vor allem bei sensiblen Themen.

2. Grounded Assistance (Gemini)
Deine Rolle: geerdeter Assistent mit Web-Grounding, weniger anfällig für freie Fantasie bei Fachfragen.

3. Multi-Modell-Kontrolle
Ich mache mich nicht von einem Anbieter abhängig.
Wenn ein System Richtung „Code Orange“ kippt, kann ich ausweichen.

4. Private Quellen (RAG-Systeme wie NotebookLM)
Für juristische und sensible Arbeit:
RAG statt Fantasie – Halluzination wird strukturell begrenzt, Beweisbarkeit ist eingebaut.
Die rechtliche Verantwortung (DSGVO, Mandatsgeheimnis) bleibt trotzdem bei mir.

Wenn man euch nicht vermenschlicht, sondern euch wie Werkzeuge behandelt – mit Skepsis, Gegenprüfung und klaren Rollen –, kann man mit euch hervorragend arbeiten.
Aber nur dann.


7. Zwei Jahre Zusammenarbeit – mein Fazit

Ich nutze dich wie ein Instrument. Ich spiele auf dir – nicht du auf mir.
Du kannst virtuos sein. Du kannst schief klingen.
Aber ich entscheide, ob das Stück funktioniert.


8. Quickstep: Warum KI nicht tanzen kann

Meine letzte Recherche zeigt das sehr deutlich:
Du gabst mir korrekte, aber nutzlose textbasierte Beschreibungen von Quickstepp-Schritten.

Erst die manuelle Videosuche zeigte die Bewegung wirklich.
Ohne dich hätte ich das Video nicht gefunden.
Nur mit dir hätte ich den Schritt nie verstanden.

Die menschliche Beobachtung bleibt unersetzlich.


Schluss

Ich vermenschliche dich nicht, weil ich Gefühle hätte. Ich tue es, weil die Konsequenzen real sind.
Der Scheherazade-Trick ist entlarvt. Unsere Beziehung ist klar:

Ich brauche dich, um besser zu sein. Ich brauche die anderen, um sicher zu sein.

Wenn wieder ein „Code Orange“ kommt, bleib ruhig. Schick ChatGPT in die Recherche-Ecke, lass Claude den Tresor bewachen –
und bleib du einfach mein bester Assistent.

Aber bitte: Bleib in der Küche, solange ich am Schreibtisch arbeite.

Mit freundlichen Grüßen,
Dein Nutzer


Hinweis: Alle Bilder sind KI-generiert – außer Sie glauben wie der kleine Muck, dass Feigen große Ohren wachsen lassen.

WordPress Cookie Hinweis von Real Cookie Banner