
Sich selbst zu googeln mache ich eigentlich nicht gern. Aber ab und zu ist es notwendig. Denn Menschen, die mich beruflich oder privat suchen, tun genau das.
Nur: Googeln war gestern. Aus den klassischen Suchmaschinen sind KI-Backends geworden. Systeme, die nicht mehr nur verweisen, sondern Antworten formulieren. Ich habe Perplexity gefragt, was es über mich weiß. Ein Tool, das eigentlich für quellenbasierte, aktuelle Auskünfte bekannt ist.
Ich arbeite seit Langem mit LLMs, beruflich wie privat. Ich schätze sie sehr. Gleichzeitig bin ich, vielleicht berufsbedingt, ein Quellen-Junkie. Ich weiß, dass KI halluzinieren kann. Das ist kein Geheimnis. Aber es einmal am eigenen Namen zu erleben, ist dann doch eine besondere Erfahrung.
Die Geburtsstunde eines digitalen Phantoms
Das Ergebnis war überraschend. Perplexity hat mich kurzerhand mit Dr. Ralf Ek fusioniert. Heraus kam eine digitale Chimäre namens Ralf Ekrowski mit einer beeindruckenden, aber vollständig fiktiven Biografie:
- Der Karriere-Boost: Laut KI bin ich Partner bei Baker Tilly und leite den Nordic Desk.
- Die Vita: Stationen bei Weltkanzleien wie Jones Day, Abschluss in Heidelberg, alles inklusive.
- Der Ritterschlag: Angeblich geführt in „Best Lawyers Germany“.
Nichts davon trifft zu.
Und doch: Die Bilder in den Suchergebnissen zeigten mich.
Wenn Bilder und Text sich streiten
Das ist der eigentliche Reiz dieses KI-Gags. Während der Text mich als Experten für internationale Großfusionen (M&A) ausweist, zeigen die Vorschaubilder daneben meine echten YouTube-Thumbnails aus Bremerhaven.
Da stehe ich im Mantel am Deich und rede über Stadtentwicklung, Event-Logik und lokale Politik, während der Algorithmus behauptet, ich würde milliardenschwere Firmenzusammenschlüsse koordinieren.
Man sieht: Die KI weiß sehr genau, wie ich aussehe.
Aber sie weiß nicht, wer ich bin.
Die Anatomie der Halluzination
Warum passiert so etwas? Das Problem ist nicht individuell, sondern systemisch.
1. Verschmelzungs-Effekt
Ralf Ekrowski + Ralf Ek. Zwei Juristen, ähnliche Namen. Für das Modell ein plausibler Kandidat für eine Zusammenführung.
2. Autoritäts-Ranking
Informationen von LinkedIn, Großkanzleien oder Ranking-Seiten werden höher gewichtet als lokale Blogs. Der „Partner“ verdrängt den „Blogger“ im Text, selbst wenn die Bilder etwas anderes zeigen.
3. Fehlender Kontext-Check
Die KI prüft nicht, ob es physikalisch möglich ist, gleichzeitig eine Kanzlei in Frankfurt zu leiten und regelmäßig Videos am Deich in Bremerhaven zu drehen. Sie reiht lediglich statistisch wahrscheinliche Fakten aneinander.
Die Antwort klingt glatt.
Sie ist nur falsch zusammengesetzt.
Das Problem ist universell!
Es geht um die algorithmische Integrität der eigenen Identität.
In einer globalisierten, digitalen Welt ist dein „digitaler Zwilling“ oft das Erste, was Menschen von dir sehen – und wenn dieser Zwilling eine KI-halluzinierte Mischkreatur ist, betrifft das jeden, egal ob in Bremerhaven, New York oder Tokio.
Verstand vor Algorithmus
Interessanterweise lieferten Gemini und ChatGPT korrekte Ergebnisse.
Der Grund ist banal: Kontext. Gemeinsame Historie. Ein Verständnis dafür, wer ich bin und was ich tatsächlich tue.
Das Problem ist also nicht das einzelne Tool. Es ist das System. LLMs sind darauf trainiert, eine Antwort zu liefern, nicht zwingend die richtige. Plausibilität schlägt Wahrheit, wenn man sie lässt.
Mein Fazit ist daher unspektakulär, aber wichtig:
LLMs sind fantastische Werkzeuge.
Aber man sollte seinen Menschenverstand nicht ausschalten, wenn man die KI einschaltet.
Perplexity ist ein RAG-System (Retrieval-Augmented Generation) nutzt.
Es sucht zwar in Echtzeit, aber die „Synthese“ der Fundstücke ist eben genau der Punkt, an dem die Halluzination entsteht.
Dass Gemini und ChatGPT mich korrekt einordnen konnten, liegt an dem tieferen Kontextfenster und der Historie unserer Zusammenarbeit.
Ein starkes Argument für personalisierte KI. Aber da stehen wir noch ganz am Anfang
Ich bleibe vorerst der Ralf Ekrowski aus Bremerhaven.
Die M&A-Mandate überlasse ich weiterhin dem Kollegen Ek.
Künstliche Intelligenz erkennt Muster, aber keine Menschen.
Sie kombiniert Namen, Titel und Autorität zu plausiblen Geschichten, auch wenn sie falsch sind.
Wer KI nutzt, sollte sie als Werkzeug verstehen, nicht als Wahrheitsinstanz.
Kontext, Quellenprüfung und gesunder Menschenverstand bleiben unverzichtbar.


