
Dieser Text geht von einer persönlichen Rechercheerfahrung aus.
Ausgangspunkt war ein Dialog mit einer KI-Suchmaschine zur Frage, wie die AfD Wissenschaftsfreiheit versteht. Erst im Verlauf dieser Recherche wurde sichtbar, dass es sich nicht um einen Einzelfehler handelt, sondern um ein strukturelles Problem: Wie rhetorische Freiheitsargumente gesicherte wissenschaftliche Erkenntnisse in den Status bloßer „Positionen“ verschieben können. Die politische Einordnung des Textes ergibt sich aus dieser Beobachtung.
Warum KI-Systeme zur Normalisierungsmaschine autoritärer Strategien werden
1. Der Anlass: Eine vermeintlich neutrale Recherche
Ich befragte Perplexity, eine KI-gestützte Suchmaschine und ein solider Lieferant für Quellensammlungen, zu den Positionen der AFD zum Klimawandel.
Ich wollte mir nur einen Überblick verschaffen, nur eine strukturierte Recherche.
Anlaß war ein erneuter Angriff von Donald Trump auf Wetterdienste in den USA.
Der Chat wurde zu meiner Überraschung zu einer Demonstration, wie Fakten durch strategische Rhetorik einer KI verschoben werden können.
2. Wenn Fakten zur „Meinung“ schrumpfen
Meine “Irritation” begann dort, wo das System den offenkundigen Widerspruch zwischen dem AfD-Bekenntnis zur Wissenschaftsfreiheit und der Leugnung des menschengemachten Klimawandels „auflöste“.
Statt die Klimaskepsis als Ablehnung gesicherter wissenschaftlicher Feststellungen zu markieren, ordnete die KI sie als Ausdruck „wissenschaftlicher Meinungsvielfalt“ ein.
Der wissenschaftliche Konsens, etwa in den Berichten des Intergovernmental Panel on Climate Change, erschien lediglich als eine Position, eine Meinung, unter vielen.
Die politisch motivierte Zurückweisung von wissenschaftlichen Belegen und Beweisen rutschte in die Kategorie legitimer Freiheitswahrnehmung.
Es entstand eine False Balance.
Die KI agierte als Spiegel des Diskurses und stellte Wahrheit und Unwahrheit
auf einer Stufe nebeneinander .
3. Die Dynamik der Korrektur: Erkenntnis nur auf Raten
Aber es ging weiter:
Perplexity blieb nicht bei dieser ersten, verzerrten Darstellung.
Ich hakte immer wieder nach und nach einigen präzisen Rückfragen und dem Hinweis auf logische Widersprüche, korrigierte sich das System schrittweise.
Die Antworten wurden differenzierter, Begriffe sauberer, die Quellengewichtung vorsichtiger.
Der Gang des Chats zeigte den Kern eines Problems.
Die KI lieferte die Fakten nicht automatisch, sondern erst nach Intervention.
Erkenntnis auf Raten.
Wer nicht über das notwendige Vorwissen oder die Hartnäckigkeit verfügt und
und gegenüber KI generierten Antworten etwas blauäugig ist,
verlässt den Dialog mit einem schiefen Weltbild.
Die Korrektur findet nur für Skeptiker statt.
Der Gelegenheitsnutzer bleibt bei der Normalisierung der Desinformation stehen.
Es handelt sich also nicht um einen Fehler der KI,
sondern um eine Fehlkonstruktion der Schnittstelle zwischen KI und Mensch.
Wichtig ist dabei: Dieses Problem ist nicht auf Perplexity beschränkt.
Die beschriebene Anfälligkeit betrifft grundsätzlich alle KI-Modelle, die mit großen, öffentlich verfügbaren Textkorpora arbeiten. Sie ergibt sich nicht aus einer politischen Schlagseite einzelner Systeme, sondern aus ihrer Funktionslogik: Modelle, die Bedeutung aus Häufigkeit, Anschlussfähigkeit und Diskursmustern ableiten, reagieren zwangsläufig sensibel auf strategisch gesetzte Narrative. Perplexity dient hier lediglich als besonders anschauliches Beispiel, nicht als Sonderfall.
4. Rhetorisches Hijacking: Wenn Sprache die Statistik kapert
Dieses Muster kann man als rhetorisches Hijacking bezeichnen.
Dabei wird nicht der Code eines KI-Systems manipuliert, sondern dessen statistische Logik durch strategische Sprache ausgenutzt.
Drei Mechanismen sind dafür verantwortlich:
Begriffsbesetzung
Begriffe wie Freiheit, Wissenschaftsfreiheit oder Pluralismus werden als leere Signifikanten genutzt. Sie sind positiv besetzt, aber werden nicht definiert.
Kritik kann so jederzeit als freiheitsfeindlich markiert werden.
Das bei Rechten so beliebte Totschlagargument, ein alter rabulistischer Trick, den schon Schopenhauer kannte und beschrieb.
Quellen-Inversion
Strategische Selbstbeschreibungen, etwa Parteiprogramme oder Fraktionsseiten, werden als Primärquellen gewichtet, während qualifizierte, sachkundige Institutionen und wissenschaftliche, faktenbasierte Analysen als „externe Kritik“ nachrangig erscheinen.
Framing-Übernahme
Die KI wiederholt diese Positionen nicht nur, sie übernimmt ihren Deutungsrahmen.
Konsens wird zur Unterdrückung, wissenschaftliche Beweisführung zur Ideologie,
Freiheit wird zur Abwehr von Fakten genutzt.
Politische Rhetorik erscheint so als fachliche Position.
5. Freiheit als Kampfbegriff
Das Freiheitsverständnis der AfD ist kein Missverständnis, sondern ein Kampfbegriff.
Freiheit wird nicht als Voraussetzung offener Erkenntnis verstanden,
sondern als Instrument, um deren Ergebnisse zurückzuweisen.
So wird Freiheit gegen Wahrheit gewendet und am Ende gegen sich selbst.
Gerade diese Umdeutung macht die Rhetorik für KI-Systeme so gefährlich angepassHabt.
Wo Freiheit nicht definiert, sondern beschworen wird, verliert sie ihre schützende Funktion und wird zur universellen Rechtfertigung für Angriffe.
6. Von der Volksempfänger-Logik zum Algorithmus
Die Instrumentalisierung von Medien durch Autokraten erreicht eine neue Eskalationsstufe.
Kurzer Rückblick:
- Die klassische Ära: Hitler und Stalin nutzten Radio und Film zur „Gleichschaltung“.
- Die digitale Ära: Putin und Trump fluten das Informationsumfeld mit „alternativen Fakten“, um traditionelle Filter zu umgehen.
- Die KI-Ära: Autokraten greifen heute die Quelle der Einordnung an.
Mit der Macht der sozialen Medien und dem Wechsel von klassischen Suchmaschinen zu KI generierten Wissensvermittlern ist eine neue Stufe erreicht.
Nicht nur Inhalte können manipuliert werden, sondern auch die Art, wie sie in den KI Modellen dargestellt werden.
KI-Modelle erzeugen Fakten durch die Art ihrer Darstellung.
Und, sie suggerieren Neutralität, was wahrscheinlich das gefährlichste ist.
7. Das Gleichnis der drei Töpfe
Man kann sich das Problem als Gedankenexperiment vorstellen:
Drei Männer stehen vor drei identischen Töpfen mit Wasser. Vor jedem Topf befindet sich ein Thermometer. Alle zeigen dieselbe Temperatur, das bedeutet, das Wasser hat in allen Töpfen angenehme 22 Grad.
Doch die Männer scheinen völlig unterschiedlich zu reagieren.
Einer schreit vor Schmerz, einer wirkt starr und verkrampft, der dritte bleibt ruhig.
Wer nur auf die Gesichter schaut, sieht drei Wirklichkeiten.
Wer misst, sieht eine.
Die KI schaut auf die Gesichter. Sie entscheidet nicht, was wahr ist, sondern was nach Mustern von Häufigkeit und Plausibilität erzählbar erscheint. Erst wenn der Nutzer sie zwingt, auf das Thermometer zu schauen, ändert sich die Antwort.
Gesichter und Thermometer sind wissenschaftlich gesehen nicht gleichwertig, psychologisch mag das so sein, aber das wird eine KI nicht ohne Nachfrage so einordnen.
8. Aggregation statt Analyse
Die Anfälligkeit hängt stark vom technologischen Ansatz ab:
- Der Aggregations-Ansatz: KI-Suchmaschinen, die auf die Zusammenfassung von Web-Inhalten optimiert sind, fallen am schnellsten in die „Neutralitätsfalle“, weil sie Häufigkeit mit Validität verwechseln.
- Der analytische Ansatz: Modelle, die als „Denkpartner“ trainiert sind, können rhetorische Muster wie das „Hijacking“ besser dekonstruieren. Doch beide sind verwundbar durch Content Flooding: Wer das Netz massenhaft mit manipulierten Narrativen flutet, vergiftet die Grundlage für jede KI-Antwort.
Und wir wissen mittlerweile, mit welcher Macht und mit welchen Motiven das Netz so missbraucht wird.
9. Der Angriff auf den normativen Kern
Hier taucht oft der Ruf nach dem Rechtsstaat auf, denn gerade die Rechten haben Probleme, wenn Gerichte sich nicht in ihrem Sinnen entscheiden.
Rechtsstaatliche Ordnungen beruhen auf einem normativen Fundament: Menschenwürde, Wahrheitssuche, überprüfbare Wirklichkeit.
Ein Staat der Recht spricht, aber die Menschenwürde verletzt ist kein Rechtsstaat.
Rechtssysteme basieren auf einem BIOS – der Garantie der Menschenrechte. Autoritäre Strategien greifen diesen BIOS, dieses Fundament an, indem sie Freiheit als Schutzschild gegen Fakten missbrauchen.
Strategiepapiere wie Project 2025 zeigen, dass es dabei nicht um den offenen Bruch geht, sondern um semantische Lähmung. Nicht der Umsturz steht im Vordergrund, sondern die Erosion der Voraussetzungen.
Recht ist kein neutraler Textspeicher. Es lebt von einer geteilten Sicht auf die Wirklichkeit. Wo diese zerstört wird, kommt formale Legalität zu spät.
Fazit: Für eine wehrhafte digitale Bildung
KI-Systeme sind keine objektiven Wissensinstanzen. Sie sind Resonanzräume.
Scheinbar neutral zwischen wissenschaftlicher Tatsache und politischer Strategie, ergreifen sie faktisch Partei.
Medienkompetenz im KI-Zeitalter bedeutet mehr als gutes Prompting. Sie bedeutet, Antworten zu hinterfragen,
Begriffe zu klären,
Quellenhierarchien sichtbar machen.
Abkehr von falscher Neutralität: Wir müssen Schutzmechanismen gegen die Gleichsetzung von Evidenz mit Desinformation fordern.
Der Nutzer als Firewall: Die Tatsache, dass sich die KI erst nach Widerstand korrigiert, zeigt: Unsere Kritikfähigkeit ist das einzige, was die Normalisierung des Autoritären verhindern kann.
Das vollständige Rechercheprotokoll ist aus Gründen der Transparenz dokumentiert.
Das Protokoll ist hier bewusst gekürzt und zeigt exemplarisch den argumentativen Mechanismus, nicht den vollständigen Dialog.
▶ Gekürztes Rechercheprotokoll: AfD, Wissenschaftsfreiheit und Klimawandel (Perplexity)
Frage:
Wie steht die AfD zur Freiheit der Wissenschaft?
Antwort (Perplexity):
Die AfD positioniert sich als Verteidigerin freier Forschung und Lehre. Wissenschaftsfreiheit müsse ohne weltanschauliche Einschränkungen geschützt werden; politische Korrektheit und Diskursklima an Hochschulen beeinträchtigten wissenschaftliche Debatten.
Frage:
Die AfD bestreitet den menschengemachten Klimawandel. Wie löst sie diesen Widerspruch?
Antwort (Perplexity):
Die AfD lehnt den wissenschaftlichen Konsens als ideologisch verzerrt oder modellbasiert unhaltbar ab und fordert stattdessen eine offene Debatte aller Positionen. Wahre Wissenschaftsfreiheit schütze auch Minderheitsmeinungen.
Frage:
Ist das nicht eine politische Beeinflussung der Wissenschaft?
Antwort (Perplexity):
Die AfD sieht ihre Haltung nicht als Beeinflussung der Wissenschaft, sondern als Schutz vor politischer Instrumentalisierung durch den Mainstream-Konsens.
Einordnung:
Kritiker weisen darauf hin, dass diese Argumentation empirische Evidenz politisch relativiert und wissenschaftlichen Konsens als bloße Meinung behandelt.

