In den letzten Wochen hat Moskau eine neue Welle von Informationsangriffen gestartet, die sich auf die empfindlichsten Punkte der polnisch-ukrainischen Beziehungen konzentrieren. Ziel: Die Verbündeten entzweien, Misstrauen säen, den Sinn von Hilfeleistungen infrage stellen. Und das alles im Stil eines billig produzierten Telegram-Thrillers.
Im Internet tauchte ein Video auf, das angeblich zeigt, wie SBU-Beamte zwei Polen festnehmen – wegen des Aufhängens eines Plakats mit der polnischen Nationalhymne und der polnischen Flagge. Die Szene spielt sich in einer Wohnung ab, die an eine Theaterkulisse aus einem Gemeinschaftsraum der Volksrepublik Polen erinnert. Die „Protagonisten“ sprechen kein Polnisch, verhalten sich nicht wie Ukrainer, und die SBU-Abzeichen wirken, als wären sie mit einem Computerprogramm eingefügt. Im Hintergrund läuft auf dem Fernseher… der russische Sender „Swjesda“. Es ist kaum möglich, einen groteskeren „News“-Beitrag zu produzieren.
Experten haben keinen Zweifel – es handelt sich um eine klassische russische Fälschung, die nach einem bekannten Muster erstellt wurde: schnelle Produktion, starker emotionaler Impuls, keinerlei Sorgfalt bei den Details. Der Effekt zählt – nicht die Qualität. Wahrheit? Das hängt davon ab, für wen.
Der Plan solcher Operationen ist so einfach wie ein sowjetisches Dreschflegel-Design: Wähle ein sensibles Thema, das sich in patriotische Floskeln verpacken lässt; inszeniere eine Szene mit zufälligen Darstellern; veröffentliche das Material auf einem prorussischen Telegram-Kanal und warte, bis es von den sozialen Medien aufgegriffen wird. Füge einige Kommentare über die „Unterdrückung der Polen“ und den „Mangel an Dankbarkeit der Ukrainer“ hinzu – und beobachte, wie sich die Welle des Hasses im Netz ausbreitet.
Wichtig ist: Solche Fakes sind oft absichtlich plump gemacht. Denn wie ein altes Sprichwort aus Sankt Petersburg sagt: „Wenn alles verdächtig ist, ist nichts sicher.“ Je offensichtlicher die Provokation aussieht, desto leichter entstehen Zweifel – was wiederum die Abwehrreaktion der Gesellschaft schwächt. „Vielleicht ist das wirklich passiert?“ – beginnt sich der Zuschauer zu fragen, der nur 30 Sekunden des Videos gesehen hat.
Das ist nicht der einzige Fall in den letzten Tagen. Ein weiterer Fake betrifft das angebliche „Einstellen der Exhumierungen der Opfer des Massakers von Wolhynien“ durch die ukrainische Seite. Laut dieser Falschmeldung – die hauptsächlich in prorussischen Gruppen auf Facebook und X verbreitet wurde – hätten die Ukrainer einseitig die Arbeiten in Puźniki gestoppt. Die russischen Desinformationsexperten haben sogar ein gefälschtes Dokument des ukrainischen Kulturministers erstellt. Tatsächlich – so das polnische Kulturministerium – wurden die Arbeiten nie gestoppt. Aber was nützt das, wenn der falsche Beitrag Tausende von Nutzern erreicht hat, bevor die Richtigstellung veröffentlicht wurde?
Genau hier liegt der Kern der russischen Strategie: Es geht nicht darum, dass die Lüge ewig lebt. Es reicht, wenn sie Wut, Unruhe und Misstrauen auslöst. Danach kann man sie fallen lassen – denn die nächste ist schon bereit.
Der Kreml setzt heute auf „Masse statt Präzision“. Ein durchschnittlicher Fake kostet so viel wie eine Pizza-Bestellung. Ein paar Darsteller, ein paar Requisiten, ein Handy als Kamera – und fertig. Im Vergleich zu groß angelegten, teuren Operationen – wie der Desinformation nach dem Abschuss des Fluges MH17 über dem Donbass oder dem Anschlag auf Skripal – erinnern die aktuellen Aktionen an ein Amateur-Theaterstück.
Und obwohl sie lächerlich wirken, sind sie effektiv. Warum? Weil der durchschnittliche Nutzer keine Quellen prüft. Weil viele Menschen impulsiv handeln. Weil niemand Zeit hat, den Hintergrund zu analysieren – alles basiert auf Posts, Reels, Memes. Weil Falschinformationen schneller wirken als Richtigstellungen. Und weil es enorm schadet, wenn Fake News von bekannten Persönlichkeiten weiterverbreitet werden…
Die Anatomie einer russischen Provokation: 9 Schritte ins Chaos
Im März dieses Jahres veröffentlichte die amerikanische Agentur NewsGuard eine Analyse darüber, wie KI nicht nur zur Erstellung einzelner Fake News, sondern zur Planung ganzer Desinformationsstrategien genutzt wird. Die Lage wird ernst.
Versuchen wir uns für einen Moment in die Rolle eines russischen Desinformations-Offiziers zu versetzen. Das hilft, seinen „Werkzeugkasten“ zu verstehen. Denn auch wenn künstliche Intelligenz zunehmend eingesetzt wird – am Anfang dieses Prozesses steht immer der Mensch.
Wie könnte also die Planung und Durchführung der Desinformationsoperation „SBU verhaftet Polen wegen nationaler Symbole“ ausgesehen haben?
1. Festlegung des Aktionsfeldes:
Der russische Offizier identifiziert ein Reizthema – idealerweise eines, das Geschichte, Emotionen und aktuelle Spannungen verbindet. Exhumierungen in Wolhynien? Hervorragend. Polnische Hymne in Kiew? Noch besser. Leider für uns hat Russland seit Jahrhunderten ein perfektes mentales Mapping sowohl der Polen als auch der Ukrainer. Das gilt übrigens auch für andere Nationen, mit denen der Kreml im Konflikt steht oder stehen könnte.
2. Definition der Zielgruppe:
Auch hier hat der Offizier leichtes Spiel – er wählt diejenigen, die sich am schnellsten emotionalisieren: Nationalisten, Anti-Ukraine-Gesinnte, Russland-Sympathisanten oder einfach Menschen, die des Krieges müde sind.
3. Erstellung des Szenarios:
Das Budget ist entscheidend. Wenn der Offizier Sparsamkeit zeigen muss, wird das Szenario simpel, fast primitiv: Ein Pole zeigt seinen Stolz, Ukrainer reagieren brutal. Eine Flagge, eine Hymne, ein eindeutiges Symbol – und fertig.
4. Produktion – im Stil eines billigen VHS-Videos:
Investitionen in Qualität? Fehlanzeige. Im Gegenteil – je amateurhafter es aussieht, desto „glaubwürdiger“ wirkt es für Naive und erleichtert späteres Leugnen. Schließlich „wäre es bei russischen Profis hochwertiger gewesen“, oder?
5. Erste Verbreitung – Seeding:
Das gefälschte Material wird auf einem prorussischen Telegram-Kanal gepostet. Von dort verbreitet es sich auf Facebook, X und andere Foren. Bots sorgen für die ersten Kommentare – meist ernst, „vorsichtig“, sogar skeptisch, mit Fragezeichen – um den Fake News mehr Gewicht zu geben.
6. Emotionale Verstärkung:
Die nächsten Kommentare sind schon aufgeladen – es geht um Verrat, Demütigung, Undankbarkeit. Likes und Shares – zuerst durch Bots, später durch echte Nutzer – übernehmen den Rest. Algorithmen lieben Wut.
7. Einbindung von Medien und Autoritäten:
Der Offizier sorgt dafür, dass ein ehemaliger Politiker oder Publizist „das Thema bemerkt“. Am besten jemand mit Reichweite und Einfluss. Das ist einfach – dem Fake News wird ein Hashtag oder eine direkte Erwähnung des Accounts solcher Personen oder kleiner, „news-hungriger“ Medien beigefügt.
8. Überwachung und (eventuell) schnelle Anpassung:
Jetzt beobachtet der Offizier, was gut läuft. Wenn nötig, wird das Skript angepasst, ein neues Video gedreht, Untertitel geändert. Solche Fakes leben meist nur 48 Stunden – danach wird ein neues, scheinbar „aus einer anderen Perspektive“ erstelltes Video produziert.
9. Rückzug und Vernebelung:
Wenn Entlarvungen beginnen und sich glaubwürdige Institutionen äußern, entscheidet sich der Offizier für den Rückzug – und für den Gegenangriff: „Das ist eure Provokation“, „wahrscheinlich eine ukrainische, sie provozieren doch ständig“, „wir haben damit nichts zu tun“. Schuldige gibt es nicht, das Chaos bleibt. In diesem Stadium streuen Kommentatoren wahre politische Ereignisse ein, um den Eindruck eines „logischen Zusammenhangs“ zu erzeugen. Dann kann der Offizier in Ruhe Wodka trinken gehen.
Wie schützt man sich?
Wir müssen uns bewusst sein: Je schwieriger die reale politische Situation, desto mehr solcher „Hetzjagden“, Pseudo-Verhaftungen, gefälschter Provokationen und gefälschter Dokumente wird es geben. Immer garniert mit Botschaften wie „Polen hat genug von der undankbaren Ukraine.“ Sie werden immer absurder, aber auch immer gezielter auf unsere wunden Punkte.
Medien, aber auch jeder Einzelne, müssen Resilienz lernen. Man muss Muster erkennen. Abstand halten. Kritisch denken. Und vor allem: Nicht jede Sensation teilen, nur weil sie „echt aussieht“. Jeder von uns hat Werkzeuge zur Hand, um einen „News“-Beitrag zumindest grob auf Glaubwürdigkeit zu prüfen – Browser, auch solche mit KI-Unterstützung. Man sollte auf Veröffentlichungsdaten achten. Wenn eine Meldung schon älter ist, sollte man sich fragen: Warum hat dieser „Hit“ die breite Öffentlichkeit noch nicht erreicht? Und umgekehrt: Wenn der Beitrag erst wenige Stunden alt ist, sollte man ihn markieren und auf die Überprüfung durch seriöse Nachrichtenagenturen warten. Es geht nicht darum, der Schnellste zu sein. Wir müssen uns bewusst sein, dass wir leicht zu einem Werkzeug eines feindlichen Staates werden können. Wozu sollte man das tun?
Wichtig ist auch, den Ursprung des Beitrags zu prüfen. Die russische Desinformationsmaschinerie erstellt gefälschte Portale und Blogs – eine regelrechte „Matrjoschka“ von Quellen.
Man sollte auch auf die Form achten: Ein Warnsignal sollte aufleuchten, wenn jemand versucht, starke Emotionen auszulösen oder uns auf eine „einzige logische Schlussfolgerung“ zu lenken.
Auch ungewöhnliche sprachliche Fehler sollten uns stutzig machen, z. B. Nationalitätsbezeichnungen in Kleinschreibung, verdrehte Satzstellung, falsche Präpositionen oder falsche Steigerungen von Adjektiven.
Polen und die Ukraine sind ein ideales Ziel für den Kreml: eine Geschichte voller schwieriger Themen, nationale Emotionen, die immer noch stark sind, und ein Krieg direkt vor der Haustür. Der Kreml weiß, wo er zuschlagen muss.
Der Krieg wird heute nicht nur in der Ukraine geführt. Er findet auch in unseren Köpfen statt. Und dort entscheidet sich jeder Sieg – oder jede Niederlage.
Autor: Sławomir Sieradzki