Eine pro-russische Desinformationskampagne nutzt kostenlose KI-Tools, um eine „Inhaltsexplosion“ auszulösen

Eine pro-russische Desinformationskampagne nutzt künstliche Intelligenz für Verbraucher, um eine „Inhaltsexplosion“ auszulösen, deren Ziel darin besteht, die bestehenden Spannungen rund um globale Wahlen, die Ukraine und Einwanderung sowie andere kontroverse Themen zu verschärfen. Dies geht aus einer neuen, letzte Woche veröffentlichten Studie hervor .
Die unter vielen Namen bekannte Kampagne, darunter Operation Overload und Matryoshka (andere Forscher haben sie auch mit Storm-1679 in Verbindung gebracht), läuft seit 2023 und wird von mehreren Gruppen, darunter Microsoft und das Institute for Strategic Dialogue , mit der russischen Regierung in Verbindung gebracht. Die Kampagne verbreitet falsche Narrative, indem sie sich als Medienunternehmen ausgibt, mit dem offensichtlichen Ziel, in demokratischen Ländern Zwietracht zu säen. Während die Kampagne auf ein Publikum auf der ganzen Welt, darunter auch in den USA , abzielt, ist ihr Hauptziel die Ukraine. Hunderte von KI-manipulierten Videos aus der Kampagne haben versucht, pro-russische Narrative zu schüren.
Der Bericht beschreibt, wie die Menge der von den Kampagnenverantwortlichen produzierten Inhalte zwischen September 2024 und Mai 2025 dramatisch zugenommen hat und weltweit Millionen von Aufrufen verzeichnet.
In ihrem Bericht identifizierten die Forscher 230 einzigartige Inhalte, die zwischen Juli 2023 und Juni 2024 von der Kampagne beworben wurden, darunter Bilder, Videos, QR-Codes und gefälschte Websites. In den letzten acht Monaten produzierte Operation Overload jedoch insgesamt 587 einzigartige Inhalte, von denen die meisten mithilfe von KI-Tools erstellt wurden, so die Forscher.
Die Forscher erklärten, der Anstieg der Inhalte sei auf verbraucherfreundliche KI-Tools zurückzuführen, die kostenlos online verfügbar sind. Dieser einfache Zugang habe die Taktik der „Inhaltsverschmelzung“ der Kampagne unterstützt. Dank KI-Tools konnten die Verantwortlichen mehrere Inhalte erstellen, die dieselbe Story verbreiteten.
„Dies markiert einen Wandel hin zu skalierbareren, mehrsprachigen und immer ausgefeilteren Propagandataktiken“, schreiben Forscher von Reset Tech, einer in London ansässigen Non-Profit-Organisation, die Desinformationskampagnen verfolgt, und Check First, einem finnischen Softwareunternehmen, in dem Bericht. „Die Kampagne hat die Produktion neuer Inhalte in den letzten acht Monaten deutlich gesteigert und signalisiert damit einen Wandel hin zu schnelleren, skalierbareren Methoden der Inhaltserstellung.“
Die Forscher waren auch erstaunt über die Vielfalt der Tools und Inhaltstypen, die die Kampagne verfolgte. „Was mich überraschte, war die Vielfalt der Inhalte, die unterschiedlichen Inhaltstypen, die sie verwendeten“, sagt Aleksandra Atanasova, leitende Open-Source-Intelligence-Forscherin bei Reset Tech, gegenüber WIRED. „Es ist, als hätten sie ihre Palette diversifiziert, um möglichst viele verschiedene Blickwinkel dieser Geschichten zu erfassen. Sie schichten verschiedene Inhaltstypen übereinander.“
Atanasova fügte hinzu, dass die Kampagne offenbar keine speziellen KI-Tools zur Erreichung ihrer Ziele einsetzte, sondern KI-gestützte Sprach- und Bildgeneratoren, die für jedermann zugänglich seien.
Obwohl es schwierig war, alle von den Wahlkampfhelfern verwendeten Tools zu identifizieren, gelang es den Forschern, die Zahl auf ein bestimmtes Tool einzugrenzen: Flux AI.
Flux AI ist ein Text-zu-Bild-Generator, der von Black Forest Labs entwickelt wurde, einem deutschen Unternehmen, das von ehemaligen Mitarbeitern von Stability AI gegründet wurde. Mithilfe des Bildanalysetools SightEngine fanden die Forscher mit einer Wahrscheinlichkeit von 99 Prozent heraus, dass einige der von der Overload-Kampagne geteilten gefälschten Bilder – von denen einige angeblich muslimische Migranten zeigten, die in Berlin und Paris randalierten und Brände legten – mithilfe der Bildgenerierung von Flux AI erstellt wurden.
Mithilfe diskriminierender Formulierungen – wie etwa „wütende muslimische Männer“ – gelang es den Forschern, Bilder zu erstellen, die die Ästhetik der veröffentlichten Bilder möglichst genau wiedergaben.
Dies zeige, „wie KI-Text-zu-Bild-Modelle missbraucht werden können, um Rassismus zu fördern und antimuslimische Stereotypen zu schüren“, schrieben die Forscher und fügten hinzu, dass dies „ethische Bedenken hinsichtlich der Funktionsweise von Eingabeaufforderungen in verschiedenen KI-Generationsmodellen“ aufwerfe.
„Wir integrieren mehrere Sicherheitsebenen, um unrechtmäßigen Missbrauch zu verhindern, darunter Provenienz-Metadaten, die es Plattformen ermöglichen, KI-generierte Inhalte zu identifizieren. Außerdem unterstützen wir Partner bei der Implementierung zusätzlicher Moderations- und Provenienz-Tools“, schrieb ein Sprecher von Black Forest Labs in einer E-Mail an WIRED. „Um Missbrauch zu verhindern, sind mehrere Schutzmaßnahmen sowie die Zusammenarbeit zwischen Entwicklern, Social-Media-Plattformen und Behörden erforderlich. Wir werden diese Bemühungen weiterhin unterstützen.“
Atansova teilt WIRED mit, dass die von ihr und ihren Kollegen überprüften Bilder keine Metadaten enthielten.
Operation Overload nutzt KI-Technologie, um Videos so zu manipulieren, dass es so aussieht, als würden prominente Persönlichkeiten Dinge sagen, die sie nie gesagt haben. Die Anzahl der im Rahmen der Kampagne produzierten Videos stieg zwischen Juni 2023 und Juli 2024 von 150 auf 367 zwischen September 2024 und Mai 2025. Die Forscher gaben an, dass die Mehrheit der Videos der letzten acht Monate KI-Technologie nutzte, um die Zuschauer zu täuschen.
So veröffentlichte die Kampagne beispielsweise im Februar ein Video auf X, in dem Isabelle Bourdon, Dozentin und Forscherin an der französischen Universität Montpellier, deutsche Bürger scheinbar zu Massenunruhen und zur Wahl der rechtsextremen AfD bei der Bundestagswahl aufrief. Das Video war gefälscht: Es stammte aus einem Video auf dem offiziellen YouTube-Kanal der Universität, in dem Bourdon über einen kürzlich gewonnenen Preis für Sozialwissenschaften sprach. In dem manipulierten Video erweckte die KI-gestützte Stimmklontechnologie jedoch den Eindruck, als würde sie stattdessen über die Bundestagswahl sprechen.
Die von Operation Overload produzierten KI-generierten Inhalte werden auf über 600 Telegram-Kanälen sowie von Bot-Konten auf Social-Media-Plattformen wie X und Bluesky geteilt. In den letzten Wochen wurden die Inhalte erstmals auch auf TikTok geteilt. Dies wurde erstmals im Mai entdeckt, und obwohl die Anzahl der Konten mit nur 13 gering war, wurden die geposteten Videos drei Millionen Mal angesehen, bevor die Plattform die Konten herabstufte.
„Wir sind äußerst wachsam gegenüber Akteuren, die versuchen, unsere Plattform zu manipulieren, und haben die in diesem Bericht genannten Konten bereits entfernt“, erklärt Anna Sopel, eine TikTok-Sprecherin, gegenüber WIRED. „Wir erkennen und unterbinden verdeckte Einflussnahmeoperationen kontinuierlich, sind ihnen immer einen Schritt voraus und berichten jeden Monat transparent über unsere Fortschritte.“
Die Forscher wiesen darauf hin, dass Bluesky zwar 65 Prozent der Fake-Accounts gesperrt habe, „X jedoch trotz zahlreicher Berichte über die Operation und zunehmender Hinweise auf eine Zusammenarbeit nur minimale Maßnahmen ergriffen habe“. Weder X noch Bluesky reagierten auf Anfragen um einen Kommentar.
Sobald die gefälschten und KI-generierten Inhalte von Operation Overload erstellt sind, unternimmt die Kampagne etwas Ungewöhnliches: Sie sendet E-Mails an Hunderte von Medien und Faktencheck-Organisationen auf der ganzen Welt mit Beispielen ihrer gefälschten Inhalte auf verschiedenen Plattformen, zusammen mit der Aufforderung an die Faktenchecker, zu untersuchen, ob diese echt sind oder nicht.
Während es für eine Desinformationskampagne kontraintuitiv erscheinen mag, diejenigen, die gegen Desinformation vorgehen wollen, auf ihre Bemühungen aufmerksam zu machen, besteht das ultimative Ziel der prorussischen Aktivisten darin, dass ihre Inhalte – selbst wenn sie mit dem Wort „FAKE“ versehen sind – von einem echten Nachrichtensender online gestellt werden.
Den Forschern zufolge wurden seit September 2024 bis zu 170.000 solcher E-Mails an mehr als 240 Empfänger verschickt. Die Nachrichten enthielten typischerweise mehrere Links zu den von der KI generierten Inhalten, der E-Mail-Text sei jedoch nicht mithilfe von KI generiert worden, so die Forscher.
Pro-russische Desinformationsgruppen experimentieren schon lange mit KI-Tools, um ihre Produktion zu optimieren. Im vergangenen Jahr wurde bekannt, dass eine Gruppe namens CopyCop , die vermutlich mit der russischen Regierung in Verbindung steht, mithilfe von Large Language Models (LLMs) gefälschte Websites erstellte, die wie seriöse Medien aussehen sollten. Zwar erzielen diese Versuche in der Regel wenig Traffic, doch die damit einhergehende Social-Media-Werbung kann Aufmerksamkeit erregen, und in manchen Fällen landen die gefälschten Informationen ganz oben in den Google- Suchergebnissen.
Einem aktuellen Bericht des amerikanischen Sunlight Project zufolge produzieren russische Desinformationsnetzwerke jedes Jahr mindestens drei Millionen KI-generierte Artikel und diese Inhalte vergiften die Ausgabe KI-gestützter Chatbots wie ChatGPT von OpenAI und Gemini von Google.
Forscher haben wiederholt gezeigt , wie Desinformationsaktivisten KI-Tools nutzen. Da es für die Menschen immer schwieriger wird, echte von KI-generierten Inhalten zu unterscheiden, prognostizieren Experten, dass der Anstieg von KI-Inhalten, die Desinformationskampagnen befeuern, anhalten wird.
„Sie haben bereits das Rezept, das funktioniert“, sagt Atanasova. „Sie wissen, was sie tun.“
wired