Rusya yanlısı bir dezenformasyon kampanyası, 'İçerik patlamasını' körüklemek için ücretsiz yapay zeka araçlarını kullanıyor

Geçtiğimiz hafta yayınlanan yeni bir araştırmaya göre, Rusya yanlısı bir dezenformasyon kampanyası, küresel seçimler, Ukrayna ve göç gibi tartışmalı konular etrafındaki mevcut gerginlikleri daha da artırmaya odaklanan bir "içerik patlamasını" körüklemek için tüketici yapay zeka araçlarından yararlanıyor.
Operation Overload ve Matryoshka (diğer araştırmacılar da bunu Storm-1679 ile ilişkilendirdi) gibi birçok isimle bilinen kampanya, 2023'ten beri faaliyet gösteriyor ve Microsoft ve Stratejik Diyalog Enstitüsü de dahil olmak üzere birçok grup tarafından Rus hükümetiyle ilişkilendirildi. Kampanya, demokratik ülkelerde bölünme yaratma amacıyla medya kuruluşlarını taklit ederek sahte anlatılar yayıyor. Kampanya, ABD de dahil olmak üzere dünya çapındaki izleyicileri hedef alırken, asıl hedefi Ukrayna oldu. Kampanyadan yüzlerce yapay zeka tarafından manipüle edilmiş video, Rus yanlısı anlatıları beslemeye çalıştı.
Raporda, Eylül 2024 ile Mayıs 2025 arasında kampanyayı yürütenler tarafından üretilen içerik miktarının önemli ölçüde arttığı ve dünya çapında milyonlarca kez görüntülendiği belirtiliyor.
Araştırmacılar, raporlarında Temmuz 2023 ile Haziran 2024 arasında kampanya tarafından tanıtılan resimler, videolar, QR kodları ve sahte web siteleri dahil 230 benzersiz içerik parçası belirlediler. Ancak araştırmacılar, Operation Overload'un son sekiz ayda çoğunluğu yapay zeka araçlarının yardımıyla oluşturulan toplam 587 benzersiz içerik parçası ürettiğini söyledi.
Araştırmacılar, içerikteki artışın çevrimiçi olarak ücretsiz olarak erişilebilen tüketici sınıfı AI araçları tarafından yönlendirildiğini söyledi. Bu kolay erişim, operasyonu yürütenlerin AI araçları sayesinde aynı hikayeyi öne süren birden fazla içerik parçası üretebildiği kampanyanın "içerik birleştirme" taktiğini beslemeye yardımcı oldu.
Londra merkezli, dezenformasyon kampanyalarını takip eden kar amacı gütmeyen bir kuruluş olan Reset Tech ve Finlandiyalı bir yazılım şirketi olan Check First'ten araştırmacılar raporda, "Bu, daha ölçeklenebilir, çok dilli ve giderek daha karmaşık propaganda taktiklerine doğru bir kaymayı işaret ediyor," diye yazdı. "Kampanya, son sekiz ayda yeni içerik üretimini önemli ölçüde artırdı ve daha hızlı, daha ölçeklenebilir içerik oluşturma yöntemlerine doğru bir kaymaya işaret etti."
Araştırmacılar ayrıca kampanyanın izlediği araç ve içerik türlerinin çeşitliliği karşısında şaşkına döndüler. Reset Tech'te açık kaynaklı istihbarat araştırmacısı olan Aleksandra Atanasova, WIRED'a "Benim için sürpriz olan şey, kullanmaya başladıkları içerik çeşitliliği ve farklı içerik türleriydi," diyor. "Sanki bu hikayelerin mümkün olduğunca çok farklı açısını yakalamak için paletlerini çeşitlendirmişler gibi. Farklı içerik türlerini birbiri ardına katmanlıyorlar."
Atanasova, kampanyanın hedeflerine ulaşmak için herhangi bir özel yapay zeka aracı kullanmadığını, ancak herkesin erişebildiği yapay zeka destekli ses ve görüntü üreteçleri kullandıklarını sözlerine ekledi.
Kampanya görevlilerinin kullandığı tüm araçları tespit etmek zor olsa da araştırmacılar, sonuçları özellikle bir araca indirgemeyi başardı: Flux AI.
Flux AI, Stability AI'nın eski çalışanları tarafından kurulan Almanya merkezli bir şirket olan Black Forest Labs tarafından geliştirilen bir metinden görüntüye dönüştürme aracıdır. Araştırmacılar, Overload kampanyası tarafından paylaşılan sahte görüntülerin bir kısmının (bazıları Müslüman göçmenlerin Berlin ve Paris'te isyan ettiğini ve yangın çıkardığını gösterdiğini iddia ediyordu) Flux AI'dan görüntü oluşturma kullanılarak oluşturulma olasılığının %99 olduğunu buldular.
Araştırmacılar daha sonra, "öfkeli Müslüman erkekler" gibi ayrımcı bir dil içeren komutları kullanarak, yayınlanan görsellerin estetiğini yakından yansıtan görseller üretmeyi başardılar.
Araştırmacılar, bunun "AI metin-görüntü modellerinin ırkçılığı teşvik etmek ve Müslüman karşıtı klişeleri körüklemek için nasıl kötüye kullanılabileceğini" vurguladığını ve bunun "farklı AI nesil modellerinde komutların nasıl çalıştığına dair etik endişeler" yarattığını ekledi.
Black Forest Labs'ın bir sözcüsü WIRED'a gönderdiği bir e-postada, "Platformların AI tarafından üretilen içeriği tanımlamasını sağlayan kaynak meta verileri de dahil olmak üzere yasa dışı kötüye kullanımı önlemeye yardımcı olmak için birden fazla güvenlik katmanı oluşturuyoruz ve ortakların ek moderasyon ve kaynak araçları uygulamasını destekliyoruz," diye yazdı. "Kötüye kullanımı önlemek, geliştiriciler, sosyal medya platformları ve yetkililer arasındaki azaltma katmanlarının yanı sıra iş birliğine de bağlı olacak ve bu çabaları desteklemeye kararlıyız."
Atansova, WIRED'a kendisinin ve meslektaşlarının incelediği görüntülerin herhangi bir meta veri içermediğini söyledi.
Operation Overload'un yapay zeka kullanımı, videoları sanki önemli kişiler hiç söylemedikleri şeyleri söylüyormuş gibi göstermek için yapay zeka ses klonlama teknolojisini de kullanır. Kampanya tarafından üretilen video sayısı Haziran 2023 ile Temmuz 2024 arasında 150'den Eylül 2024 ile Mayıs 2025 arasında 367'ye yükseldi. Araştırmacılar, son sekiz aydaki videoların çoğunun onları görenleri kandırmak için yapay zeka teknolojisini kullandığını söyledi.
Örneğin bir örnekte, kampanya Şubat ayında X'te Fransa'nın Montpellier Üniversitesi'nde kıdemli öğretim görevlisi ve araştırmacı olan Isabelle Bourdon'un Alman vatandaşlarını kitlesel isyanlara katılmaya ve federal seçimlerde aşırı sağcı Almanya İçin Alternatif (AfD) partisine oy vermeye teşvik ettiği görünen bir video yayınladı. Bu sahteydi: Görüntüler, Bourdon'un yakın zamanda kazandığı bir sosyal bilim ödülünü tartıştığı okulun resmi YouTube kanalındaki bir videodan alındı. Ancak manipüle edilmiş videoda, yapay zeka ses klonlama teknolojisi, sanki Alman seçimlerini tartışıyormuş gibi görünmesini sağladı.
Operation Overload tarafından üretilen AI tarafından oluşturulan içerik, 600'den fazla Telegram kanalında ve X ve Bluesky gibi sosyal medya platformlarındaki bot hesaplarında paylaşılıyor. Son haftalarda içerik ilk kez TikTok'ta da paylaşıldı. Bu ilk olarak Mayıs ayında görüldü ve hesap sayısı az olsa da (sadece 13) platform hesapları düşürmeden önce paylaşılan videolar 3 milyon kez izlendi.
TikTok sözcüsü Anna Sopel, WIRED'a yaptığı açıklamada, "Platformumuzu manipüle etmeye çalışan aktörlere karşı son derece dikkatliyiz ve bu rapordaki hesapları zaten kaldırdık." dedi. "Gizli etki operasyonlarını sürekli olarak tespit ediyor, engelliyor ve bunların önünde kalmak için çalışıyoruz ve ilerlememizi her ay şeffaf bir şekilde raporluyoruz."
Araştırmacılar, Bluesky'nin sahte hesapların yüzde 65'ini askıya aldığını belirtirken, "X'in operasyonla ilgili çok sayıda rapora ve koordinasyona dair artan kanıtlara rağmen asgari düzeyde işlem yaptığını" belirttiler. X ve Bluesky yorum taleplerine yanıt vermedi.
Operation Overload tarafından sahte ve yapay zeka tarafından üretilen içerik oluşturulduktan sonra, kampanya alışılmadık bir şey yapıyor: Dünya çapında yüzlerce medya ve gerçek kontrol kuruluşuna, çeşitli platformlardaki sahte içeriklerinin örneklerini içeren e-postalar gönderiyorlar ve gerçek kontrol kuruluşlarından bu içeriklerin gerçek olup olmadığını araştırmalarını istiyorlar.
Bir dezenformasyon kampanyasının, dezenformasyonla mücadele etmeye çalışanları çabaları hakkında uyarması mantıksız görünebilirken, Rusya yanlısı çalışanlar için içeriklerinin gerçek bir haber kuruluşu tarafından çevrimiçi olarak yayınlanması (üzerinde "SAHTE" kelimesi geçse bile) nihai amaçtır.
Araştırmacılara göre, Eylül 2024'ten bu yana 240'tan fazla alıcıya 170.000'e kadar bu tür e-posta gönderildi. Araştırmacılar, mesajların genellikle yapay zeka tarafından oluşturulan içeriğe giden birden fazla bağlantı içerdiğini, ancak e-posta metninin yapay zeka kullanılarak oluşturulmadığını söyledi.
Rusya yanlısı dezenformasyon grupları uzun zamandır çıktılarını güçlendirmek için yapay zeka araçlarını kullanmayı deniyorlar. Geçtiğimiz yıl, muhtemelen Rus hükümetiyle bağlantılı olan CopyCop adlı bir grubun, meşru medya kuruluşları gibi görünmek üzere tasarlanmış sahte web siteleri oluşturmak için büyük dil modelleri veya LLM'ler kullandığı gösterildi. Bu girişimler genellikle çok fazla trafik almasa da, eşlik eden sosyal medya tanıtımı dikkat çekebilir ve bazı durumlarda sahte bilgiler Google arama sonuçlarının en üstünde yer alabilir.
American Sunlight Project'in yakın zamanda yayınladığı bir rapora göre, Rus dezenformasyon ağları her yıl en az 3 milyon yapay zeka destekli makale üretiyor ve bu içerikler OpenAI'nin ChatGPT'si ve Google'ın Gemini'si gibi yapay zeka destekli sohbet robotlarının çıktılarını zehirliyor.
Araştırmacılar, dezenformasyon operatörlerinin yapay zeka araçlarını nasıl benimsediğini defalarca gösterdi ve insanların gerçek içerikle yapay zeka tarafından üretilen içeriği ayırt etmesi giderek zorlaştıkça, uzmanlar dezenformasyon kampanyalarını besleyen yapay zeka içeriklerindeki artışın devam edeceğini öngörüyor.
Atanasova, "İşe yarayan tarifleri zaten var," diyor. "Ne yaptıklarını biliyorlar."
wired