AI videozapisi koji pojačavaju ruske kampanje dezinformacija na internetu
Profesor Alan Read nije pridavao mnogo pažnje povremenim deepfake videima koji bi mu se pojavljivali na društvenim mrežama. Ponekad bi ih prijavio, a ponekad jednostavno preskočio, opisuje BBC.
Sve dok jednog dana jedan nepoznat račun nije označio njegov lik u videu u kojem je sintetički glas, gotovo identičan njegovom, izgovarao politički obojenu kritiku Emmanuela Macrona i drugih zapadnih lidera, optužujući ih da su „na Titaniku na kojem piše 'Evropska unija'“.
„Gotovo sve u tom videu je šokantno i užasno za slušati“, rekao je dr. Read. „To mi djeluje potpuno strano.“ Njegov avatar pojavljuje se u talasu sintetičkih videa koja su posljednjih mjeseci preplavili društvene mreže, izazivajući zabrinutost sigurnosnih stručnjaka da se Zapad mora pripremiti za borbu protiv utjecaja Kremlja u sferi umjetne inteligencije.
Nova era političkog utjecaja
„Ono što vidimo nije samo porast deepfake videa, već i promjena načina na koji se proizvodi utjecaj“, rekao je Chris Kremidas-Courtney, analitičar odbrane i sigurnosti u think-tanku European Policy Centre.
„Sistemi mogu generisati... uvjeravanje u velikoj skali, za male troškove. Za mene je ovo revolucija u političkom utjecaju, a nijedna od postojećih regulacija nije spremna za to.“
Videi, od kojih neki dosežu stotine hiljada pregleda, diskredituju EU institucije i optužuju ukrajinsku vladu za korupciju, dok traže finansijsku podršku zapadnih partnera u petoj godini rata s Rusijom.
Tehnološki napredak i utrka u AI-u
Nedavni porast uslijedio je mjesecima nakon što je OpenAI objavio Sora2, najnoviju verziju softvera za generisanje videa, koja je znatno poboljšala realističnost proizvoda. Konkurentske aplikacije su smanjivale cijene i ukidale sigurnosne mjere poput vodenih žigova koji razlikuju sintetičke od stvarnih videa.
„Moraju privući korisnike“, rekao je ruski AI stručnjak Arman Tuganbaev, dodajući da dok OpenAI pokušava spriječiti kreiranje videa sa stvarnim ljudima, „aplikacije nižeg ranga omogućavaju tu opciju“.
OpenAI je za BBC rekao da poduzima akcije protiv naloga koji šire obmanjujući sadržaj i lažno predstavljaju izvore.
Primjeri dezinformacija
Krajem decembra, talas AI-generisanih videa postao je viralan na TikToku, prikazujući mlade Poljakinje koje pozivaju na „Polexit“, izlazak Poljske iz Evropske unije.
„Nema sumnje, ovo je ruska dezinformacija“, rekao je Adam Szlapka. TikTok je uklonio te videozapise i naloge, a tokom 2025. godine uklonio je više od 75 sličnih operacija globalno.
U Velikoj Britaniji, zastupnici su izrazili zabrinutost da bi ruski deepfake videi mogli utjecati na lokalne izbore u maju.
Operacije i taktike Kremlja
Istraživači zapadnih zemalja primijetili su zajedničke karakteristike videa, od stilskih detalja do obrazaca distribucije, koji ih povezuju s organizovanim jedinicama dezinformacija povezanim s Rusijom.
Jedna kampanja, nazvana Matryoshka ili Operacija Overload, navodno je orkestrirala talas sintetičkih videa koji diskredituju predsjednicu Moldavije, Maiju Sandu, tokom njenog izbornog ciklusa 2025.
Za razliku od tradicionalnih ruskih propagandnih medija poput RT-a i Sputnika, ove kampanje omogućavaju „nivou... vjerovatne denijabilnosti“ koji otežava kontra-mjere, rekla je Sophie Williams-Dunning iz Kraljevskog instituta za udružene službe.
Efekti i brzina širenja
Druga mreža, Storm-1516, povezana je sa veteranima Kremljove „trol fabrike“ pod liderstvom Yevgenya Prigozhina. Studija Univerziteta Clemson pokazuje da je lažna priča o navodnoj korupciji Volodymyra Zelenskog preuzimala oko 7,5 % svih diskusija o predsjedniku na društvenim mrežama.
„To bi svaka marketinška firma smatrala uspjehom“, rekao je Darren L. Linvill, jedan od autora studije.
federalna.ba