Viralne laži ispred činjenica: Kako je vještačka inteligencija zamutila istinu o Venezueli
U samo nekoliko minuta nakon što je Donald Trump u ranim jutarnjim satima subote objavio da su Sjedinjene Američke Države izvele „veliki vojni udar“ na Venezuelu, društvene mreže preplavio je talas lažnih i obmanjujućih sadržaja generisanih uz pomoć vještačke inteligencije. Dok su korisnici širom svijeta pokušavali shvatiti šta se zaista dešava u Caracasu, granica između stvarnosti i digitalne manipulacije gotovo je u potpunosti nestala.
Na platformama poput X-a, Instagrama, Facebooka i TikToka počele su se masovno širiti slike i videozapisi koji su navodno prikazivali dramatične scene iz Venezuele – od fotografija predsjednika Nicolása Madura kako ga američki agenti za sprovođenje zakona izvode iz aviona, do snimaka raketnih udara na Caracas i slavlja građana koji, navodno, masovno izlaze na ulice. Gotovo sav taj sadržaj bio je – lažan.
Lažne slike pomiješane sa stvarnim snimcima
Posebno zbunjujuće bilo je to što su fabricirane fotografije i AI-generisani videozapisi bili pomiješani s autentičnim snimcima. Na društvenim mrežama pojavili su se stvarni videozapisi američkih vojnih aviona iznad Caracasa, kao i snimci eksplozija koje su obasjavale noćno nebo iznad glavnog grada Venezuele. Upravo ta kombinacija stvarnih i lažnih materijala dodatno je otežala korisnicima, ali i novinarima, da u realnom vremenu razluče činjenice od fikcije.
Nedostatak zvaničnih i potvrđenih informacija o samoj operaciji, zajedno s rapidnim napretkom alata vještačke inteligencije, stvorio je savršene uslove za dezinformacije. U tom vakuumu informacija, društvene mreže su se pretvorile u poligon za digitalni haos.
Viralni falsifikati prije zvanične potvrde
Do trenutka kada je Trump objavio prvu potvrđenu fotografiju – na kojoj se vidi Nicolás Maduro odjeven u sivu trenerku, s povezom preko očiju i lisicama na rukama na američkom ratnom brodu USS Iwo Jima – lažne slike su već obišle svijet. Posebno su se proširile fotografije na kojima Madura navodno sprovode agenti američke Agencije za suzbijanje narkotika (DEA), iako se kasnije pokazalo da su u potpunosti generisane vještačkom inteligencijom.
Prema podacima fact-checking organizacije NewsGuard, ove AI-generisane fotografije i videozapisi pregledani su i podijeljeni milionima puta širom društvenih mreža. Brzina njihovog širenja bila je takva da su lažni narativi u mnogim slučajevima pretekli zvanične informacije.
Političari i influenseri šire dezinformacije
Dezinformacije nisu širili samo anonimni korisnici. Vince Lago, gradonačelnik Coral Gablesa na Floridi, objavio je jednu od lažnih fotografija Madura na Instagramu, uz tvrdnju da je venezuelanski predsjednik „vođa narko-terorističke organizacije koja prijeti našoj zemlji“. Objavu je lajkalo više od 1.500 korisnika, a post je, prema dostupnim informacijama, i dalje vidljiv.
Ovakvi slučajevi dodatno ilustriraju koliko su čak i javne ličnosti podložne širenju neprovjerenog sadržaja, posebno u trenucima geopolitičke krize i snažnih emocija.
Zašto je AI dezinformacije teško razotkriti
Iako postoje alati za provjeru autentičnosti sadržaja – poput obrnutih pretraga slika ili specijalizovanih AI-detekcijskih platformi – njihova pouzdanost je ograničena. Sofia Rubinson, viša urednica NewsGuarda koja se bavi dezinformacijama i teorijama zavjere, upozorava da je problem u tome što su mnoge lažne slike veoma slične stvarnim događajima.
„Mnogi AI-generisani ili iz konteksta izvučeni vizuelni materijali koji trenutno preplavljuju društvene mreže ne iskrivljuju drastično stvarno stanje na terenu“, izjavila je Rubinson. „Ipak, njihova svrha je da popune praznine u realnom vremenu izvještavanja, što predstavlja novu taktiku u ratovima dezinformacija – i onu koju je teže razotkriti jer vizuelni sadržaji često veoma uvjerljivo oponašaju stvarnost.“
NewsGuard: Milioni pregleda obmanjujućeg sadržaja
U izvještaju objavljenom u ponedjeljak poslijepodne, NewsGuard je identifikovao pet lažnih ili iz konteksta izvučenih fotografija, kao i dva videozapisa koji se dovode u vezu s američkom vojnom operacijom u Venezueli. Jedna od fotografija prikazuje vojnika kako pozira pored Madura s crnom kapuljačom preko glave – scena koja nikada nije zabilježena u stvarnosti.
Jedan od videozapisa prikazuje helikopter američkih specijalnih snaga kako se spušta na navodnu venezuelansku vojnu lokaciju, ali je kasnije utvrđeno da je snimak nastao još u junu, u vojnoj bazi Fort Bragg u Sjevernoj Karolini.
Prema NewsGuardu, ovih sedam obmanjujućih fotografija i videozapisa ostvarilo je više od 14 miliona pregleda samo na platformi X.
Stari snimci predstavljeni kao novi događaji
Pored AI-generisanog sadržaja, masovno se dijele i snimci iz ranijih događaja, koji se pogrešno predstavljaju kao dio aktuelnih zbivanja u Venezueli. Krajnje desna influenserica i Trumpova bliska saradnica Laura Loomer objavila je video snimak plakata Nicolása Madura, uz tvrdnju da „narod Venezuele masovno kida njegove postere“. Prema pisanju magazina Wired, snimak potiče iz 2024. godine, a Loomer je kasnije uklonila objavu.
Sličan primjer dolazi od Alexa Jonesa, poznatog desničarskog influensera i teoretičara zavjere, koji je na X-u objavio snimak iz zraka na kojem se vidi velika masa ljudi u Caracasu. Jones je tvrdio da „milioni Venezuelanaca slave pad komunističkog diktatora Madura“, pozivajući pritom i na sličnu „energiju“ u SAD-u.
Snimak je pregledan više od 2,2 miliona puta i još uvijek je dostupan. Međutim, korisnici Community Notesa, alata za kolektivnu moderaciju na platformi X, upozorili su da je video star najmanje 18 mjeseci. Obrnuta pretraga snimka pokazala je da se radi o protestima u Caracasu nakon spornih predsjedničkih izbora u julu 2024. godine.
Čak i AI osporava lažne narative
Zanimljivo je da je čak i Grok, AI chatbot integrisan u platformu X, osporio Jonesovu tvrdnju. Prema Groku, „trenutni izvori ne pokazuju nikakva slavlja u Caracasu danas, već prije okupljanja koja podržavaju Madura“.
Uprkos ozbiljnosti situacije i masovnom širenju dezinformacija, kompanije Meta, X i TikTok nisu odgovorile na upite novinara za komentar.
Ovaj slučaj još jednom pokazuje kako vještačka inteligencija postaje moćno oružje u savremenim informacijskim ratovima. U trenucima krize, kada su informacije oskudne, a interes javnosti ogroman, AI-generisani sadržaj može u rekordnom roku oblikovati percepciju stvarnosti – često prije nego što činjenice uopće izađu na vidjelo.
federalna.ba/The Guardian