Slike seksualnog zlostavljanja djece stvorene umjetnom inteligencijom 'prijete da preplave internet'
"Najgore noćne more" slika seksualnog zlostavljanja djece stvorene umjetnom inteligencijom se ostvaruju i prijete da preplave internet, upozoreno je. Fondacija Internet Watch (IWF) saopštila je da je pronašla skoro 3.000 slika zlostavljanja napravljenih od vještačke inteligencije koje su prekršile zakon Ujedinjenog Kraljevstva.
Organizacija sa sjedištem u Velikoj Britaniji tvrdi da se postojeće slike žrtava zlostavljanja u stvarnom životu ugrađuju u AI modele, koji zatim proizvode nove njihove prikaze.
Dodaje se da se tehnologija koristi i za kreiranje slika poznatih ličnosti koje su "ostarile", a zatim prikazane kao djeca u scenarijima seksualnog zlostavljanja. Drugi primjeri materijala za seksualno zlostavljanje djece (CSAM) uključivali su korištenje AI alata za „nudificiranje“ slika odjevene djece pronađene na internetu. IWF je ljetos upozorio da se počinju pojavljivati dokazi o zloupotrebi koju je napravila umjetna inteligencija, ali i da je njihov najnoviji izvještaj pokazao ubrzanu upotrebu tehnologije. Susie Hargreaves, izvršna direktorica IWF-a, rekla je da su se "najgore noćne more ovog nadzornog tijela ostvarile".
“Ranije ove godine upozorili smo da bi slike umjetne inteligencije uskoro mogle postati nerazlučive od stvarnih slika djece koja trpe seksualno zlostavljanje i da bismo mogli vidjeti da se ove slike šire u mnogo većem broju. Sada smo prešli tu tačku”, rekla je ona.
„Jezivo, vidimo kako kriminalci namjerno treniraju svoju umjetnu inteligenciju na slikama stvarnih žrtava koje su već pretrpjele zlostavljanje. Djeca koja su bila silovana u prošlosti sada se uključuju u nove scenarije jer neko, negdje, to želi vidjeti.”
IWF navode da su također vidjeli dokaze da se slike generisane umjetnom inteligencijom prodaju na internetu. Njihovi najnoviji nalazi zasnovani su na jednomjesečnoj istrazi o forumu o zlostavljanju djece na dark webu, dijelu interneta kojem se može pristupiti samo pomoću specijalizovanog pretraživača.
Istražilu su 11.108 slika na forumu, od kojih je 2.978 kršilo zakon Ujedinjenog Kraljevstva prikazujući seksualno zlostavljanje djece.
CSAM generiran od strane umjetne inteligencije je nezakonit prema Zakonu o zaštiti djece iz 1978., koji kriminalizira snimanje, distribuciju i posjedovanje „nepristojnih fotografija ili pseudo fotografije“ djeteta. IWF tvrdi da je velika većina ilegalnog materijala koji je pronašao u suprotnosti sa Zakonom o zaštiti djece, s više od jedne od pet slika koje su klasificirane kao kategorija A, najozbiljnija vrsta sadržaja, koja može prikazati silovanje i seksualno mučenje. “Ako se ne uhvatimo u koštac s ovom prijetnjom, ovaj materijal prijeti da preplavi internet”, rekao je Hargreaves.
Dan Sexton, glavni tehnološki direktor u IWF-u, rekao je da je alat za generiranje slike Stable Diffusion – javno dostupan AI model koji se može prilagoditi kako bi pomogao u proizvodnji CSAM-a – jedini AI proizvod o kojem se raspravlja na forumu.
“Vidjeli smo rasprave oko stvaranja sadržaja pomoću Stable Diffusion, koji je otvoreno dostupan softver.”
Stability AI, britanska kompanija koja stoji iza Stable Diffusion-a, pak navodi da “zabranjuje svaku zloupotrebu u nezakonite ili nemoralne svrhe na našim platformama, a naše politike su jasne da to uključuje CSAM”.
federalna.ba/The Guardian