'Deepfake'
Pojavila se pornografska AI aplikacija koja lice s fotografije može 'ubaciti' u pornografsku snimku
Tehnologija | Autor: ŠibenikIN | 15.09.2021 u 17:34
O tehnologiji deepfake pisali smo već više puta, a njezinu primjenu neki su čak nazvali digitalnim silovanjem. Jasno je i zašto. Naime, korištenjem tehnologije i umjetne inteligencije, moguće je lica s fotografija i videozapisa vrlo realistično montirati u postojeće pornografske videozapise. Rezultat korištenja takve tehnologije jest da se na tijela pornoglumica postave lica drugih žena, a takva zamjena lica često izgleda prilično realno i teško je zaključiti da je riječ o montaži, a ne stvarnoj snimci.
Zbog takvih videa brojne su žene (jer su one najčešće žrtve deepfakea) imale probleme - od izrugivanja pa do otkaza. Problem je što mnogi nisu niti svjesni da takva tehnologija postoji, pa odmah zaključe kako je to stvarna snimka. Dok se dokaže da je riječ o montažama, šteta za te osobe već je napravljena i naknadno ju je teško popraviti.
Iako su brojni takvi alati koji omogućuju deepfake videozapise uklonjeni s mreže, konstantno se pojavljuju novi, a ono što je naročito alarmantno jest što su ti alati sve jednostavniji za korištenje.
Na stranici MIT Technology Review upozoravaju upravo na takvu jednu novu stranicu i aplikaciju putem koje je deepfake videozapise moguće napraviti nevjerojatno brzo i jednostavno. Sve što je potrebno jest učitati fotografiju osobe koju želite postaviti u pornografski videozapis, nakon čega će se pojaviti izbor pornića u koje se može postaviti to lice, kao i pretpregled videozapisa. Nakon toga može se preuzeti cijeli deepfake videozapis, no za to će trebati platiti određenu svotu.
Kako ne bi privukli promet na tu stranicu, iz MIT-a nisu objavili njezino ime/adresu, niti su objavili snimke zaslona. Naglašavaju kako su se ovakve aplikacije svi pribojavali jer je sada potrebna samo jedna fotografija osobe (koju se može preuzeti s njihovih objava s društvenih mreža) kako bi tu osobu “stavili” u pornić. Nakon toga, taj se video može proširiti društvenim mrežama i komunikacijskim platformama i doslovno uništiti živote osoba koje su na njima. Prema podacima kompanije Sensity AI, između 90 i 95 posto osoba u deepfake pornografskim videozapisima nije dalo svoj pristanak na korištenje svojeg lica u tim videozapisima, dok su u oko 90 posto tih videa žene.
Na stranici o kojoj pišu na MIT Technology Reviewu, pored pornografskih videozapisa u kojima se nalaze žene, dostupni su i videozapisi u kojima se nalaze i muškarci i pretežno je riječ o videozapisima s homoseksualnim sadržajem. Iako je rezultat na takvim videima “daleko od savršenog”, mnogima će biti dovoljno dobri da zaključe da se na njima zaista nalaze osobe čije su fotografije postavljene te bi im takvi videozapisi mogli stvoriti velike probleme, piše Zimo.hr.