A ChatGPT 2022 őszi megjelenését követően óriási lendületet vettek a generatív mesterséges intelligenciás szolgáltatások, ez pedig az úgynevezett deepfake-ek, vagyis a gépi tanulás és az AI segítségével létrehozott hamis videók és képek inváziójának is lökést adott, így a műfaj most nagyobb veszélyt jelent, mint valaha, legyen szó a közismert személyek arcával felturbózott adathalászatról, az álhírterjesztésről vagy a világsztárokat ábrázoló kamupornóról.
Habár a deepfake-jelenség leginkább a különböző hírességeket érintő visszaélésekkel kerül be a hírekbe, a csalók valójában már a hétköznapi emberek arcát és hangját is előszeretettel lopják el, így gyakorlatilag bárki áldozattá válhat, aki töltött már fel magáról valamilyen tartalmat az internetre, a problémát pedig tovább súlyosbítja, hogy az érintetteknek nem sok eszközük van a védekezésre és a kárenyhítésre. A hasonló visszaélések elterjedtségét mutatja, hogy a The Washington Post feltáró riportja nemrég három hétköznapi áldozatról is beszámolt, akik a tudtuk nélkül csöppentek ebbe a rémálomba.
A cikk egyik szereplője a 27 éves Michael Janse, aki keresztény közösségi médiás influenszerként keresi a kenyerét, többnyire utazásról, lakberendezésről és esküvőszervezésről posztolva, egy nyaralás alkalmával viszont arra lett figyelmes, hogy elárasztották a postaládáját a követői figyelmeztetései, melyek szerint valakik egy potencianövelő szer reklámhoz használták fel a képmását és a hangját. A YouTube-on hirdetett bejátszásban Janse látható egy általa feltöltött videóban, amit a szájmozgás és a hangsáv mesterséges intelligenciás manipulálásával úgy módosítottak, hogy az eredeti téma helyett egy nem létező szexuális partneréről beszélt, akinek a merevedési problémáin csak a reklámozott csodaszer segített.
A másik áldozat az ukrán születésű Olgia Loiek, aki a maga 16 ezer youtube-os feliratkozójával aligha nevezhető világsztárnak, ám mégis a csalók horgára akadt. Ismeretlen elkövetők több mint 5000 hamisított videót terjesztettek róla a kínai közösségi médiában, amelyeken mandarin nyelven beszélt, pedig igazából meg sem szólal ezen. Ami különösen sértette, hogy akadt olyan anyag, amiben a Kreml elé helyezték, és arról áradozott, hogy "Oroszország a világ legjobb országa", miközben a Vlagyimir Putyin vezette állam évek óta háborút vezet a hazája, Ukrajna ellen.
A riport harmadik példája pedig még csak nem is közösségi médiás influenszer, csupán egy átlagos humánerőforrás-menedzser Észak-Karolinából. A 46 éves Carrie Williams figyelmét tavaly egy régi ismerőse hívta fel arra, hogy ellopták a képmását egy youtube-os potencianövelő reklámhoz. Az áldozat szájmozgását itt is módosították, a hangját viszont egyszerűen egy profi pornószínész, Lana Smalls hangjára cserélték, aki azt fejtegeti, hogy mélyen belül minden nő a nagy méretre bukik. Mint utólag kiderült, a csalók egy mindössze 1500 kedveléssel rendelkező 2020-as TikTok-videót loptak el, amelyben Williams a fiának üzent, amikor súlyos vese- és májproblémákkal küzdött.
"Soha, de soha nem gondoltam volna, hogy bárki is ilyet fog csinálni rólam. Én csak egy észak-karolinai anyuka vagyok, aki éli az életét."
- nyilatkozta a nő az újságban, jól érzékeltetve, hogy manapság bárki deepfake-hamisítás célpontjává válhat. Ennek oka, hogy az elkövetők számára sokkal egyszerűbb ellopni egy hétköznapi személy képmását és hangját, mint fizetni egy profi reklámszínésznek, hiszen az ehhez szükséges tartalmakat a potenciális áldozatok ingyen és bérmentve teszik elérhetővé a világhálón, és gyakorlatilag korlátlan mennyiségben elérhetők. A technológia fejlődésével pedig már profinak sem kell lenni a hasonló kamu anyagok előállításához, a tolvajok ugyanis olyan, könnyen használható AI-eszközöket vetnek be, mint a HeyGen videógenerátor és az ElevenLabs hanggenerátor. Ezek fejlesztőit a The Washington Post fel is kereste az ügyben, ám egyik cég sem kommentálta a cikket.
Az esetek felderítését pedig nehezíti, hogy az áldozatoknak sokszor a deepfake-kampányokról értesülve sem egyszerű ténylegesen rábukkanniuk a véletlenszerűen felugró hirdetésekre. Williams például az ismerőse figyelmeztetését követően sokáig hiába kereste az arcát ellopó anyagot, míg végül a The Washington Post bukkant rá egy Reddit bejegyzésben, ami az AI-hamisítványok témájával foglalkozott. Az elkövetők felelősségre vonásához pedig egyelőre sok helyen hiányoznak a megfelelő jogi szabályozások is, bár az Európai Unióban a májusban elfogadott a mesterséges intelligenciáról szóló törvény (AI Act) már ezt a területet is érinti.
A regulák megléte viszont még nem garantálja, hogy sikerül is kézre keríteni a csalókat, hiszen ehhez aprólékos nyomozás szükséges, amihez nem mindig állnak rendelkezésre az erőforrások, ráadásul az elkövetők ügyesen elrejthetik a nyomaikat, a nemzetközi kibertérben mozogva pedig jogi kiskapukra is hagyatkozhatnak. Az áldozatoknak így leginkább az marad, hogy a reklámok terjesztésére használt platformnál próbálják elérni a hamisított anyagok törlését, ez viszont sokszor körülményes és nem is mindig eredményes folyamat, hiszen egy új profilról bármikor felbukkanhatnak további jogsértő kampányok.
A The Washington Postnak nyilatkozva a YouTube szóvivője mindenesetre azt mondta, hogy a videómegosztó jelentős összegeket áldoz a deepfake hirdetési csalások érzékelésének fejlesztésére és az elkövetők blokkolására, a szolgáltató pedig emellett azon is dolgozik, hogy megkönnyítse a hasonló visszaélések jelentését, gyorsabbá téve ezzel a problémás reklámok törlését is. Az utóbbi érdekében a YouTube tavaly ősszel az irányelveit is módosította, így a szolgáltatásnak megvannak a jogi feltételei a gyors beavatkozásra.
Mindezen túl felhasználói oldalról az lehet a leghatékonyabb megoldás, ha egyáltalán nem töltünk fel magunkról semmilyen képi, videós vagy hanganyagot az internetre, a közösségi médiával átszőtt modern társadalomban viszont ez sokak számára teljesíthetetlen feltétel.