A Kaliforniai Egyetem tudósai arra figyelmeztetnek: még a legjobb, a deepfake videók kiszűrésére fejlesztett mesterséges intelligenciát is át lehet verni egy újfajta trükkel.
Az álhírek elleni küzdelem egyik legfontosabb része, hogy képesek legyünk felismerni, ha deepfake technológiával készült videó kerül elénk. Ezek azok a tartalmak, amiknél első ránézésre úgy tűnik, mintha egy valós személyt látnánk beszélni, de valójában egy algoritmus segítségével profi módon összepakolt anyagot láthatunk.
Hogy mindez mennyire veszélyes, azt talán nem kell magyaráznunk: ha egy világhatalom, például az Egyesült Államok elnökének szájába olyasmit adnak, amit soha nem mondott el, az bel- és külpolitikai szempontból is igen súlyos következményekkel járhat. Éppen ezért az elmúlt években az egyetemektől a techcégekig számos kutató dolgozott azon, hogy olyan szoftvert fejlesszenek ki, amely képes felismerni a deepfake videókat. Ezen a téren a Microsoft megoldása egészen jónak tűnik, ám a tudósok most arra figyelmeztettek, az ilyen típusú szoftverek sem tévedhetetlenek.
Egyszer csak megjelent a kanapén Mark Zuckerberg, és lopott adatokról kezdett halandzsázni
Egy újabb deepfake-technológiával készült videó terjed a közösségi oldalakon, amely újfent arra figyelmeztet, hogy nem szabad mindent elhinni, amit a neten látunk/hallunk.
A Kaliforniai Egyetem kutatói szerint ezeket a felismerő programokat át lehet ejteni, így olyan videók is átmehetnek a szűrőiken, amelyeknek nem volna szabad. Az eljárás lényege röviden az, hogy a videó minden egyes képkockájához olyan plusz tartalmat adnak hozzá, ami az ellenőrzésre készített mesterséges intelligenciától kikényszeríti a hibát.
A legtöbb ellenőrző szoftver az arcról készít felvételt, amit tovább küld a mesterséges intelligenciának. Az olyan elemeket keres a felvételen, amelyeket a deepfake technológia nem képes tökéletesen reprodukálni – például a pislogást.
Csakhogy azzal, hogy hogy a kutatók minden egyes képkockához egy azzal ellentétes képkockát illesztettek a videóba, a mesterséges intelligencia vak marad a csalásra. A szakemberek szerint ezzel a trükkel még a legkorszerűbb algoritmusokat is át lehet ejteni. Az alábbi videó Barack Obamáról deepfake technológiával készült, ám a rendszer folyamatosan valódiként értékeli.
A kutatók azt javasolják, az ilyen módszerek felismerésére is képezzék ki a szoftvereket.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.