Aki egy kicsit is érdeklődik a mesterséges intelligencia (MI) területe iránt, az bizonyára találkozott már a deepfake videók jelenségével. Hogy miről van szó, annak megértéséhez hosszas, féltudományos, félhiteles, és pontatlan magyarázatok helyett elegendő, ha megnézzük az alábbi videót, melyben Obama elnök “dipshit”-nek, magyarul talán gyökérnek nevezi utódját:
Bizony, ez a technológia alkalmas arra, hogy egy adott személyről készült korábbi videófelvételeket felhasználva elérjük, hogy kísérteties összhatással, minden valószínűség szerint hamarosan pedig összetéveszthetetlen hitelességgel olyasmit mondjon, amit sohasem mondott.
[banner id=”33219″ caption_position=”bottom” theme=”default_style” height=”auto” width=”auto” show_caption=”1″ show_cta_button=”1″ use_image_tag=”1″]
Sőt, ez a technológia már most is alkalmas arra, hogy szinte bárkit megtévesztve “kimondasson” valakivel valamit, amit sosem mondott.
A háttérben adott a machine learning, a szoftver “önmagát tanítva”, képes arra, hogy az újabb, és újabb nekifutások során egyre tökéletesebb, hitelesebb eredményt adjon. A “forrás”, vagyis az adott szavakat, mondatokat ténylegesen kimondó személy lehet szinte bárki, bár az eredményesség érdekében valószínűleg egy hasonló bőrszínű, és hasonló ajkakkal rendelkező személyt érdemes használni, ahogy a fenti, Obamát bemutató videó forrása is egy afroamerikai volt.
De nem a hamis interjúk, nyilatkozatok jelentik a deepfake egyetlen felhasználási területét, bizony vannak pornóvideók, melyekben Angelina Jolie szerepel, legalábbis az ő arcát látjuk a színésznő arca helyén.
Az eredmény szinte tökéletes. Vannak persze olyan pillanatok, amikor a híres színésznő arcának elhelyezése a felvételbe nem sikerül túl jól, ilyenkor pornóból hirtelen átmegyünk horrorba, Jolie arca ugyanis félrecsúszik, a nyak, és a váll már elmozdult, az arc viszont néhány centiméteres “késéssel” képes csak követni, a nyak bőre ilyenkor tésztaként nyúlik a semmibe.
Visszatérve a deepfake segítségével hamisított interjúkra, nem nehéz kitalálni, hogy a manapság szintén sokat emlegetett fake news számára aranytojást tojó tyúkról van szó, vagy ahogy sokan fogalmaznak:
fake news szteroiddal.
Gondoljunk csak bele, egy politikussal kimondathatunk szinte bármit, egy gyanúsított, vagy akár egy tanú “bevallhat” olyasmit, amit sosem követett el, sosem látott. Extrém esetben akár Putyin elnök is beszélhet arról, hogy holnap reggel támadást indít az USA ellen, ha sikerül megtéveszteni az amerikaiakat, akkor a megelőző csapással, majd az arra érkező válaszlépéssel beláthatatlan helyzetbe kerülhet a világ.
Szakértők szerint a videók egyre jobbak, és jobbak lesznek, azonban jelenleg a hang megoldása nem olyan egyszerű, a hang “hamisítása” kapcsán sokszor hangutánzót használnak, bár ezen a téren is óriási előrelépések történnek. De még ne lássunk rémeket, nézzük meg az alábbi videót, melyben további példákat, és néhány megszólaló (valóban megszólaló) szakértőt is láthatunk:
Fontos pontra világít rá az egyik interjúalany, miszerint például egy-egy választás esetén akár egészen kis különbséggel is nyerhet, vagy akár veszíthet egy jelölt, nincs is olyan nagy jelentősége, hogy egy deepfake videóról milyen hamar derül ki, hogy hamis, könnyen lehet, hogy addigra már a választás eldőlt. A technológia ráadásul már valós időben is működik, ahogy az a PBS riportjából is kiderül:
Mindez ráadásul rendkívül olcsó, és könnyen hozzáférhető, nem kell otthonosan mozognunk a Github-on, nem kell tudnunk programozni, elég ha pár tízezer forintot adunk egy hozzáértőnek, meghatározzuk, hogy kit, és milyen helyzetben szeretnénk látni, az eredmény akár néhány óra alatt elkészülhet. Egy híresség, egy politikus esetében természetesen sokan, sokféleképp meg fogják kérdőjelezni egy videó hitelességét.
Ezzel szemben egy hétköznapi ember bármikor ki van téve a deepfake technológia okozta károk veszélyeinek, könnyen tönkretehet házasságokat, munkahelyi, üzleti kapcsolatokat egyaránt.
Segítségre siet a blokklánc
Ha minden fotó, videó ellátható lenne egy hash-el, vagyis digitális ujjlenyomattal, akkor a blokklánc segítségével máris nagyobb biztonságban érezhetnénk magunkat mindannyian. Ha vízjelet kaphatna minden videó, és felkerülhetne egy elosztott főkönyvre, az hathatós fegyver lehetne a deepfake technológiával szemben.
Persze az előző mondatokban kissé túl sok a “ha”, és a feltételes mód, nehezen elképzelhető, hogy minden egyes kép, és videó, ami felkerül az internetre egyúttal egy blokkláncra is felkerüljön. A deepfake elleni kűzdelemhez bizonyára szükség lesz a közösségi média platformok segítségére is, jelenleg azonban úgy tűnik, hogy a blokklánc lehet az egyetlen, hathatós megoldás. Nézzük meg “Mark Zuckerberget”, ahogy a Facebook újdonságairól beszél:
Mint mindennek, a deepfake-nek is vannak, legalábbis lehetnek értékei, például a szórakoztatóiparban, filmgyártásban, talán az egészségügyben is.
Ha szeretnénk kicsit mélyebben megérteni a deepfake videók belső logikáját, a ColdFusion remek összefoglalót kínál:
Mondd el egy kommentben, hogy miként látod a blokklánc, és a deepfake kapcsolódási pontjait, ha esetleg mesterséges intelligenciával foglalkozol, oszd meg mindannyiunkkal, hogy szerinted merre halad a technológia!