Datum zveřejnění: 
31. 5. 2025
Doba, kdy umělá inteligence generovala deset prstů na jedné ruce, je pryč. Dnes zachycuje věrně mimiku, mrkání, dech, napodobuje hlas, a to už téměř dokonale. Pro rozpoznání deepfakevideí nám proto už nestačí pouhý pohled. Je zapotřebí použít proti technologii jinou technologii, která falešná videa dokáže spolehlivě odhalit. Pracují na ní vědci z Fakulty elektrotechnické Českého vysokého učení technického.

„Díváme se na něco, co vypadá jako klasická scéna v televizních zprávách, ale ve skutečnosti se jedná o čistě syntetický obsah. Tito lidé vlastně nikdy neexistovali a nikdy neřekli to, co říkají,“ komentuje záběry, které vytvořil nejnovější model od firmy Google, Jan Čech z ČVUT. Rozpoznat pouhým okem, že jde o deepfake video, jde podle experta na jejich odhalování, jen velice těžko.

„Video je pro cinematické účely, pro filmmakery, a věřím, že to má v umělecké komunitě značnou hodnotu. Velice rychle ytvoříte film, na který se lidé můžou dívat, a nebude to stát miliony dolarů, Pro podporu kreativity je to cenné, ale je to zneužitelné, to je ten problém,“ zdůrazňuje.

AI vs AI

Vytvořit věrohodné video za použití umělé inteligence přitom s trochou znalostí a zkušeností zvládne i laik. Paradoxně platí, že čím jednodušší je falešné video vytvořit, tím těžší je ho odhalit. Vzniká tak pomyslný závod mezi tvůrci deepfaků a jejich detekcí – podobně jako mezi viry a antiviry.

„Je to těžší a těžší a za chvíli už bude zcela nemožné to poznat. Budu potřebovat nějaký nástroj, ale ten mi dává spolehlivost zase jen na generátor, které zná, a u těch, které nezná, to poznat nedokáže,“ konstatuje Jan Čech a dodává, že to znamená jediné – ani ty nejlepší detektory zatím nefungují stoprocentně spolehlivě. Jsou totiž natrénované hledat v obraze neviditelné stopy. Ale i ony fungují jen tehdy, pokud už mají příklady podobných videí, na kterých se mohly takzvaně učit.

„Máme několik přístupů. Jeden je naučit model, detektor, na sadě generovaných obrázků, rozpoznat, který je který. To funguje dobře. Pokud ale nemám v sadě generátor, který chci detekovat, tak nemám šanci,“ vysvětluje. „Další věc je, že neučím model od nuly, ale používám foundation model – velký model, který viděl v zásadě celý internet a poskytuje reprezentaci, která je vhodná k detekci.“

Ohrožená generace?

Vědci tedy ve zkratce proti umělé inteligenci využívají taky umělou inteligenci a snaží se s nejnovější technologií udržet krok. Deepfaky zkoumají taky na Univerzitě Karlově. Ve výzkumu, kterého se zúčastnilo asi 3 tisíce respondentů, zjistili, že Češi jsou v odhalování falešných videí poměrně úspěšní.

„Pouze 15 % jich selhává s tím, že tohle měření máme naměřené víckrát a to číslo zůstává konstantní,“ říká datový analytik Lukáš Kutil, podle kterého jsou v odhalování deepfake nejúspěšnější Češi ve středním věku. „Hůře identifikují deepfake paradoxně ti nejmladší pod 24 let – ti nejmladší z generace Z a nejstarší z generace alfa. Nevíme, proč to je, ale pracujeme s tím, že tito lidé mají mnohem méně kontextu pro sledování videí než starší generace, z nichž mnozí vyrostli ještě v analogové době.“
 
„Hůře identifikují deepfake paradoxně ti nejmladší pod 24 let – ti nejmladší z generace Z a nejstarší z generace alfa. Nevíme, proč to je, ale pracujeme s tím, že tito lidé mají mnohem méně kontextu pro sledování videí než starší generace, z nichž mnozí vyrostli ještě v analogové době.“ Rozpoznávání deepfaků tedy bude podle expertů čím dál složitější. O to důležitější je zůstávat obezřetní a ověřovat informace z více zdrojů. Co brání astronautům v tom, aby dokázali získávat v kosmu kyslík produkovaný zelenými řasami? Jaké experimenty chystají čeští vědci pro misi na ISS? V čem pomáhají včelařům moderní technologie? A jak může věda usnadnit odvykání kouření? Poslechněte si celý Magazín Experiment.
 
Zdroj: 
Český rozhlas - Radiožurnál