Datum zveřejnění: 
27. 5. 2025
Žijeme v době, kdy můžete vidět a slyšet i to, co byste si možná sami ani nedovedli představit. Třeba video, které ukazuje velmi věrně pravěké ještěry v současné zoologické zahradě. V úterý v Praze proběhl jedinečný workshop, který se zaměřil na aktuální výzvy a inovace v oblasti deepfake technologií. Pořádala jej Středoevropská observatoř digitálních médií (CEDMO). Podrobnosti Radiožurnálu sdělil Jan Čech z ČVUT.

Je vůbec ještě v našich možnostech rozlišit, že se nejedná o skutečnost, ale o sice přesvědčivá, jenže nepravdivá nebo zavádějící videa?Možnosti máme velmi omezené. Určitě je extrémně těžké to poznat pouhým okem. U nejkvalitnějších videí je to obtížné nebo dokonce nemožné poznat i pro odborníka, protože ta videa jsou tak dokonalá, že to člověk nepozná. Další možností je použít detektor – jiný AI model, který je naučen taková videa rozpoznávat. Tam šanci máme, i když ne úplně skvělou, protože ty detektory nefungují úplně dobře. Proč?Oni se naučí detekovat velmi přesně videa vyrobená určitou specifickou technikou, nějakým generátorem. Pokud máte přístup k tomu modelu nebo obrázkům, naučíte se ten model, rozpoznáte a detekujete takové video. Ale pokud se něco změní, změní se technika, změní se generátor… Už to nezobecní a přesnost detekce je velmi malá. Jak je to s klonováním hlasů, které představuje asi specifickou výzvu pro faktcheckery. No, já se teda přiznám, že nejsem úplně odborník na zpracování audia, já se spíš zabývám počítačovým viděním, ale můžu říci, že nástroje pro klonování, co jsem tak pozoroval z dálky, se zlepšují velmi přesně. Nezachytí to jen základní tón hlasu, ale naučí se i napodobovat ty klasické řečové pauzy, styl a dikci řeči. Takže je to velmi těžké. Zadali jsme AI, aby vymyslela otázku, a kromě jiného se ptá: Může mít deepfake i přínos například ve filmu, vzdělávání nebo péči o památky?Myslím, že to slovo deepfake má určitě negativní konotaci. Když se řekne deepfake, tak je to něco špatného, něco manipulativníhoa má to jednoznačně negativní význam. Samotné modely to ale určitě takto nemají. Obecně generativní modely nebo modely, které dokážou syntetizovat fotorealistický obsah – to je něco úžasného. Pomáhá to, podporuje to kreativitu a má to spoustu aplikací, které, které slouží. Určitě není možné na to nahlížet jenom jako na něco špatného.

Otázka pro zákonodárce Jak byste nahradil slovo deepfake, aby to bylo přesnější označení?

Slovo deepfake je správné, když mluvím o něčem manipulativním. Pro generovaný obsah je ale potřeba používat něco jiného. Jsou to syntetická data, generovaná data, generovaný obsah a podobně. Nakonec se pro to určitě nějaké jednoduché slovo najde. Dá se u nás těmto manipulacím účinně bránit? Jak je to legislativně?Na legislativu nejsem už vůbec odborník. Na projektu máme právníky. Je to taky otázka pro zákonodárce, co s tím dělat. Například asi není úplně dobré, aby se falešný obsah deepfakes mohl volně šířit beztrestně, což teď nevím, jak je. Je ale možné, že je to zkrátka obtížně postižitelné. Kam se podle vás budou tyto technologie dál využívání ke klonování skutečnosti, zkrátka manipulaci s ní, ubírat? Jak se budou zdokonalovat?Zdokonalují se extrémně rychlým způsobem. Myslím, že takto rychlý vývoj, který pozorujeme nyní, jsme si nedokázali před pár ani představit lety. V úplně poslední době jsme svědky, že počítače dokáží generovat videa událostí, které se nikdy nestaly. Lidí, kteří nikdy neexistovali, kteří nikdy nic takového nemohli říci… Je to fenomenální. Technická kvalita se tak zlepšuje, že poznat to očima je skoro nemožné a bude to v tomto směru čím dál obtížnější.

 

Zdroj: 
irozhlas.cz, Český rozhlas - Radiožurnál