Datum zveřejnění: 
12. 9. 2024
Bezpečnostní informační služba zveřejnila zprávu za rok 2023. Upozorňuje v ní na hrozby ze strany Ruska a Číny, na kyberútoky proti Česku a hodnotí také současné hrozby různých typů obsahu generovaného umělou inteligencí. Z produktů AI představují podle BIS aktuálně největší nebezpečí texty, které téměř není možné rozeznat od výsledků lidské práce. Druhým nejvíc rizikovým je uměle vytvořený hlas. Rok 2023 byl podle BIS pro umělou inteligenci přelomový. Technologický pokrok umožnil rozšíření tzv. deepfakes do běžného informačního prostoru. A ve vysílání je teď prof. Jiří Matas z Katedry kybernetiky Fakulty elektrotechnické ČVUT v Praze, dobrý den.

Věra Štechrová, moderátorka

Co bylo tím přelomem, tou technologií, která způsobila, že se deepfakes mohou rozšiřovat i do běžného informačního prostoru?

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT

Tak to se liší, jestli se bavíme o textech nebo o obrázcích nebo o videích. Já se specializuju na obrazy a videa. V podstatě vznikla metoda, které se říká stabilní difuze, a metody, různé transformátory a podobné věci, které umožnily generovat hlasem řízený obraz. Takže vy popíšete slovně, co chcete, aby bylo vygenerováno. A vznikly jakési metody, které reprezentují text způsobem, který umožňuje najít obraz, který nějakým způsobem sémanticky odpovídá tomu, co jste řekli, a vygeneruje něco, co jistým způsobem tomu textu odpovídá. To řízení toho přesně, jak to vypadá, není příliš dobré. Takže vy nemůžete přesně vědět, co z toho vypadne. Ale děsivé je to, že ty obrazy vypadají jako živé, jako kdyby se to blížilo v některých věcech fotografii. Takže ono to možná vypadá trošku jinak, než jste se zamýšleli, ale vypadá to živě. A to šíření je už potom jednoduchá věc. Šíříte to jako kterékoliv jiné obrázky nebo videa.

Věra Štechrová, moderátorka

A jaké jsou tedy teď cesty k tomu, abychom mohli rozlišit něco, co bylo vytvořené AI? Lze to zase jenom pomocí AI?

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT

Zatím asi ne. Jsou takové ty známé problémy typu vlasy nevypadají dobře, odlesk na nich není dobře, špatný počet prstů... Ale postupem času si myslím, že je skoro jisté, že umělá inteligence dospěje stavu, kdy to rozlišitelné nebude.

Věra Štechrová, moderátorka

To je skoro jisté..

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT

Já si myslím, že to bohužel skoro jisté je. Protože ty metody se učí tak, že na jedné straně máte detektor odlišností normální fotky od takto vygenerovaného obsahu. stroj se učí rozpoznávat. A když zjistí, že rozpozná, tak ten stroj, který generuje, říká aha, tak já využiju tento rozpoznávač, abych se opravil a snažím se snížit schopnost toho rozpoznávače odlišovat. Takže vlastně to je něco jako boj. Vy přijdete s lepším způsobem detekce odchylky, ale proti tomu ta druhá strana, ten detektor, má k dispozici také a říká, aha, já musím tohle změnit, aby už to nepoznal. A tahle eskalace povede k tomu, že to bude extrémně těžké.

Věra Štechrová, moderátorka 

Pokud se zabýváte tím, že učíte umělou inteligenci, aby dokázala rozpoznat, že něco vytvořila jiná umělá inteligence, tak čím se ona bude řídit? Na základě čeho to pozná?

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT

Ten problém má mnoho úrovní a na té úplně nejobecnější se ukáže, že to možná nepůjde a bude potřeba mít jiné prostředky ve stylu, že bude nezákonné vytvořit umělou inteligencí obrázek, který v sobě nemá nějakou značku, nějaký vodotisk. V současné době se ještě pořád dá poznat, pokud je obrázek vygenerovaný jedním generátorem. Ty generátory se dají dneska vytvářet, ale když máte jeden generátor, tak má některé artefakty, které to umožní poznat.

Věra Štechrová, moderátorka

Takový podpis..

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT 

No, to není podpis. Podpis je něco, co chcete, aby bylo vidět. Ono to má nějakou zvláštnost signálu, nějakou charakteristiku, která na první pohled není vidět, ale dá se najít. A dá se předpokládat, že většina lidí, kteří budou používat tyto nástroje, vezmou ten nejobvyklejší a něco udělají. A na to, aby se tím vystrašila učitelka ve škole, to možná bude stačit, ale na někoho, kdo bude mít k tomu nástroje, to pozná. Ovšem když budete mít proti sobě stranu, která má velké prostředky a řekněme stovky výzkumníků, tak ti už to udělají tak, že vám to ztíží a myslím, že to poznat nepůjde. To znamená, že to bude tak, že ty běžné věci půjdou poznat, špičkové věci nepůjdou. Budeme vyžadovat možná vodotisk, anebo bude platit  - nemůžu věřit svým očím a to, co mi ta věc bude sdělovat, budu chtít ověřit jiným způsobem. Takže když mi to tam třeba bude ukazovat, že známý politik dělá nějakou věc, která se vám zdá, že je úplně mimo to, co byste od něj čekala v rámci třeba ovlivnění boje v předvolební kampani, tak si říkáte, to se mi nezdá, zkusme to ověřit, jestli o tom někdo něco nenapsal nebo co se o tom ví. Dřív platilo, když to vidím na obrázku, tak to platí. To už přestává platit a musím ověřovat z mnoha zdrojů.

Věra Štechrová, moderátorka

Jestli vám dobře rozumím.. Takže nástroje, jak by bylo možné rozpoznat velmi dobře udělaný obrázek umělou inteligencí prostě zatím nejsou?

Jiří Matas, vedoucí výzkumu autonomního řízení na ČVUT

Možná, že zatím jsou, ale je to neustálý souboj zlepšujících se generátorů a zlepšujících se detektorů. Máte to podobné jako rakety a protiraketová obrana. Vidíte, že jednu dobu to vypadalo že když máte rakety, tak prostě už je nikdo nezastaví. Objeví se protiraketová obrana, začne fungovat, nasadí se třikrát rychlejší rakety, rakety, co manévrují a takhle eskalace probíhá. Je to podobné.

Věra Štechrová, moderátorka

Říká Jiří Matas z Katedry kybernetiky Fakulty elektrotechnické ČVUT. Děkuju vám, na slyšenou. 

Zdroj: 
ČRo Radiožurnál