Používáte nástroj pro blokování reklamy. Pokud nám chcete pomoci, vypněte si blokování reklamy na našem webu. Zde najdete jednoduchý návod. Děkujeme.

Proti deepfake videům pomůže jen umělá inteligence, říká odborník

Zpívající politici, falešné projevy, tváře celebrit na tělech pornohereček. Ta videa najdete na pár kliknutí. Díky umělé inteligenci takové „nahrávky“ vznikají téměř z ničeho za pár hodin. V čem je jejich nebezpečí a jak se proti nim bránit, poví Vojtěch Bruk, jeden z organizátorů projektu Zvol si info.

Vojtěch Bruk. Foto Martina Arltová

Deepfake je manipulace videa za pomoci umělé inteligence. Díky počítačovým programům lze komukoliv vložit do úst jakékoli věty a nasadit herci obličej libovolné osoby. Záběry i hlas jsou při neutrálním výrazu téměř nerozeznatelné od originálu. 

Vojtěch Bruk

Vojtěch Bruk
Foto Martina Arltová

Vystudoval politologii, bezpečnostní a strategická studia na Masarykově univerzitě v Brně. Už během studia založili spolu se skupinou přátel projekt Zvol si info a rozhodli se odhalovat dezinformace, propagandu a mediální lži. Spolupracoval na Nejlepší knize o fake news a Surfařově průvodci po internetu.

V současnosti má za sebou desítky přednášek pro studenty i veřejnost, učí laiky i odborníky, jak bezpečně proplouvat mezi nebezpečími sociálních sítí a virtuálního prostoru a jak se vyhnout dezinformacím. Se spolkem Zvol si info získal cenu Gratia Tibi udělenou Člověkem v tísni a Cenu rektora Masarykovy univerzity.

Nejznámější program pro tvorbu deepfake videí se nazývá DeepFaceLab, jeho jednodušší verze je FakeApp. Pracují na principu neuronového učení. Základ tvoří videonahrávka tváře, na které počítačový program najde několik záchytných bodů. S těmi pak na základě pohybuje a „trénuje“, dokud není schopen dokonale napodobit mimiku konkrétní tváře. Nakonec obličej přenese na tělo osoby na jiném videu. Výsledek může obsahovat jisté barevné nesrovnalosti na okraji falešné tváře, ale většinou bývá velmi věrohodný.

První video podobného druhu, které získalo větší pozornost, bylo zveřejněné na Redditu v roce 2017 a jeho tvůrci přišpendlili tvář hollywoodské hvězdy Gal Gadot na tělo pornoherečky. S podobnou pornografickou tvorbou se brzy roztrhl pytel. Lidé začali ve velkém tvořit parodie filmů, do kterých například dosazovali Nicolase Cage do všech myslitelných rolí. Brzy se objevila i deepfake videa zobrazující politiky. Nejvíce jich vzniklo s tváří Baracka Obamy. Deepfaky se začaly využívat jako nástroj politické manipulace a tvorby nepravdivých zpráv.

V čem je podle vás největší problém s deepfake videi?

Největší problém je za mě zlikvidování důvěry, kterou společnost zatím v obrazový materiál má. Doteď většina společnosti věřila tomu, co vidí večer v televizi, na zpravodajských portálech, a tomu, že video se nedá úplně upravit. Případně se obecně ví o možnostech nějaké drobné manipulace se zvukem, se střihem, většina lidí ale netuší, že existuje až tak veliká možnost hlubší úpravy. Představte si situaci, kdy lidé, kteří se o zprávy, politiku a podobné věci nezajímají, najednou nebudou moct věřit ani večerním zprávám v televizi, protože budou vědět, že můžou být zmanipulované a to, co tam pouští, nemusí být pravdivé.

Je tedy deepfake reálné nebezpečí, nebo jen nástroj různých vtipů?

Ono je to obojí. Začalo to jako nástroj hloupých vtipů, ale stalo se z toho celospolečenské nebezpečí. Můžeme to krásně vidět na příkladu USA. V souvislosti s příštími prezidentskými volbami už vycházejí články, které o deepfake mluví jako o jedné z největších hrozeb, která může ovlivnit výsledek voleb. Rozhodně nejde jenom o nějaký strašák. Problém je v tom, že vtípky a nevinné žerty strašně zlepšují tu technologii a ta je potom daleko schopnější páchat nějaké škody.

Dnes známe nepravdivé články, falešné fotky – a teď máme ještě falešné video. Můžeme v médiích ještě vůbec něčemu věřit?

Rozhodně můžeme, jenom si potřebujeme najít kvalitní médium, o kterém víme, že je respektované, splňuje standardy novinářské práce, novinářskou etiku, a víme, že se snaží články ověřovat. Potom samozřejmě můžeme takovému médiu věřit. Podobné věci jako deepfakes se budou šířit spíš po alternativních a dezinformačních webech, v řetězových mailech a mezi lidmi navzájem, jde o to najít si médium, kterému se dá věřit.

Institut komunikačních studií a žurnalistiky

Logo IKSŽ FSV UKZdroj: IKSŽ FSV UK

Článek je součástí série textů, které ve spolupráci s Finmagem připravili studenti Institutu komunikačních studií a žurnalistiky Fakulty sociálních věd Univerzity Karlovy v rámci kurzu Zpravodajství umělé inteligence. Aktuální dění na institutu a další studentské práce můžete sledovat na Facebooku nebo Instagramu.

Zatím vyšlo

Roboti a žurnalistika
Rozhovor Anny Mikolandové a Barbory Součkové s Václavem Moravcem

... a robot zábavně odpoví
Rozhovor Alžběty Holcové s programátorem chatbotů Janem Pichlem

Čas terminátorů
Umělá inteligence a smrtící zbraně v analýze Lukáše Skládala

A to je například?

My jsme ve Zvol si info striktně neutrální, snažíme se nepropagovat ani nehanit žádné weby nebo státy. Ale samozřejmě se jedná o média, u kterých je známá struktura, vlastník, financování, byznysmodel, můžete dohledat, kdo píše články a jaké má vzdělání. Samozřejmě i tady musíme dávat pozor. Máme spoustu příkladů z poslední doby, kdy si novináři v respektovaných médiích vymýšleli články nebo ta média byla pod vlivem svého vlastníka. Ale přece jen když aspoň víme, kdo ta média vlastní, můžeme se k tomu nějak postavit. Pokud netuším, kdo stojí za tou bílou schránkou na Seychelách, tak nemůžu jejím informacím věřit. A mezi důvěryhodná média za nás určitě patří i veřejnoprávní média, protože se na ně vyvíjí tak obrovský tlak a jsou natolik kontrolovaná, že z podstaty musí být kvalitní. A pokud nejsou, tak to dostanou s prominutím sežrat.

Co můžou například veřejnoprávní média dělat, aby zamezila šíření deepfaků a fake news obecně?

Možností je spousta. Určitě musí ověřovat, co pouští dál. To znamená dávat si pozor, aby sami nenaletěli, a mluvit o tom. Celosvětově, nejen u nás, se veřejnoprávní média, pokud je stát má, opravdu snaží dělat osvětu. Úplný základ je říct lidem „Podívejte se, něco takového může hrozit.“ Potom dopady třeba během prezidentské volby můžou být menší. Většina populace bude odolnější, když bude vědět, že se s informacemi dá manipulovat, než když to přijde jako blesk z čistého nebe.

Největší část práce s ověřováním informací je stále na samotném člověku. Máte nějaké doporučení, jak může člověk falešné video odhalit?

Deepfake videa představují problém, protože když se ve videu upraví třeba jen jedna věta, tak se to bude i s kritickým myšlením strašně těžko odhalovat. Člověk může být obezřetný a může se tomu snažit vyhnout, jak bude chtít, ale není to tak jednoduché. Je to spíš úkol firem, velkých hráčů, jako je Facebook, Google, Youtube a podobně, aby vyvinuly nějaké systémy, které tohle dokážou odhalovat. Najít, označit, smazat nebo nedovolit vůbec nahrát na web, protože v lidských silách to opravdu není. Pokud je video hodně upravené, je vidět, že se ta tvář divně hýbe, rty neodpovídají tomu, co ten člověk říká, je tam špatné světlo a podobně, a odhalit se to dá. Ale opravdu jemná manipulace, které se můžeme dočkat v političtějších a celospolečenštějších věcech, je velký problém. Tam nebudete upravovat celé video, ale třeba jednu větu, a pak budete společnost postupně masírovat.

Mohla by přijít doba, kdy už nebudeme schopni rozpoznat, co je v médiích pravda a co ne?

To si nemyslím. Tvůrci deepfake technologií jsou na určité úrovni, velké společnosti proti nim vyvíjejí protiopatření, jakmile budou ta protiopatření v provozu, tvůrci deepfake zase přijdou s něčím novým. Nesmíme se vzdávat a rozhodně si nemyslím, že se dostaneme do bodu, kdy nepůjde věřit vůbec ničemu. Spousta lidí se snaží proti tomu něco dělat, spousta lidí proti tomu bojuje a jsme sice trošku pozadu, ale snažíme se. Důležitá je osvěta, aby lidé vůbec věděli, že tady ta hrozba je, něco takového existuje a může je to nějakým způsobem potkat.

Dnes už dokáže deepfake vytvořit skoro každý. Lidé si pomocí deepfake můžou dělat různé naschvály, například pomstít se bývalému partnerovi nebo poškodit sousedy…

To je druhá nejvážnější věc, nebo dokonce stejně vážná. V jedné rovině jsou to volby, referenda, politika a v té druhé mezilidské vztahy. Když se budete chtít pomstít expartnerovi, tak s pomocí jeho fotografií vytvoříte falešný pornosnímek a ten pošlete jeho současnému partnerovi nebo zaměstnavateli. Můžete to využít v konkurenčním boji a zlikvidovat kohokoliv. Navíc je tu obrovský potenciál pro vydírání. Doufám, že nedávám nikomu návod, ale dokážu si představit, jak se ta videa stanou součástí vyděračských mailů, jaké dnes chodí, že vás natočili při sledování pornografie nebo že mají vaše heslo, zaplaťte 200 dolarů v bitcoinech. Příště napíšou, že mají váš pornosnímek. A je jedno, že je falešný a že vy to víte. Stejně nechcete, aby se dostal na internet, a radši zaplatíte. Tohle riziko tady opravdu je a zase si to spousta lidí neuvědomuje.

Jaké by mělo být řešení tohoto problému? Vytvoření zákona, na který by se mohli lidé v téhle situaci obrátit?

Obecně teď začínají zákony proti deepfake vznikat, uvedu dva příklady ze světa. První se týká právě voleb a celé společnosti. V Kalifornii se zakázala manipulace s fotografiemi, videi, nebo zveřejňování fake news 60 dnů před volbami, ale vidím obrovský problém vymahatelnosti toho zákona, protože většina deepfake videí nevzniká ve štábech reklamních agentur, co dělají volební kampaně, nebo marketingových agentur, ale v podhoubí internetu. Často nezjistíte, kdo to video vytvořil, a tady vám legislativa ani nijak nepomůže, protože třeba máte štěstí a toho člověka dopadnete, postavíte ho před soud a odsoudíte, nicméně škoda už je dávno napáchána.

Druhá věc se týká právě té osobní stránky. Vím, že právě teď v Číně, což je trošku paradoxní, vznikají zákony proti deepfake videím, kdy jde hlavně o problém s pornografií. Dostal se k nám výzkum z letošního roku, podle kterého je 96 procent veškerých deepfaků pornografie. Spousta legislativy tedy míří proti tomuto problému.

Jak byste reagoval vy sám, kdybyste našel na internetu falešné video se svým obličejem, třeba jak na přednášce říkáte lidem, ať si neověřují informace a věří všemu, co vidí na internetu?

Přiznám se, že nad tím jsem nikdy nepřemýšlel. Pokud by se to opravdu týkalo našeho týmu a nějaké naší přednášky, tak bychom to řešili přímo u nás v té organizaci nějakou krizovou strategií. Za mě je určitě dobré se tomu postavit čelem a netajit to. To video se prostě bude šířit, pokud bude dostatečně zajímavé, a už ho z internetu neschováme, takže to spíš možná i obrátíme proti autorovi. Řekneme: „Podívejte, jsme natolik známí, že o nás dělají deepfake videa, někdo si dal tu práci.“ Pokud by se to týkalo přímo mě osobně a zasahovalo to do mé svobody a mých práv, tak by bylo asi na místě se poradit i s nějakým právníkem a zvažovat trestní cestu, protože i současné zákony na takové situace pamatují.

A určitě bychom to použili s dalším materiálem v přednáškách, abychom mohli ukázat, že to opravdu existuje a je to problém.

Jak se tématu deepfake věnujete ve vašem projektu Zvol si info?

Ve všech našich přednáškách pro studenty i pro veřejnost máme nějakou část věnovanou deepfakům. Pro nás je osvěta úplný základ, protože musíme dát lidem informace o tom, že něco takového existuje a je a bude to hrozba. Neděláme žádné výzkumy, věnujeme se tomu hlavně z přednáškového a osvětového hlediska. Pořád sbíráme materiály, zdroje a videa, máme ucelený balík informací. Kdyby o ně měl někdo zájem, klidně můžeme poskytnout vše, co o tom tématu v současné době víme.

(Deepfakes zhruba od 4.20)

Dokážete si představit, že byste technologii neuronového učení využili proti deepfakům?

Ta technologie se proti deepfakům už používá. Když Facebook, Google a ostatní přicházejí s protiopatřeními, často bývají založená právě na strojovém učení a neuronových sítích. Snaží se vyvinout automatické systémy, které by samy vyhledávaly ta videa a odhalovaly manipulace, jaké člověk ve videu okem nevidí. Navíc celá technologie deepfake původně neměla působit nic špatného. V jednom hezkém TED Talku o počátcích této technologie jeden z jejích tvůrců vykládá, že jejich původním záměrem bylo přivést do virtuální reality například lidi, kteří už nejsou mezi námi a moct si s nimi ve virtuální realitě popovídat. Dám příklad právě ze vzdělávání, třeba děti by si nasadily brýle pro virtuální realitu a mohly by si povídat s člověkem, který přežil holokaust, i když už není mezi námi. Nebo by vám oblíbenou knížku četl ve virtuální realitě autor, který už je sto let po smrti. Takže ty možnosti tady jsou. Nebo teď existují nové firmy, startupy, které se na tuhle technologii zaměřují a chtějí vyvinout systémy, které by usnadnily postprodukci filmů. Když se vám přeřekne herec na place, tak místo abyste s ním točili scénu znova a znova, jenom v postprodukci upravíte jednu větu, co měl říct.

Dá se tedy říct, že technologie může být pozitivní, ale byla zneužita?

Jako skoro každá technologie, takže jo. Samotná technologie za to nemůže, ani její tvůrci, je to o lidech, kteří tomu dali ten špatný nádech, špatnou funkčnost. Je to jenom o tom, jak ji použijeme.

Finmag v novém!

Finmag předplatné

Život si najde cestičku. Téma nového Finmagu: adaptace. Michal Kašpárek zkoumá, co nás naučily průšvihy: budovat kanalizace, šetřit benzinem nebo respektovat homosexuály.

Matouš Hrdina píše o tom, jak virus zauzloval zásobovací řetězce. Dokážeme se zbavit závislostí na Číně? Můžeme řídit dodávky zboží tak, aby mírně vyšší poptávka neznamenala hned prázdné regály?

Petr Preclík podává zprávu o tom, jak si lidé dokážou poradit v zemi, kde není spoleh vůbec na nic. V Zimbabwe mají dva miliony lidí ze čtrnácti milionů bankovní účet. Sedm milionů jich ale platí mobilem.


Martina Arltová

Martina Arltová

Studuje žurnalistiku na Fakultě sociálních věd Univerzity Karlovy, kde se začala věnovat především reportážní a portrétní fotografii. Psát si zkouší v redakcích Echo24 a Kulturio.cz. Volno tráví s nosem zabořeným v knížce,... Více o autorovi.

Komentáře

Celkem 16 komentářů v diskuzi

Příspěvek s nejvíce kladnými hlasy

Petr Vorlíček | 30. 5. 2020 10:26

Totalita je zřízení, kde se inteligentnější část populace podařilo silou spoutat hloupější časti populace, nebo za jejího přispění.
Bude se ta hloupější část populace pídit po tom, co je to deepfake, a bude řešit, zda není manipulována svými vůdci? A nebo si v tomto stavu bude dál libovat jako dnes?
Čím více toho člověk ví, tím méně je přesvědčen, ze zná skutečnou pravdu, že se lze skutečné pravdy vůbec dopátrat. Není tohle nakonec největší současnou lidskou slabostí, která umožňuje nekriticky myslícím občanům vytvářet nejsilnější neochvějný myšlenkový proud, a umožňuje jim jednotně volit toho nejhoršího lháře a manipulátora, zatímco kriticky myslící jedinci zoufale přebírají alternativy a volí si nejmenší zlo v roztříštěném spektru?
Tězko věřit, že lidé, kteří používají posměšné označení "pravdoláskař" touží po pátrání po pravdě, chtějí bloudit v labyrintu vlastní duše a odhalovat potenciální selhání logiky pod vlivem manipulace medií....
Nástupu totality tak již nic nestojí v cestě, koneckonců když Agrofert ztrojnásobil zisk za pouhé dva roky, je jasně vidět, že musíme stát opravdu řídit jako firmu, a BUDE LÍP!!!

+12
+
-

Příspěvek s nejvíce zápornými hlasy

Jan Capouch | 1. 6. 2020 21:08

Havel restituce neřešil, ale pro sebe se zařídil velmi dobře. To se to moralizovalo, když nikdy nemusel pracovat, aby uživil rodinu.


Co se Zemana týče: Myslím, že vidí a domýšlí dál, než se na první pohled zdá. Čína je evidentně velmoc na vzestupu a rozhodně stojí za to zkusit s ní být zadobře, Komunisti nemusí být u moci věčně.
Zkuste si přečíst něco od Stanislava Komárka,

-2
+
-

Při poskytování služeb nám pomáhají soubory cookie. Používáním našich služeb nám k tomu udělujete souhlas. Další informace.

OK