Používáte nástroj pro blokování reklamy. Pokud nám chcete pomoci, vypněte si blokování reklamy na našem webu. Zde najdete jednoduchý návod. Děkujeme.

Deepfakes. Největší hrozba pro demokracii se v Americe k volbám nedostavila

Petr Michl | 18. 11. 2020 | Vstoupit do diskuze – 3 komentáře

Taky jste zklamaní, že se v prezidentské kampani v USA neobjevila dokonalá falešná videa s prezidentskými kandidáty? Deepfake videa, ve kterých by jejich dokonalé počítačové kopie říkaly, co by sami nikdy neřekli? Králi manipulace zůstávají řetězový mejl a falešné zprávy a trolové na sítích.

Deepfakes. Největší hrozba pro demokracii se v Americe k volbám nedostavila

Zdroj: Shutterstock

Když se v roce 2017 objevilo na Redditu vlákno, které volně nabízelo kód pro tvorbu deepfakes, nastartovalo to jednu odnož byznysu, která je od nepaměti inovátorem digitálního pokroku. Mluvíme o pornu, specificky fake celebrity pornu. Nadšenci sice už roky ve Photoshopu roubovali hlavy populárních hereček a zpěvaček na těla patřící divám sexuálního průmyslu, ale deepfakes slibovaly iluzi rozhýbat, přenést ji ze statických fotografií do videa. Deepfake video dokáže nalepit obličej člověka na tělo někoho jiného a s různou mírou přesnosti vyvolat dojem, že se na obrazovce pohybuje či dokonce mluví osoba, kterou rozpoznáváme podle rysů tváře. Falešné porno je samozřejmě problém minimálně pro ty, kteří se jaksi stanou jeho tváří, a jejich blízké. Civilizační hrozbu jsme ale v deepfakes začali vidět, až když nám došlo, že se v nich dá taky mluvit. A říkat cokoli. A že v nich můžou hrát i oblečení lidé. Klidně i ti nejmocnější na světě. 

Jako ilustraci toho, co deepfakes dokážou, nechal v roce 2018 portál Buzzfeed vytvořit video s exprezidentem Barackem Obamou a nechal ho v něm říkat věci, jaké by ve skutečnosti nikdy nevypustil z úst. Algoritmy stvořený Obama napodobuje svůj originál vskutku věrně, v některých okamžicích ale přece jenom připomíná spíš postavu z počítačové hry s hodně dobrou grafikou.

O pouhý rok později. Stav deepfake technologie izraelského startupu Canny AI v roce 2019 lze předvést klipem k písni Imagine od Johna Lennona, kterou si spolu imaginárně střihla celá plejáda světových lídrů. Tentokrát to vypadá ještě uvěřitelněji.

Z loňského roku je taky české deepfake video proslovu Miloše Zemana. Ve skutečnosti pokus o virální propagaci seriálu HBO Bez vědomí.

Dosud jsme si ukázali propracovaná díla, jejichž tvorbou strávili dobře placení profesionálové celé dny. Začátek skutečné demokratizace tvorby deepfake videí přinesla čínská aplikace Zao, která loni chvíli dokonce byla ve své domovině nejstahovanější aplikací. Její přitažlivost je zřejmá. Stačí jedna fotografie a váš obličej může nahradit ve scénách filmových či seriálových hitů tváře herců. Následující záběry ze seriálu Hra o trůny ilustrují, že Jon Snow může být skutečně každý. Uvěřitelnost je výrazně nižší než třeba u výš představeného klipu k Imagine, ale realistický pohyb rtů při využití pouhé jedné fotografie člověka je dechberoucí.

Velká očekávání…

Fake news a šíření dezinformací skrz sociální média se považují za hrozbu, která může ohrozit stabilitu demokracie. Vnímáme to tak zejména kvůli skandálu společnosti Cambridge Analytica a množství dezinformací šířených před volbami amerického prezidenta v roce 2016. Není proto divu, že letošní volební rok si řada organizací, ale i sociálních médií dala závazek ověřovat fakta a masivnímu nekontrolovatelnému proudu dezinformací bránit.

Deepfake videa jsou jen jedním z formátů fake news, se kterým se snaží vypořádat. Jejich nebezpečnost je očividná. Fotografie vydá za tisíc slov, ale video předčí i fotku už jen tím, že nabízí zpravidla alespoň 25 obrázků za vteřinu. A na manipulování s fotografiemi jsme zvyklí už řadu let. I když s rozvojem grafických editorů v čele s Photoshopem od firmy Adobe se možnosti tvorby cinknutých fotek dostaly ještě na jinou úroveň.

Where si Vlado?

Únor 48. Případ Clementisova čepice
Zdroj: ČČK

Z domácích luhů známe příběh fotografie ze „slavných únorových dní“, ze které byl po čistkách v padesátých letech vyretušován zavržený ministr zahraničí Vlado Clementis. Jestli z něj – jak píše Milan Kundera v Knize smíchu a zapomnění – na fotce zůstala beranice, kterou údajně půjčil Gottwaldovi, je nevyřešená otázka. Rozhodně z něj zbyl kousek klobouku. Čí byl klobouk, pokud čepice byla Clementisova, je další otázka.

Facebook bere výzvu vážně. Loni spustil takzvané Deep Fake Detection Challenges, do kterých se zapojili lidé z celého světa a vzniklo díky nim několik open source nástrojů a výzkumů pro odhalování deepfake videí. Navíc se Facebook – ač se obecně mazání obsahu vyhýbá – rozhodl deepfake videa odstraňovat. A to konkrétně v těchto případech:

  • Video byl upraveno víc než jen za účelem zvýšení kvality a mohlo by zmást lidi do té míry, že by si mysleli, že osoba ve videu řekla slova, která ve skutečnosti neřekla.
  • Jedná se o výtvor umělé inteligence nebo strojového učení, kdy došlo ke změně, sloučení či nahrazení obsahu způsobem, že vypadá jako originální.

Tato kritéria se přitom nevztahují na satirická nebo parodická videa.

Taky jsme se báli

Bojka
Zdroj: Shutterstock

„Obecně se ví o možnostech nějaké drobné manipulace se zvukem, se střihem, většina lidí ale netuší, že existuje až tak veliká možnost hlubší úpravy. Představte si situaci, kdy lidé, kteří se o zprávy, politiku a podobné věci nezajímají, najednou nebudou moct věřit ani večerním zprávám v televizi, protože budou vědět, že můžou být zmanipulované, a co se tam pouští, nemusí být pravdivé,“ shrnoval před půl rokem největší obavy z deepfakes Vojtěch Bruk.

Proti deepfake videům pomůže jen – umělá inteligence

… a ono nic

Tvorbu deepfake videí se ale nezpomalila, natož aby se zastavila. Podle dat společnosti Sensity se jejich počet zvyšuje dvojnásobně každého půl roku. Do prosince 2018 jich Sensity odhalila necelých osm tisíc, zatímco v červnu 2020 překonal jejich celkový počet 49 tisíc. Většina z deepfakes si „půjčuje“ osobnosti ze showbyznysu, politici figurovali jen ve čtyřech procentech ze všech videí.

Kdo se těšil, že v horkých fázích americké volební kampaně bude oslněn přehlídkou filmových triků a rafinovaných podrazů, musel být zklamán. Přitom „herci“ z obou stran oplývali výraznými talenty, kterých šikovný manipulátor dokáže využít. Hrozba podvržených videí totiž není v tom, že by realitu popřela – videu, na kterém by Joe Biden prováděl satanistické rituály, by málokdo věřil. Stačí realitu mírně posunout.

Joe Biden už není nejmladší pán a ve stresu má někdy tendenci zadrhávat v řeči. Stačí tedy tyto jeho vlastnosti jen podtrhnout a dotáhnout. To se také nakonec v několika videích stalo. V jednom Joe Biden při rozhovoru v televizním studiu působí zmateně a poněkud „mimo roli“. V dalším spí.

Tohle ale nebyly deepfakes, žádný zázrak techniky, ale jen upravené skutečné záběry, u kterých si někdo pohrál s rychlostí přehrávání a dalšími parametry videa, případně se střihem. Jsou to pravé záběry Bidena a nejsou mu vkládána jiná slova do úst. Biden, který si dá šlofíka v televizním rozhovoru, je skutečný Biden, i když záběr pochází odjinud. Takovým videům se říká cheapfakes a jejich cíl je v tomto případě totožný s deepfakes: upravit realitu a ovlivnit něčí smýšlení a ideálně i rozhodování.

Donald Trump, který už v minulé kampani zpochybňoval nevybíravě zdravotní stav své protikandidátky Hillary Clintonové, letos obdařil svého staršího soupeře přezdívkou Ospalý Joe a útočil na jeho údajně nedostatečné kognitivní schopnosti. Zmíněná videa s gustem dál šířil. A sdílel také cheapfake s demokratickou předsedkyní Sněmovny reprezentantů Nancy Pelosiovou, která si šlape na jazyk a působí zmateně.

A neodpustil si ani další upravené video, ve kterém Biden říká, že nezbývá než zvolit Donalda Trumpa.

Taková videa sociální média stahují a zpětně se k nim člověk dostane spíš přes články, které o nich referují. Přesto podle odhadů amerických médií na sítích videa upravená tak, aby v nich Biden působil jako příliš starý pro prezidentský úřad, viděly desítky milionů lidí.

Mělo to ovšem na voliče a jejich rozhodování nějaký vliv? Nijak zásadní. „Určitý dosah měla, ale je otázka, jestli měla i nějaký efekt. Díky algoritmům sociálních sítí jsou totiž voliči automaticky ‚posunováni‘ v konzumování obsahu směrem od středu k extrémům, podobná videa tedy pravděpodobně zasáhnou jen už ty přesvědčené,“ vysvětluje pro Finmag analytik Institutu politického marketingu Karel Komínek.

Když se před dvěma lety začalo víc mluvit o hrozbách deepfake videí, jako první událost, kterou by mohla ovlivnit, se automaticky braly letošní prezidentské volby v USA. Deepfake s ničivým zásahem se prý mohl například objevit noc před volebním dnem, tak aby nebyl čas nic vyvracet.

Nakonec ale víme o jediném skutečném takovém videu a to bylo ještě využito zcela nepokrytě – Donald Trump sdílel svou tvář naklíčovanou do proslovu jednoho z hrdinů filmu Den nezávislosti.

Nejtlustší Finmag

Finmag předplatnéZdroj: Finmag

3d král

„Hlavně doufám, že se při každé následující pandemii nebude znovu řešit, jestli Průša tiskne štíty,“ říká podnikatel, jehož 3D tiskárny zná celý svět. A tak jsme se radši ptali, jestli se budou tisknout domy a k čemu je 3D tisk cukrářům. Jenže… Tiskne už Josef Průša štíty?

Vyhnala nás karanténa

Téma: outdoor. Analyzujeme čísla z tuzemské turistiky, probíráme novodobé vychytávky od hodinek po jídlo, co se vaří bez ohýnku, a mrknem na historii vychytávek, které už nám přijdou všední. Kde bychom byli bez přehazovačky? Pod kopcem!

A další

Jakub Jetmar ochutnává v prostějovském pivovaru Axiom.Monika Veselíková slyší krávu růst. Je to japonské plemeno wagjú z farmy v Dolní Sloupnici. Gabriel Pleska se léčí kameny. Martin Vlnas jede Tour de France. Vojta Dobeš popisuje, jak kartou dokoupíte koně pod kapotu auta, ve kterém právě sedíte.


Poměr cena : výkon

Není ale přece jenom škoda, že ačkoli jsou dostupné tak úžasné technologie, dezinformátoři nás otravují jen přes ukřičené trolly a řetězové maily s powerpointovými prezentacemi?

Inu, i dezinformátor si dělá analýzu nákladů a výnosů. Aplikace jako Zao udělá zajímavý deepfake z pouhé fotografie, uvěřitelnost ale není stoprocentní. Video k nerozeznání od reality se pořád chystá spíš týdny než dny a má nezanedbatelné produkční náklady. Jako zadavatel si musíte najmout ne zrovna dostupné designery se zkušeností s danou technologií a často i výpočetní výkon v cloudu, který dokáže deepfake vykreslit.

O nákladnosti a pracnosti tvorby deepfake videa si můžete udělat obrázek u tvůrců české reklamy na HBO s Milošem Zemanem. I reklamka, která měla jen dodat uvěřitelný text, strávila mnoho hodin analýzami prezidentových projevů, k namluvení projevu se povolával profesionální imitátor, pohyby napodoboval profesionální herec – a to jsme se ještě vůbec nedostali k technické stránce věci.

Každé takové video navíc bude pravděpodobně v centru pozornosti médií, expertů a ověřovačů fakt. Z tohoto pohledu je prostě „starý dobrý“ řetězový e-mail stále nástroj s výrazně lepším poměrem ceny a výkonu.

Populární TV podvodník Kazma
Zdroj: televizeseznam.cz

Zemanovský deepfake se natáčel v Polsku a čínské „reálie“ se do videa dodávaly v počítači. Klopýtající postavy falešného Zemana a průvodu limuzín s čínskými vlajkami by si v Česku prostě někdo všiml

Ono to zlevní

Karel Komínek přidává další důvody, proč staré dezinformační taktiky nereznou. „Protože to funguje. Trump nemusí vytvářet komplikovaně dezinformace a vkládat je do úst Bidenovi. Stačí ho označit jako např. Low energy Joe nebo Sleepy Joe (Trump má pro všechny své nepřátelé jednoduchou přezdívku) a potom ukázat sestřih, kde Biden vypadá zpomalený nebo dezorientovaný a do videa ani nemusí zasahovat,“ říká a pokračuje s tím, co stačí u nás: „V českém prostředí se často šíří absurdní dezinformace sociální sítí našich prarodičů, e-mailem. Většina populace dezinformace zná v podobě článků či obrázků z Facebooku. S trochou pomoci ze strany některých politických představitelů lze vytvořit mix informací, ve kterém se skutečně málokdo dokáže zorientovat, co je pravda a co ne.“

Čas deepfakes v dezinformačním boji pochopitelně může přijít. Technologie se zlepšují a zlevňují a další pokrok se nezastaví. Zatím ale doménou deepfake videa zůstává porno a zábava. „Showbyznys pro ošklivé lidi,“ jak se někdy přezdívá politice, si musí ještě počkat. 

Petr  Michl

Petr Michl

"Petr Michl vede jeden z předních portálů pro marketingové profesionály, Marketing Journal. Mimo to je ale i aktivní marketér. Pracuje jako strategický konzultant pro PR a digitální agenturu Focus Agency. Ze všech možných... Více o autorovi.

Komentáře

Celkem 3 komentáře v diskuzi

Doporučujeme