Internetom sa šíria falošné príspevky a takzvané deepfakes, ktoré sa tvária ako správy špičkových novinárov a televíznych sietí. Vzhľadom na nadchádzajúce prezidentské voľby v Spojených štátoch je to pre média zlomový a znepokojujúci bod.
Hviezda TikToku
Na začiatku videa sa objaví moderátorka spravodajstva CBS Anne-Marie Green, ktorá hovorí: „Práve robíme rozhovor s jediným preživším nedávnej streľby v škole – hviezdou TikToku Krishnom Sahayom.“
„Muselo to byť veľmi traumatizujúce,“ hovorí Sahayovi novinár v inom videu. „Čo sa vám vtedy preháňalo hlavou?“
Sahay sa odmlčí, no potom odpovie: „Guľky!“
V ďalšom zjavnom spravodajskom segmente o streľbe na škole, tentoraz na CNN, sa moderátor pýta muža: „Ako ste to prežili? Museli ste sa skryť, napríklad za stolík?“
„Za stolík?“ Sahay odpovedá. „Nie, vyprádznil som zásobník!“
Falošné spravodajské videá
Hviezda TikToku a YouTubu patrí k narastajúcemu počtu používateľov sociálnych médií, ktorí využívajú generatívnu umelú inteligenciu a iné softvéry na vytváranie zdanlivo skutočných spravodajských segmentov od špičkových moderátorov hlavných spravodajských kanálov – od Norah O‘Donnell z večerných správ CBS až po novinárov CNN, BBC a ďalších.
Vďaka tejto technológii moderátori vyzerajú a znejú reálne. A vďaka výkonným algoritmom sa senzačné príbehy a falošné titulky s ich podobizňami (alebo logom spravodajskej stanice) šíria pod zámienkou autoritatívnych správ.
Nedávno sa rozšírilo skutočné video korešpondentky CNN Clarissy Ward, ako sa skrýva pred raketami pri hraniciach Izraela s Gazou. Do videa bol pridaný falošný zvuk, ktorý podkopáva jej reportáž.
Internetom sa taktiež šíril klip spolumoderátorky relácie CBS This Morning, Gayle King, vytvorený umelou inteligenciou. Propagovala v ňom produkt, ktorý nikdy nepoužila a ani o ňom nepočula.
Okrem toho sa prednedávnom stalo virálnym aj deepfake moderátora CNN Andersona Coopera, ktorý vyhlásil, že bývalý prezident Donald Trump nám „natrhol zadok“. Popularitu na internete získalo video po tom, ako ho Trump a jeho syn zdieľali na sociálnych sieťach Truth Social a Twitter.
Predbiehajú realitu
Údajné spravodajské relácie, ktoré propaguje Sahay, si získali miliónové publikum. Zahŕňali viac ako tucet prominentných moderátorov z rôznych televíznych sietí, ktorí poskytovali problematické komentáre a rozhovory – zosmiešňovali streľbu na školách, teroristické útoky
z 11. septembra, obete znásilnení a ďalšie inak poškodené osoby.
V mnohých prípadoch tieto vymyslené segmenty, v ktorých vystupujú skutoční novinári
a novinárky priťahujú viac divákov ako legitímne klipy spravodajských organizácií zverejnené na ich overených sociálnych sieťach.
Napríklad jeden zo Sahayových nedávnych deepfakes s Margaret Brennan z Face The Nation získal na TikToku viac ako 300-tisíc lajkov, zatiaľ čo najpopulárnejšie video zverejnené v ten istý deň na oficiálnom účte Face The Nation na TikToku získalo len 7-tisíc.
Oficiálne zakázané
Sahay mal v čase, keď Forbes informoval o tomto príbehu, zakázaný prístup na TikTok
a nereagoval na viaceré žiadosti o komentár.
Aj keď je jeho konto na TikToku neaktívne, Sahayove ďalekosiahle videá sa na tejto platforme dajú stále ľahko nájsť. Preposielajú ich ďalší používatelia a viaceré z nich zostávajú na YouTube.
Väčšina mainstreamových platforiem sociálnych médií má pravidlá proti deepfakes. Hovorkyňa TikToku Ariane Selliers uviedla, že „TikTok vyžaduje, aby tvorcovia označovali realistický obsah vytvorený umelou inteligenciou“, a to buď nálepkou, alebo v popise videa.
Ďalej uviedla, že TikTok „naďalej odstraňuje obsah, ktorý môže škodlivo zavádzať alebo sa vydávať za ľudí“. (Väčšina videí od Sahay nemala žiadne podobné označenie.)
TikTok zakazuje deepfakes obsahujúce podobizne súkromných osôb a „hoci poskytujeme väčšiu voľnosť verejným osobám, nechceme, aby boli predmetom zneužívania alebo aby zavádzania v politických alebo finančných otázkach,“ uvádza spoločnosť vo svojich pravidlách.
Hovorkyňa YouTube Elena Hernandez uviedla, že na YouTube už dlho existujú zásady ohľadom dezinformácií. Zakazujú technicky zmanipulovaný alebo upravený obsah, ktorý predstavuje riziko vážneho poškodenia“.
Hovorkyňa CNN Emily Kuhn sa odmietla vyjadriť k deepfake spravodajským segmentom, ale uviedla, že zmanipulovaný zvuk v klipe korešpondentky CNN v blízkosti hranice medzi Izraelom a Gazou „je vymyslený, nepresný a nezodpovedne skresľuje realitu okamihu, ktorý bol naživo odvysielaný na CNN“. Ľudia by si ho vraj mali pozrieť v plnom znení na dôveryhodnej platforme.
O‘Donnell, moderátorka CBS, na žiadosť o komentár okamžite nereagovala, ale hovorkyňa CBS News April Andrews uviedla, že „CBS berie svoje práva duševného vlastníctva veľmi vážne“.
Hovorkyňa BBC Robin Miller uviedla: „Vždy, keď sa dozvieme o deepfake videu, naši právnici prijmú opatrenia. Vo svete narastajúcich dezinformácií vyzývame všetkých, aby kontrolovali odkazy a URL adresy a uistili sa, že získavajú správy z dôveryhodného zdroja.“
Nový segment
Deepfakes a nízkorozpočtové „cheapfakes“ nie sú novinkou. Nedávno boli použité napríklad na obsahu od Toma Hanksa a najlepšieho youtubera MrBeasta. Sú sociálne médiá pripravené zvládnuť nárast deepfakes s umelou inteligenciou?
MrBeast, ktorého skutočné meno je Jimmy Donaldson, sa k tomu vyjadril na platforme X: „Je to vážny problém.“
Novším a potenciálne nebezpečnejším postupom sa však zdá byť falšovanie spravodajských relácií, ktoré sa spoliehajú na hlasy a tváre vysokopostavených novinárov a novinárok.
Začiatkom tohto roka spoločnosť Graphika, ktorá sa zaoberá analýzou sociálnych médií, zverejnila prieskum „novej a osobitnej formy videoobsahu“. Na Facebooku, Twitteri a YouTube zistila, že spravodajskí moderátori vytvorení umelou inteligenciou boli súčasťou „pro-čínskej politickej spamovej operácie“. (Čínske štátne médiá tiež experimentovali s AI spravodajskými moderátormi.)
Známe tváre
„Videozáznamy moderátorov správ sú presvedčivým prostriedkom na šírenie dezinformácií,“ povedal Hany Farid, profesor Kalifornskej univerzity v Berkeley, ktorý o deepfakes svedčil pred Kongresom Spojených štátov.
„V mnohých prípadoch sú moderátori divákom známi a dôverujú im. Ak aj nie, je im známy všeobecný formát správ, a preto je pre nich uveriteľný.“
„Výsledky síce stále nie sú dokonalé, ale sú veľmi dobré, najmä pri prezeraní na mobilnom zariadení a pri rýchlom pohybe divákov v sociálnych sieťach,“ dodal Farid, ktorého výskum sa zameriava na ľudské vnímanie a analýzu obrazu.
„Budeme sa musieť vážnejšie zaoberať ochranou práv ľudí, ktorých podobizeň a hlas sú kopírované.“
Slúžia ako zábava (zatiaľ)
Deepfakes sa často používajú v rámci memes, aby rozosmiali ľudí. Tie extrémnejšie scenáre – aby sa tento zmanipulovaný obsah mohol použiť na šírenie dezinformácií zameraných na zmenu priebehu volieb, vstupov spoločností na burzu a iných udalostí, pri ktorých ide o veľa – sa zatiaľ nenaplnili.
Voľby v roku 2020 však výrazne predchádzali explózii umelej inteligencie, ktorú odštartovala aplikácia ChatGPT. Začiatkom tohto roka sa stala jednou z najrýchlejšie rastúcich spotrebiteľských aplikácií v histórii.
Dnes môže takmer každý použiť ľahko dostupný AI softvér na vytváranie videí alebo zvukových záznamov verejných činiteľov (alebo bežných ľudí), ktorí robia a hovoria veci, ktoré v skutočnosti nikdy neurobili.
To zvýšilo obavy, že umelá inteligencia zmení blížiace sa voľby v roku 2024 na chaotický „divoký západ“. Obavy sa len zintenzívnili nárastom deepfakes, ktoré sa používajú ako zdanlivo pravidvé spravodajské správy.
Hrozba pre nachádzajúce voľby
Podľa právnika Kevina Goldberga, odborníka z neziskovej organizácii Freedom Forum so sídlom vo Washingtone, je najväčšou obavou, že videá s použitím skutočných moderátorov správ v reálne vyzerajúcich situáciách by sa mohli použiť ako agresívna forma dezinformácií. „Toto je skutočná obava, s ktorou sa budeme musieť vysporiadať počas toho, ako sa blížime k voľbám v roku 2024,“ uviedol.
Upozornil však, že taktiež „nechce reagovať prehnane“. „Áno, je tu potenciál pre zlomyseľnosť,” povedal pre Forbes. „Náš právny systém a naša spoločnosť je však viac než dobre pripravená na zvládnutie tohto problému.”
Článok vyšiel na Forbes.com, jeho autorkou je Alexandra S. Levine.