Zmaturoval len vlani, už teraz však odhaľuje deepfaky v Hollywoode i na vojnových frontoch. Devätnásťročný Matyáš Boháček už stihol vyvinúť niekoľko aplikácií a prednášal v zámorí. Dnes so špičkovými vedcami za oceánom skúma nástrahy umelej inteligencie. A predpovedá svet, na aký nie sme pripravení.
Strom a okolo neho úhľadne pokosená trávnatá pláň lemovaná z troch strán kamenným podlubím. Pokojné popoludnie z času na čas preruší hlasný smiech skupiniek dvadsiatnikov, ktorí ležia obďaleč či zrýchlené kroky zaneprázdnených študentov. „Akurát nedávno som tu na chodníku míňal Billa Gatesa, myslím, že sa ponáhľal na prednášku,“ poznamená Matyáš Boháček a na tvári sa mu zjaví široký úsmev.
Len 19-ročný Boháček tu na Stanforde, alma mater technologických mozgov planéty, odvlani študuje počítačovú vedu. Len pred polrokom maturoval na pražskom Gymnáziu Jana Keplera, už teraz však má za sebou publikácie so svetovými vedcami i výskum. Kampus neďaleko Palo Alto v srdci Silicon Valley, kde pred ním študoval zakladateľ Googlu, autor PayPalu či dnes najbohatší muž planéty, bol pre mladého technologického génia jasnou voľbou. K zvučným menám najvplyvnejších študentov čoskoro pribudne aj jedno české.
Vráťme sa však najprv o trinásť rokov späť, na začiatok. Šesťročný Matyáš práve dokončuje programovanie svojho prvého webu – online katalógu, ktorý má slúžiť ako digitálna verzia obchodíka, na ktorý sa hrával so starou mamou. „Web fungoval, mohli ste si však na ňom len pozrieť ponuku produktov a ceny, nič viac,“ zdôrazňuje s plnou vážnosťou Boháček a na hlase počuť, že s prácou detského programátora, svojho mladšieho ja, nie je úplne spokojný.
Odvtedy vyvinul niekoľko aplikácií, ktoré neskôr predviedol na prestížnych vedeckých konferenciách WACV na Havaji a CVPR v New Orleans či v OSN. Už ako štrnásťročný vytvoril prvý výskumný projekt, Spoter. Spolu s doktorom Hrůzom zo Západočeskej univerzity v Plzni vytvoril prekladač znakového jazyka. „Bola to prvá otázka, ktorou som sa pod vedením pána doktora výskumne zaoberal, na ktorú dovtedy nebola správna odpoveď. Keby som chcel vytvoriť aplikáciu na nákup leteniek, mohol by som sa inšpirovať podobnými aplikáciami či programami, zadanie i výsledok sú jasné,“ vysvetľuje.
„Znakový jazyk je však taký komplikovaný a variabilný, že neexistuje univerzálna podoba konkrétnych znakov či pohybov, naopak – každý sa dá urobiť rôznymi spôsobmi, rozdielnou rýchlosťou, vzdialenosťou či dynamikou. Preto nebolo možné zadefinovať vopred dané významy slov či znakov tak, ako pri preklade z angličtiny do češtiny. Musel som pracovať s relatívne komplikovanými štatistickými modelmi,“ spomína a dodáva, že práve táto skúsenosť ho priviedla k práci s umelou inteligenciou.
S jej pomocou namodeloval aplikácie Newskit či Verifee, z ktorých druhá na základe AI verifikuje dôveryhodnosť článku. „Reagovali sme vtedy na alarmujúci výskyt dezinformácií vo verejnom priestore,“ vysvetľuje, prečo spolu s kolegami Michalom Bravanským a Filipom Trhlíkom pod záštitou AI konzultanta Jana Romprotla aplikáciu vytvorili. Väčšina podobných platforiem dovtedy vyhodnocovala dôveryhodnosť správ predovšetkým na základe zdrojov. Jednoducho rozlišovali, aké zdroje sú nedôveryhodné a podľa toho klasifikovali aj všetky správy z daného média. My sme sa na to chceli pozrieť komplexnejšie – v spolupráci s novinárom Václavom Moravcom sme nadefinovali viac než tri desiatky znakov a faktorov, vďaka ktorým dokáže program roztriediť správy do štyroch kategórií podľa dôveryhodnosti,“ opisuje.
Aplikácia posudzuje, či text správne uvádza citácie, manipuluje s dátami, prípadne sa inak odkláňa od žurnalistických noriem. „Väčšina článkov patrí niekam doprostred, úplne nedôveryhodných či, naopak, dôveryhodných správ je málo. Náš algoritmus je podľa mňa unikátny tým, že nielen označí správu za fake news, ale aj vyberie pasáže, ktoré vyhodnotí ako problematické, a nechá človeka, aby ich sám posúdil,“ vysvetľuje Boháček a dodáva, že po presťahovaní sa do USA už v rámci aplikácie aktívne nefiguruje.
Za skutočne úspešnými aplikáciami totiž podľa neho stoja celé tímy, ktoré sa plne sústreďujú na ich vývoj. Napriek tomu, že mal na startupovej dráhe slušný nástup, napokon sa vydal cestou vedy. „Pôvodne som si myslel, že budem mať vlastný startup, ale postupne som zistil, že to nie je moja cesta. Naopak, chcem sa venovať akademickému výskumu AI. Vo všetkých vedeckých článkoch, na ktorých spolupracujem, sa snažíme s verejnosťou podeliť o všetky kódy, dáta a modely AI. Môže ich tak ktokoľvek použiť a napríklad vniesť do svojej aplikácie preklad z videa do textu,“ hovorí Boháček.
Génius
Práve toto označenie bolo tým najčastejším označením, ktoré Forbes pri výbere súčasného ročníka 30 pod 30 dostával v reakcii na meno Matyáša Boháčka. Všetkým projektom a výskumu sa pritom musel venovať po nociach či pred vyučovaním, kým jeho spolužiaci na gymnáziu ani netušili, že Matyáš už dávno prednáša v zámorí. Navyše nebyť českých podnikateľov a štipendií Nadácie rodiny Tykačovcov a nadácie Progresus podnikateľov Lukáša Forala a Lukáša Zrůsta, na Stanforde by neštudoval.
Potenciál mladého Čecha si pritom ešte na gymnáziu všimol aj profesor Hany Farid, svetová kapacita v analýze digitálnych médií a odhaľovaní deepfakov, čiže zmanipulovaných videí, ktoré na prvý pohľad vyzerajú autenticky. Úspešný vedec, ktorý pôsobí na Kalifornskej univerzite v Berkeley a týždenne dostáva desiatky žiadostí o spoluprácu, nechcel s pražským stredoškolákom pôvodne strácať čas. Nakoniec si však Matyáš svojím zápalom získal i jeho. „Vedel som o jeho predchádzajúcej spolupráci s českým Avastom, tak som ich požiadal o spoluprácu a napokon som ľudí z Avastu poprosil, či by ma s pánom profesorom nespojili,“ spomína Boháček s úsmevom.
Na druhý pokus sa to podarilo a posledné dve letá strávil Matyáš v laboratóriu v Berkeley s jedným z najzvučnejších mien v sektore. Z ich spolupráce vzišlo už niekoľko výskumov, medzi nimi i štúdia publikovaná v odbornom časopise PNAS, ktorý vydáva Národná akadémia vied Spojených štátov. Ich bádanie sa točí okolo otázky umelej inteligencie a toho, aké jednoduché je zneužiť tieto technológie i dôveru verejnosti na šírenie zmanipulovaných informácií.
Naposledy dvojica v spolupráci s americkou CNN vytvorila vôbec prvú napodobeninu moderátora, ktorá by bez povšimnutia dokázala odmoderovať večerné správy. Úplne realistickou podobou moderátora Andersona Coopera dokázali, aké ľahké je dnes zneužiť technológie i dôveru verejnosti v známe osobnosti.
„Ľudia majú obrovskú dôveru voči osobnostiam, ktoré im denne prinášajú správy, konfrontujú politikov a političky a v podstate sú ich kontaktom s okolitým svetom a správami. Pokiaľ by sme niekomu takému mohli vložiť čokoľvek do úst, otvára to absolútne neprebádaný svet problémov a možností šírenia dezinformácií,“ vysvetľuje Boháček. „Nešlo nám o vytvorenie samotného deepfaku, ale o upozornenie na to, ako ľahko sa dá niečo také naprogramovať a odvysielať,“ dodáva.
Výskum nadviazal na predchádzajúcu štúdiu, na konci ktorej stál jeden z doteraz najúčinnejších detektorov deepfakov na svete. V prvej fáze vývoja sa zameral na prominentné osobnosti, ako je ukrajinský prezident Volodymyr Zelenskyj, ktorých deepfake by potenciálne mohol mať obrovský spoločenský dopad. Boháčkovi sa podarilo naprogramovať model umelej inteligencie tak, aby bola po pozretí stoviek minút záznamov schopná presne naštudovať spôsob vystupovania, tón hlasu a ďalšie behaviorálne črty politika a presne ho napodobniť.
„Každý z nás má isté drobné špecifiká – posunky, intonáciu, zvyklosti, ktoré sa prejavujú počas reči. Skúmame naozaj detaily, len na tvári je náš model schopný detegovať viac ako päťsto bodov, ktoré sleduje. Konkrétne prezident Zelenskyj je známy tým, že pri niektorých slovách veľmi charakteristicky zvýši intonáciu,“ popisuje Boháček. „Keď sledujeme jeho deepfake videá alebo prácu imitátorov, náš model si všimne, že nejde o autentické záznamy,“ vysvetľuje.
Výskum, na základe ktorého sa Boháčkovi s profesorom Faridom podarilo detektor vytvoriť, nie je na rozdiel od väčšiny iných prác prístupný verejnosti. S jeho pomocou bojuje dvojica s tvorcami manipulovaných videí, ktorí sa vďaka zdrojovým kódom detektorov učia vytvárať čoraz sofistikovanejšie napodobeniny záznamov. „Je to ako hra na mačku a myš. Zámerne sme preto zásadné časti výskumu nepublikovali a sprístupnili ich len inštitúciám, ktorým veríme, že ich využijú na dobrú vec,“ upozorňuje.
Aj keď sa to totiž nezdá, umelé videá, na prvý pohľad nerozoznateľné od tých autentických, sa vo verejnom priestore objavujú čoraz častejšie. Kým v strednej Európe na ne zatiaľ bežne nenarazíte, v USA ide už dnes o problém, s ktorým musia bojovať nielen politici, ale aj šéfovia firiem, za ktorých sa tvorcovia často vydávajú pred ich zamestnancami.
„Predstavte si situáciu, že vám z ničoho nič zavolá cez Teams váš šéf, že mu máte dať heslá k pracovným účtom. V skutočnosti však ide o podvodníkov, ktorí sa za neho veľmi sofistikovane vydávajú. V Amerike sa s takýmito podvodmi stretnete bežne, ale aj v Čechách už bolo pár podobných výstrelkov,“ popisuje Boháček.
„A, samozrejme, predstavte si, akú veľkú moc tieto technológie dávajú tvorcom podobných zmanipulovaných videí v prípade volieb či predvolebných kampaní,“ dodáva študent s tým, že na takéto podvody ako spoločnosť nie sme nijako pripravení.
Problémom podľa neho nie je samotná existencia vyspelých technológií, ale absencia akýchkoľvek pravidiel či obmedzení, ktorým by umelá inteligencia podliehala. „Prakticky všetkými našimi výskumami sa snažíme poukázať práve na túto skutočnosť. Naše argumenty nie sú ani tak právnické ako skôr filozofické, hoci reguláciu rozhodne potrebujeme. Ako spoločnosť sa musíme naučiť rozlišovať to, čo je reálne, od výtvorov AI,“ hovorí a myšlienku dokladá výsledkami výskumu.
Podľa nich je zreteľné označovanie výtvorov umelej inteligencie nielen etickou otázkou, ale pre firmy podnikajúce v oblasti aj ekonomickou otázkou. „Dospeli sme k tomu, že systémy generatívnej umelej inteligencie, ktoré sa čo i len z malej časti učia na nerealistických predlohách, teda vlastných výtvoroch, sa veľmi rýchlo rúcajú,“ popisuje študent.
„Všetky modely typu ChatGPT sa totiž pôvodne učili na obrovskej množine dát – obrázkoch, textoch, ktoré našli na internete a ktoré do nich vložili ich tvorcovia. Ale príde čas, keď tieto firmy budú chcieť svoje systémy zdokonaliť a nechajú tieto modely, aby znova stiahli kvantá dát, ktoré nájdu online, a učili sa z nich.
Problémom je, že tentokrát budú brať do úvahy aj nerealistické predchádzajúce výtvory umelej inteligencie, a tak stratia schopnosť generovať kvalitné výsledky,“ približuje Boháček. Modely generatívnej umelej inteligencie začnú produkovať nerealistické výsledky, ktoré nezodpovedajú tomu, čo človek hľadá.
„Preto je našou hlavnou požiadavkou, aby firmy ako OpenAI označovali obrázky a texty vyprodukované ich systémami ako výtvory umelej inteligencie, a to nielen vodoznakom, ale aj šifrovane. Tá cesta je správna nielen preto, aby ľudia boli schopní orientovať sa v tomto novom priestore, ale aj preto, že len tak bude ich biznisový model fungovať i v budúcnosti,“ uzatvára.