Predstavte si nasledujúcu situáciu. Príde vám správa od šéfa alebo kolegu, v ktorej píše, že je potrebné niečo vyriešiť cez online schôdzku na platforme Teams či Zoom a že ide o naliehavú záležitosť.
Pripojíte sa cez odkaz, na ktorom na vás cez webkameru pozerá spomínaná osoba, ktorá s vami komunikuje a chce od vás nejaké interné firemné údaje. Je vám to síce divné, ale vzhľadom na to, že ide o videohovor, nakoniec poskytnete, čo od vás šéf či kolega chce. Lenže v tej chvíli ste sa stali obeťou hackerského útoku.
Hackeri sa totiž zameriavajú na nové typy útokov, medzi ktoré patria aj falošné videohovory. Využívajú na ne umelú inteligenciu, respektíve technológiu na báze generatívnej adverznej siete. Pomocou nej dokážu v reálnom čase nahradiť tvár podvodníka tvárou, ktorá je napadnutej osobe známa.
Čoraz sofistikovanejšie útoky
„Pred nami stoja nové typy útokov a podvodov, ktoré síce vychádzajú zo známych princípov, ale ich technologické prevedenie je na oveľa vyššej úrovni,“ hovorí Milan Kubálek, konzultant českej IT spoločnosti Trask, ktorý sa zaoberá umelou inteligenciou (AI). Podľa neho je preto nutné sa na sofistikovanejšie útoky dobre pripraviť.
„Do istej miery sme sa naučili byť obozretní pred phishingovými útokmi, ktoré sa vykonávajú pomocou e-mailov. Čo ak vám však zavolá napríklad nadriadený a bude rýchlo potrebovať prístup k istým citlivým údajom? Na telefóne vidíte jeho kontakt, počujete jeho hlas a vidíte jeho tvár. Váš šéf navyše plynule reaguje na všetky otázky a podnety,“ opisuje Kubálek.
Podľa výskumu spoločnosti Mandiant, ktorá sa zaoberá kybernetickou bezpečnosťou, sú už zdokumentované aj prvé známe prípady technológie deepfake videa, ktoré sa na internete predávajú priamo pre phishingové podvody.
Reklamy na hackerských fórach a kanáloch siete Telegram v angličtine a ruštine sa chválili schopnosťou softvéru replikovať podobizeň osoby, aby bol pokus o vydieranie alebo podvod ešte osobnejší.
Už aj v našom regióne
A podobné prípady sa objavujú aj v našom regióne. Nedávno totiž popísal práve takú skúsenosť s hackerským útokom napríklad zakladateľ fitness e-shopu GymBeam Dalibor Cicman, keď sa videohovoru s jeho kolegom zúčastnila jeho deepfake kópia.
„Kolegovi prišla na WhatsApp správa z účtu, ktorý bol veľmi podobný tomu môjmu. Písal pod mojím menom, že sa s ním potrebujem rýchlo spojiť, a poslal link na Teams. Vo videohovore na Teams bola moja deepfake kópia s ďalšou osobou. Tú moja kópia predstavila ako nášho externého právnika a väčšinu moderoval on,“ popísal Cicman na sociálnej sieti LinkedIn s tým, že sa hackeri snažili zistiť zostatky na firemných bankových účtoch.
Ako podvod rýchlo odhaliť?
V takých prípadoch je potrebné byť obozretní a dôsledne dodržiavať zásadu nedôveruj a preveruj. Ako na to? Falošný videohovor za pomoci AI môžeme odhaliť napríklad banálnym dotazom na nejakú aktuálnu skutočnosť.
„Ak máme hovor s fiktívnou osobou, ktorú poznáme, môžeme sa opýtať na nejaký fakt, ktorý nie je verejne publikovaný. Pokiaľ máme silné podozrenie, môžeme hovor ukončiť a osobe zavolať späť,“ radí Milan Kubálek z Trasku. „Všeobecne platí, že pokiaľ nemáme stopercentnú istotu, kto s nami skutočne komunikuje, nikdy neoznamujeme žiadne osobné informácie a už vôbec žiadne citlivé dáta,“ dodáva.
Máme sa teda báť, že čo nevidieť bude každý druhý videohovor falošný a my nebudeme vedieť, kedy sa bavíme s reálnou osobou? Asi nie. Hoci sa modely hlbokého učenia výrazne posúvajú dopredu najmä s rozvojom generatívnej umelej inteligencie, stále majú aj svoje slabiny, ktoré môžeme pri odhaľovaní falošných videohovorov využiť.
Netreba robiť paniku
Po prvé, vyžadujú vysoký výpočtový výkon. „Pre generovanie falošného videa vo vysokej kvalite a v reálnom čase je nutné mať k dispozícii špecializované výpočtové stanice s výkonnými grafickými kartami,“ vysvetľuje Kubálek. Ceny týchto staníc sa môžu pohybovať rádovo v desiatkach tisícok eur podľa výkonu grafických zdrojov. Preto útočníci využívajú skôr videá vo výrazne nižšej kvalite, ktoré sú na prvý pohľad rozmazané.
Na to, aby podvodník vytvoril skutočne vierohodnú kópiu vašej osoby, potrebuje tiež veľké množstvo vašich fotiek alebo videí vo vysokej kvalite. S rozšírením sociálnych sietí je síce stále jednoduchšie získať dáta o komkoľvek, no zároveň platí, že čím menej kvalitných vstupov podvodník má, tým väčšie úsilie musí vynaložiť, aby podvodné video vyzeralo reálne.
„Medzi štandardné neduhy podvodných videí patrí napríklad plastická mimika tváre, neproporcionálne symetrické rysy, ako napríklad ľavé ucho výrazne iné ako pravé, či zrnitosť v okolí tváre,“ zhŕňa Kubálek.
Článok vyšiel na Forbes.cz. Autorom je Martin Bajtler.