Rozsiahly výskum, ktorý takmer presne pred rokom uskutočnila spoločnosť Barracuda Networks spolu s univerzitami v Kolumbii a Chicagu, prišiel so znepokojivým zistením. Väčšinu spamových e-mailov, konkrétne 51 percent, vytvorila generatívna umelá inteligencia.
Tá preukázateľne vytvára oveľa uveriteľnejšie podvodné e-maily ako človek. Dokonca tak, že ich čím ďalej, tým častejšie neodhalia ani automatické spamové filtre.
V čase pred vzostupom veľkých jazykových modelov bolo možné phishing a spam veľmi ľahko odhaliť obyčajnou kontrolou e-mailu z pohľadu štylistiky a množstva pravopisných a gramatických chýb. Kostrbaté e-maily plné chýb totiž boli ukážkovým príznakom phishingových a ďalších podvodných kampaní.
Generatívna umelá inteligencia tento príznak nielen eliminovala, ale s tým, ako sa stále zlepšuje, sú útoky, ktoré ju využívajú, stále efektívnejšie. Realita sa tak stáva čoraz viac dystopickou.
Partner pražskej venture kapitálovej spoločnosti Presto Ventures a spoluzakladateľ Českej startupovej asociácie Vojta Roček publikoval nedávno zdanlivo apokalyptický a pomerne obsiahly tweet, v ktorom tvrdí, že sme iba niekoľko mesiacov od obdobia, v ktorom prakticky prestanú fungovať spamové filtre v e-mailoch a po nich tiež ďalšie pasívne mechanizmy zabezpečenia, na ktoré sme sa v minulosti spoliehali.
„AI všeobecne prináša automatizáciu hyperpersonalizácie. To, čo predtým chodilo v tisícoch identických kópiách všetkým príjemcom alebo to personalizovalo nejaké indické call centrum, dnes AI dokáže škálovať za zlomok ceny. Nejde však len o to, útok na každého z nás môže byť perfektne personalizovaný a využívať proti nám naše vlastné mentálne vzorce a znalosti,“ približuje pre český Forbes.
Napríklad deepfake hlas našich blízkych nás môže nenápadne nasmerovať do náručia podvodníkov, pretože zdanlivo nehovorí nič, čo by sme od nich bežne nečakali. Zdroj hlasu pritom nie je také ťažké získať. „Predstavte si napríklad červa, ktorý sa dostane cez infikovaný odkaz do vášho WhatsAppu, načíta si komunikačný korpus s vaším najbližším človekom a okamžite začne komunikovať ako vy,“ opisuje Roček.
V najväčšom ohrození sú pochopiteľne starší ľudia. Roček uvádza možný konkrétny scenár podvodu krok za krokom: matke najskôr zavolá dcéra s varovaním pred podvodníkmi, ktorí v poslednom čase okrádajú seniorov, a odporučí jej, aby si uložila peniaze na bezpečnejšie miesto, napríklad k ČNB alebo polícii.
Potom zavolá niekto, kto sa vydáva za policajta, predstaví sa napríklad ako plukovník, potvrdí, že im dcéra volala a že skutočne majú potvrdené, že sa na seniorku podvodníci chystajú. Následne jej ponúkne pomoc s prevodom na „bezpečný účet“ a oznámi, že detaily pošle cez WhatsApp.
Potom príde obrázok oficiálne vyzerajúcej listiny s digitálnym podpisom, s detailmi platby a odkazom na jej vykonanie. Ak k prevodu do minúty nedôjde, začnú seniora bombardovať správy a telefonáty ďalších príbuzných a pýtať sa, prečo mamička prostriedky ešte nepreviedla, keď o ne takto môže hneď prísť.
To všetko je možné s dnešnými prostriedkami urobiť za relatívne malé náklady.
Nikto nie je v bezpečí
Podľa Ročka nie sú v bezpečí ani tí ostražitejší z nás. Na tých vraj pre zmenu čakajú automatizované útoky na dodávateľský reťazec. Útočníci do softvérových balíčkov inštalovaných našimi vlastnými AI agentmi nasadia trójske kone, ktoré „preňúrajú“ každý náš chat a nájdu všetky naše osobné dáta a doklady, následne sa pripoja tam, kde to pôjde, extrahujú odtiaľto všetko, čo má nejakú hodnotu.
Najhoršie na tom celom podľa neho bude, že si ani nevšimneme, že nás niekto práve okráda. Najzraniteľnejší sú pochopiteľne ľudia s hlbokou digitálnou stopou, hlavne na sociálnych sieťach ako LinkedIn, X, Facebook či Reddit.
„Nepomôže pritom ani anonymizácia pomocou prezývok, pretože AI už dnes dokáže veľmi úspešne párovať v textovom korpuse unikátny vyjadrovací štýl naprieč platformami. Už len množstvo e-mailov, ktoré mi za posledný mesiac ponúkli inštaláciu zaručene bezpečného softvéru pre môj Trezor (hardvérová kryptopeňaženka – pozn. redakcia), a ktoré bez problémov prešli inak tak výkonnými filtrami Gmailu, je zarážajúce. Systémová ochrana sa rúca,“ uzatvára Roček chmúrne.
Skutočne nás čaká bezpečnostná AI apokalypsa, alebo bude realita menej dramatická?
„V našich dátach vidíme, že útoky zneužívajúce dôveryhodne pôsobiaci obsah a tlačiace používateľov k nebezpečnej akcii vzrástli v prvej polovici roku 2025 o 517 percent a stali sa druhým najčastejším vektorom útoku po phishingu,“ vyhlasuje Vítězslav Pelc z kyberbezpečnostnej spoločnosti Eset.
„Umelá inteligencia útočníkom pomáha zvyšovať kvalitu phishingu, personalizáciu aj vierohodnosť podvodov, ale nevidíme zatiaľ silný dôvod tvrdiť, že práve v najbližších mesiacoch pre autonómnu AI a agentov prestanú fungovať spamové filtre,“ hovorí Pelc.
AI podľa neho bude v najbližšom období zvyšovať účinnosť a objem existujúcich techník sociálneho inžinierstva. „Je však rovnako dôležité dodať, že AI nehrá len na strane útočníkov, ale používa sa aj v obrane – pri detekcii a klasifikácii hrozieb,“ dodáva expert jedným dychom.
David Řeháček zo spoločnosti Check Point Software Technologies je menej optimistický. Podľa neho sa dnes dokonca nachádzame v oveľa kritickejšom bode, ako je „len“ obava z kolapsu spamových filtrov.
Prakticky všetky tradičné reputačné systémy alebo klasické firewally boli podľa jeho slov navrhnuté pre svet, kde je možné hrozby identifikovať na základe známych a rozpoznateľných vzorov. A také prostredie práve prestalo existovať.
„V skutočnosti sa podceňuje rýchlosť, s akou sa kybernetické hrozby a útoky využívajúce AI vyvíjajú. Sociálne siete sú zaplavené AI podvodmi, pričom mnoho z nich je dokonca promovaných ako reklamy, aby sa zvýšil ich dosah – od zoznamovacích platforiem až po falošné obchody. S perfektnou slovenčinou a lokalizovaným obsahom,“ vysvetľuje Řeháček.
Spoločnosť Check Point Software Technologies už vlani v lete varovala pred digitálnymi dvojičkami, ktoré nie sú iba kópiou tváre a hlasu, ale plnohodnotnou AI replikou zvládajúcou napodobniť ľudské myslenie a správanie. Táto hrozba, ktorá ešte pred rokom vyzerala ako strašiak z budúcnosti, je dnes úplne reálna a nástroje na ich tvorbu je možné kúpiť na darknetových fórach.
„Už sa nedá veriť ničomu, čo vidíte a počujete online. Krízou prechádza aj overovanie identity na základe zvuku a obrazu a na hackerských fórach sa predávajú komplexné kriminálne telefónne systémy s umelou inteligenciou,“ dodáva Řeháček.
Takýto „tovar“ možno navyše podľa Řeháčka zaobstarať s relatívne nízkymi nákladmi. Pokročilé AI telefónne systémy sa dnes predávajú ako iný biznisový softvér a na trhu ich zoženiete za cenu okolo 20-tisíc dolárov, vrátane školenia a podpory.
Na jednorazový útok si potom môžete prenajať cloudový variant za vstupný poplatok päťsto dolárov a 1,5 dolára za minútu. Boty následne z týchto platforiem volajú potenciálnym obetiam a podľa vopred pripravených scenárov získavajú prihlasovacie údaje k bankovým účtom a ďalšie cenné dáta alebo navedú obeť na stiahnutie malwaru.
Umelá inteligencia navyše dokáže pri hovore prispôsobiť svoje ciele v reálnom čase na základe analýzy reakcií obetí, čím sa oproti klasickému volaniu živými ľudskými operátormi opäť zvyšuje pravdepodobnosť úspechu. Umelá inteligencia je totiž na rozdiel do človeka schopná sa ľahšie odchýliť od scenára a zvládnuť neočakávané situácie pri ľubovoľnej téme, v ktorejkoľvek oblasti aj jazyku.
AI kompletne mení situáciu aj ďalšími spôsobmi. Napríklad jediný hacker vytvoril s pomocou AI za týždeň kybernetickú zbraň, malware VoidLink, ktorú by dobre financovaná profesionálna skupina vytvárala mesiace.
„Dokonca aj samotné využívanie generatívnej umelej inteligencie je hrozbou. Každé 31. zadanie odoslané z podnikových sietí bolo vo februári vyhodnotené ako veľmi rizikové s možnosťou úniku citlivých dát. Problém sa týkal dokonca 88 percent organizácií pravidelne používajúcich AI nástroje,“ hovorí Řeháček.
„Je úplne zásadné prehodnotiť celú bezpečnostnú architektúru, zabezpečiť všetko od infraštruktúry cez užívateľov až po AI systémy a prejsť od detekcie na prevenciu,“ uzatvára expert.
Ďalším dôležitým bodom podľa neho bude aj proaktívny monitoring externých zdrojov, ako je darknet, Telegram alebo napríklad sociálne siete, a hľadať, či už sa neobchoduje s potenciálne zneužiteľnými dátami alebo či kyberzločinci nehľadajú insiderov, ktorí by pomohli s útokom.
S tým, že opraty v obrane bude musieť čoraz viac preberať prevencia, sa stotožňuje aj technologický riaditeľ spoločnosti Everpure pre Európu a Blízky východ Patrick Smith.
„S tým, ako AI zvyšuje sofistikovanosť, rozsah a mieru automatizácie kybernetických útokov, prestávajú tradičné bezpečnostné nástroje zamerané iba na prevenciu a detekciu stačiť. Organizácia musí okrem prevencie počítať aj s tým, ako útok zvládnuť, a rýchlo a bezpečne sa z neho zotaviť,“ hovorí Smith.
Práve tu nadobúda na význame koncept kybernetickej odolnosti (cyber resilience). Ten spája tradičnú prevenciu a detekciu s veľmi rýchlou obnovou a stojí na komplexnom prístupe, ktorý zahŕňa vstavané zabezpečenie na úrovni dátového úložiska, prepojenú detekciu hrozieb a dynamickú reakciu a obnovu.
„V tomto kontexte je potrebné vnímať aj predikcie o takzvanom kolapse spamových filtrov. Nejde o jednorazové zlyhanie, skôr je to prejav širšej zmeny. Hlavným problémom je, že útoky generované pomocou AI sú stále presvedčivejšie a ťažšie rozlíšiteľné od legitímnej komunikácie,“ vysvetľuje Smith.
Podľa britského Národného centra kybernetickej bezpečnosti aktuálne dochádza v Spojenom kráľovstve každý týždeň k štyrom „národne významným“ kybernetickým útokom.
Tento vývoj je znepokojujúci. Zatiaľ čo mnoho týchto útokov doteraz riadili ľudia, typicky prostredníctvom sociálneho inžinierstva či phishingových kampaní zameraných na používateľov, dnes sa v nich stále viac hlási o slovo AI. Automatizovaný phishing, adaptívny malware a ransomware generovaný pomocou AI sa postupne stávajú každodennou realitou hrozieb.“
Vyhrá nakoniec AI na strane útočníka alebo obrancov? A príde nakoniec v kybernetickej obrane k slovu stará dobrá detektívna práca ako z Chandlerových detektívok? To ukáže budúcnosť, ktorá už nie je ani tak za rohom, ako skôr doslova pred očami.
Autor článku je Karel Wolf, Forbes.cz