Umelá inteligencia má v zdravotníctve potenciál zásadne zlepšiť diagnostiku, personalizáciu liečby, efektívnosť zdravotných systémov aj dostupnosť starostlivosti. Napriek tomu jej reálne nasadzovanie postupuje podstatne pomalšie, než by naznačovali technologické možnosti. Príčinou nie je nedostatok inovácií, ale súbeh právnych, dátových, organizačných a etických prekážok, ktoré robia zo zdravotníctva jeden z najnáročnejších sektorov pre aplikáciu AI.
AI je taká dobrá, aké kvalitné sú dáta, z ktorých sa učí. V zdravotníctve však čelíme fragmentácii dát, ich neštandardizovanosti a obmedzenej interoperabilite medzi nemocnicami, poisťovňami a štátom. Elektronické zdravotné záznamy sú často neúplné, vedené v rozdielnych formátoch a s nejednotnou terminológiou.
Zároveň ide o mimoriadne citlivé osobné údaje. Právna ochrana zdravotných dát je správna a nevyhnutná, no v praxi často vedie k paralýze – poskytovatelia sa obávajú delenia o dáta aj tam, kde by to bolo zákonné a spoločensky prospešné. Bez systematického riešenia dátovej infraštruktúry a jasných pravidiel sekundárneho využívania zdravotných dát zostane AI len v pilotných projektoch.
Práve do tejto „dátovej medzery“ má vstúpiť European Health Data Space (EHDS) – nový európsky rámec, ktorý má postupne zjednotiť pravidlá nielen pre primárne využitie zdravotných dát v starostlivosti, ale aj pre ich sekundárne využitie (výskum, inovácie, tvorba politík či regulácia). Kľúčový posun má byť v tom, že namiesto dnešného nepredvídateľného a lokálneho rozhodovania na úrovni jednotlivých poskytovateľov zdravotnej starostlivosti, sa má presadiť štandardizovaný a predvídateľný proces založený na jasne definovaných účeloch, povoľovaní prístupu a kontrolovaných podmienkach spracovania informácií.
Zároveň sa má presadzovať princíp, že s dátami sa bude pracovať v bezpečnom (kontrolovanom) spracovateľskom prostredí, namiesto ich nekontrolovaného kopírovania medzi subjektmi. Treba však dodať, že EHDS nebude funkčný zo dňa na deň – jeho uplatňovanie je naplánované postupne a reálny prínos bude závisieť od implementácie v členských štátoch (od kapacity prístupových orgánov, kvality dát, interoperability). Práve tlak na interoperabilitu a štandardy je pritom podmienkou, aby AI riešenia neboli použiteľné len v jednej nemocnici či jednom systéme, ale aby sa dali reálne validovať a škálovať naprieč zdravotníckym ekosystémom.
Zdravotníctvo je regulované oprávnene prísne, no AI do tohto rámca prináša nové otázky. Kto nesie zodpovednosť, ak AI odporučí nesprávnu diagnózu? Je to výrobca algoritmu, poskytovateľ zdravotnej starostlivosti alebo lekár, ktorý odporúčanie použil?
Nové európske pravidlá pre AI a zdravotnícke pomôcky posilňujú bezpečnosť, ale zároveň zvyšujú náklady a čas potrebný na uvedenie riešení na trh. Pre startupy a menšie inovátorské tímy to môže znamenať faktickú bariéru vstupu. Bez primeranej rovnováhy medzi ochranou pacienta a podporou inovácií riskujeme, že sa vývoj presunie mimo EÚ.
V praxi by túto rovnováhu mohlo zlepšiť najmä to, aby sa regulačné očakávania pre AI v medicíne prestali vnímať ako „posledná prekážka pred trhom“, ale ako jasne čitateľná trajektória už od začiatku vývoja. To znamená zrozumiteľné metodiky, čo presne sa očakáva pri klinickej validácii, ako sa posudzuje bezpečnosť pri aktualizáciách modelu (najmä pri modeloch, ktoré sa menia), a čo sa vyžaduje v rámci monitoringu po nasadení.
Zároveň sa v praxi ukazuje, že veľa neistoty sa dá odstrániť aj zmluvne – presným vymedzením indikácií, limitov použitia a zodpovedností medzi výrobcom, poskytovateľom a používateľom vrátane toho, kedy ide o rozhodnutie podporené AI a kedy o automatizované rozhodovanie bez primeraného dozoru.
Jednou z častých ilúzií je predstava, že AI „nahradí lekárov“. V praxi však AI pracuje najlepšie ako podporný nástroj – zvyšuje presnosť, rýchlosť a konzistentnosť rozhodovania, no nenahrádza klinický úsudok, empatiu ani zodpovednosť.
Problémom je, že mnohé AI riešenia sú vyvíjané bez dostatočného zapojenia zdravotníkov. Výsledkom sú nástroje, ktoré sú technicky sofistikované, ale zle zapadajú do reálneho pracovného toku nemocníc. Ak má byť AI prijatá, musí šetriť čas lekára, nie ho zaťažovať ďalšími systémami a administratívou.
Najpragmatickejšia cesta preto vedie cez dizajn „od kliniky“, nie „od technológie“. Ak je nástroj vyvíjaný v úzkej spolupráci s klinikami a je integrovaný priamo do existujúcich workflowov, šanca na reálne používanie rastie dramaticky. Rovnako dôležité je, aby sa úspech nemeral len metrikami presnosti v laboratórnych podmienkach, ale tým, čo zaujíma systém: skrátenie času, zníženie chybovosti, rýchlejšie triáže, menšie preťaženie personálu a merateľný vplyv na výsledky.
Zdravotníctvo stojí na dôvere – medzi pacientom a lekárom aj medzi pacientom a systémom. „Čierna skrinka“ AI, ktorá nedokáže vysvetliť svoje rozhodnutia, naráža na prirodzený odpor. Lekári potrebujú chápať tomu, prečo im algoritmus odporučil konkrétny postup, inak ho nebudú používať alebo ho budú používať defenzívne.
Transparentnosť, pochopiteľnosť a auditovateľnosť algoritmov sú preto kľúčové vlastnosti, no ich implementácia je technicky aj právne náročná. Bez dôvery profesionálov aj verejnosti zostane AI v zdravotníctve vnímaná skôr ako riziko než ako pomoc.
Dôvera sa nevytvára deklaráciami, ale auditovateľnosťou. V praxi preto pomáha, keď systém dokáže pracovať s neistotou (napríklad ukáže mieru istoty odporúčania), keď je možné spätne vysvetliť, na základe čoho vznikol výstup, a keď existuje audit trail – teda záznam o tom, čo AI navrhla, kto to videl a ako s tým človek naložil. Pri komunikácii smerom k pacientovi zároveň rozhoduje transparentnosť: kde AI pomáha, čo nerobí, že zodpovednosť za rozhodnutie zostáva na človeku.
Ďalšou zabudnutou prekážkou, o ktorej sa veľmi nehovorí, je pripravenosť ľudí, ktorí s ňou majú pracovať. Bez systematického vzdelávania zdravotníkov sa totiž aj kvalitné riešenie stretne s odporom, nesprávnym používaním alebo úplným obchádzaním.
Zároveň, ak zdravotník nevie, čo systém reálne robí a čo nerobí, prirodzene mu nebude dôverovať – alebo naopak, bude mu dôverovať nekriticky, pričom obe situácie sú pomerne rizikové.
Preto je ďalším nemenej dôležitým predpokladom úspešnej implementácie aj AI kontinuálne vzdelávanie, tréning na reálnych prípadoch, jasné interné pravidlá používania a budovanie gramotnosti v oblasti umelej inteligencie v zdravotníckych tímoch. Len vtedy sa potenciál AI premietne do reálnej praxe – bezpečne, efektívne a s merateľným prínosom.
Ak chceme, aby umelá inteligencia reálne zlepšovala zdravotnú starostlivosť, musíme paralelne riešiť dáta, reguláciu, klinickú prax, dôveru aj vzdelávanie osôb, ktoré s ňou majú pracovať. AI v zdravotníctve nebude revolúciou zo dňa na deň – bude to postupná evolúcia, ktorá si vyžaduje spoluprácu technológov, lekárov, právnikov, regulátorov, ako i všetkých relevantných subjektov, ktoré ovplyvňujú chod zdravotníctva.