Je svetovým odborníkom na filozofiu, logiku, etiku a morálku v online médiách. V exkluzívnom rozhovore pre český Forbes upozorňuje Luciano Floridi na kvalitu a obsah informácií dosiahnuteľných pomocou umelej inteligencie.
Patrí medzi najcitovanejších súčasných filozofov a zapája sa do politických iniciatív týkajúcich sa sociálno-etických hodnôt a vplyvu digitálnych technológií. Informácie v nich chápe ako súbor usporiadaných dát, ktoré by mali plniť úlohu pravdy. Práve to však môže byť aj najväčším technologickým omylom súčasnosti.
Informácie závisia na sprostredkovateľovi, ktorý je schopný interpretovať nielen jednotlivé dáta, ale aj kontext. Ten je spolu s obsahom aj hodnotou informácií v rámci umelej inteligencie obmedzený.
AI ako vyššia sila
Taliansky filozof spolu s Nietzschem tvrdia, že Boh je mŕtvy – a príroda tiež. Ožívajú teda technológie? „Postupne sme stratili prírodu aj Boha. Niet divu, že ľudia začínajú veriť AI ako ďalšej forme vyššej sily,“ hovorí Floridi.
Zodpovednosť je pritom podľa neho na našich pleciach a mali by sme sa vedieť spoľahnúť sami na seba. Náš život prirovnáva k šachovej hre: mnoho ťahov treba predvídať na začiatku, aby sme nakoniec vyhrali, pretože stratégia vždy víťazí nad obyčajnou taktikou.
O myslenie za roh sa profesor Floridi snaží aj z hľadiska etiky a morálky v médiách. „Mali by sme v sebe hýčkať pocit nedôvery a kritického myslenia,“ nabáda.
Ľudia v Českej republike začínajú používať umelú inteligenciu v snahe uľahčiť si život. Čo o nej treba vedieť z hľadiska etiky a ochrany údajov?
Samozrejme, že nástroje umelej inteligencie sú pohodlné a celkom ľahko sa používajú. Mnohé úlohy vyriešia za nás, a tak máme tendenciu používať umelú inteligenciu na čoraz širšiu škálu činností.
Nechcem vyložene poukazovať na nejaké problémy prstom, ale musím spomenúť súkromie. Táto záležitosť sa s nami tiahne po celú dobu digitálnej revolúcie a dnes je všetko ešte komplexnejšie.
V akom zmysle?
Musíme vziať do úvahy, že akékoľvek dáta, ktoré do umelej inteligencie vložíme, môžu byť použité ďalej. Ak napríklad potrebujete napísať výročnú správu, zadáte umelej inteligencii dáta, ktoré chcete zhrnúť a analyzovať, no nespadajú pod žiadnu ochranu. Môžu zmiznúť, môžu byť zneužité… Teoreticky aj k nemorálnym a nelegálnym činnostiam, a to sa bavíme len o rovine používateľa.
Pozrime sa napríklad na nástroje pracujúce s obrázkami. Dajme tomu, že máte firmu, potrebujete urobiť kampaň na nový produkt a chcete ušetriť za grafický dizajn. Pri používaní týchto nástrojov však potrebujete poznať autorské práva a duševné vlastníctvo týkajúce sa obrázkov, ktoré boli vytvorené.
Háčik je v tom, že mnoho týchto nástrojov sa učilo na materiáli, ktorý je chránený autorským právom. Stáva sa teda, že reprodukujú veci, ktoré v skutočnosti nie sú voľne použiteľné. Pri vygenerovanom obsahu potom nie je jasné, kto čo vlastní.
A čo hojne prepieraná diskriminácia?
Pokiaľ pracujem v banke a rozhodnem sa nástroje a algoritmy umelej inteligencie využívať tak, aby som zasiahol viac zákazníkov, môže sa stať, že spätne zistím, ako niektorých neúmyselne diskriminujem. Medzi vybranými môžu byť ľudia len určitého zázemia alebo špeciálny profil, pohlavie, etnicita…
Musíme sa zamyslieť nad generovaním obsahu z hľadiska súkromia a duševného vlastníctva. Ďalej nad zlepšením algoritmov, aby neprispievali k predsudkom, diskriminácii a nespravodlivosti v spoločnosti. Prirovnal by som to ku knihe s mnohými a mnohými kapitolami.
Čo na to legislatíva?
Zákony o umelej inteligencii sa snažia obmedziť riziká, obzvlášť z hľadiska posudzovania daných nástrojov a certifikácie. Niekto jednoducho bude musieť preveriť, ako sú modely chránené. Zrejme budeme musieť prísť s úplne novým priemyslom, ktorý sa na to z európskeho hľadiska zameria.
Už som videl nejaké dôkazy z hľadiska riadenia rizík. Rovnako ako sa poistíme, keď šoférujeme auto, tak si poistíme proti dopadom AI náš dom alebo život.
Ako k umelej inteligencii všeobecne užívateľsky pristupovať?
S nedôverou a kritickým prístupom. Nedôvera znamená používať tieto nástroje a vždy premýšľať, čo by sa mohlo pokaziť. Kto ďalej použije dáta, ktoré do nej vkladám? Prezradím niečo dôležité? Uvádzam napríklad podrobnosti o svojej rodine?
A ten kritický prístup?
Kritické myslenie aplikujeme, keď sa zaoberáme spoľahlivosťou toho, čo pre nás tieto nástroje robia.
Môžete dať konkrétny príklad?
Dajme tomu, že chcem poznať trend inflácie a zadám ho do ChatGPT. Musím presne zvážiť, aké otázky budem klásť, aby som dosiahol informácie, ktoré potrebujem. Spýtal som sa správne? A ak áno, dostal som odpoveď, ktorú som potreboval? Spoznám, že je správna?
Ak je odpoveď zlá, môžem to nejako overiť? Aký je tu priestor na kritické myslenie a overovanie zdrojov? Alebo si jednoducho poviem: keď to hovorí ChatGPT, musí to byť pravda. Ak nájdem chybu, môžem ju opraviť?
Povedzme, že vám softvér odpovie, že inflácia v Európe bola medzi rokmi 2000 a 2010 priemerne 35 percent.
To je na prvý pohľad mimo.
Áno, ale uvedomíme si to, keď nám to ChatGPT naservíruje? A opravíme to ako nesprávnu odpoveď? Tu vidíte, že je nesmierne dôležité klásť tie správne otázky v správnom poradí.
Dám vám ďalší príklad. Keď sa spýtate ChatGPT, kde som sa narodil, takmer vždy vám odpovie, že v Ríme, čo je správne. Niekedy vám to však odpovie Janov, kde žije môj brat, ktorý má, samozrejme, rovnaké priezvisko. Pokiaľ si takú informáciu neoverím a neopravím ju, znamená to, že pracujem s dezinformáciou, akokoľvek ide v tomto prípade o vtipný a neškodný príklad.
Situácia ale môže byť závažnejšia…
Predstavte si, že pôjde o žiadateľa o hypotéku a pracujeme s predpokladom, že ChatGPT má takmer vždy pravdu, ale nie vždy. Ako rozoznáme, kedy áno? Máme potrebné nástroje, zručnosti a odborné znalosti na nápravu chyby, ktorú umelá inteligencia vytvorila?
K automatizácii dochádza aj v masmédiách. Čo hrozí tam?
Niektoré talianske médiá napríklad úplne poplietli informácie počas odovzdávania Oscarov, zjavne vyrobené nejakým rozhraním umelej inteligencie. Opäť sa nestalo nič zlé, pretože to bola len zlá informácia. Bolo to ľahko opravené.
Predstavte si však, že ide o život, zárobok alebo kritické informácie pre jednotlivcov, rodinu, spoločnosť, vládnu organizáciu… Potom sa dostávame do skutočných problémov.
Sme rozmaznaní vymoženosťami?
Ľudská chuť po nových veciach je bezhraničná a rovnako aj naša chuť nerobiť veci, ktoré robiť musíme. Aj umelá inteligencia za nás robí veci, ktoré nechceme robiť.
Ako ju používate vy?
Na vyplňovanie formulárov, na zhrnutie mojich publikácií alebo na zhrnutie môjho životopisu v tristo slovách. To všetko sú veci, ktoré by som mohol robiť, ale nemám na to veľa času. ChatGPT ich zvládne ľahko.
Máme brať AI ako nejakého „autopilota“?
Takto je všeobecne vnímaná. Ako druhý pilot, nie ako robot, ktorý napríklad žehlí namiesto nás.
V jednej z prednášok nadväzujete na Nietzscheho, že Boh je mŕtvy – a podľa vás aj príroda. Čo je teda nažive? Umelá inteligencia?
Keď sa obzrieme do minulosti, všetci grécki bohovia majú blízky vzťah k prírode. Bohovia a bohyne morí, riek, neba, ale aj vášne a vojny. Neskôr sme ich nahradili jedným Bohom, ktorého existencia, rovnako ako príroda, pomáha dať nášmu životu zmysel.
Ľudia začínajú veriť v AI ako ďalšiu formu vyššej sily. Môže byť silnejšia a ohromujúca. Možno prevezme vládu, možno dá zmysel nášmu životu.
Postupne sme však stratili prírodu aj Boha. Niet divu, že ľudia začínajú veriť v AI ako ďalšiu formu vyššej sily. Môže byť silnejšia a ohromujúca. Možno prevezme vládu, možno dá zmysel nášmu životu.
Zmysel?
Niektorí ľudia aj Googlu kladú otázky typu „akú prácu by som mal mať“ alebo „je mi môj partner neverný“. Neberú ho ako vyhľadávač, ale skôr ako konečný zdroj pravdy. To isté dnes robia s ChatGPT. Mám si vybrať túto školu alebo inú? Je toto tá správna práca pre mňa?
Neverím v neexistenciu Boha, ale myslím si, že je najlepšie spoľahnúť sa sám na seba. Žiadna príroda, žiadny Boh, žiadna umelá inteligencia. Zodpovednosť je na našich pleciach. Vrátane zodpovednosti za to, aby boli naše životy zmysluplné.
Ako vnímate legislatívu Európskej únie zameranú na reguláciu umelej inteligencie?
Bude záležať na tom, ako rôzni členovia Európskej únie zákon o umelej inteligencii implementujú. Ponecháva veľký priestor pre flexibilitu a je otvorený interpretácii. Niektoré krajiny ho budú interpretovať veľmi prísne a takmer pracovať proti inováciám. Iné zase veľmi ústretovo.
Sú etické porozumenie a hodnoty pre každú krajinu unikátne a menia sa časom?
Najčastejšie sa môžu líšiť z hľadiska priority, ktoré hodnoty sú dôležitejšie, no nemyslím, že keď majú dve krajiny rôzne hodnoty, sú nezlučiteľné. Len nekompatibilné. Čína napríklad vydala tzv. Pekinské princípy, veľmi podobné základným pravidlám OECD, len s veľkým dôrazom na sociálnu zodpovednosť a oveľa menej na individuálnu autonómiu.
Táto rozmanitosť môže byť sama o sebe cenným aspektom. V Európe základné hodnoty zdôrazňujú ľudskú dôstojnosť. V Spojených štátoch ide o slobodu slova alebo voľný trh. V Číne je to sociálna istota a bezpečnosť. A existuje snáď na svete niekto, kto nechce mať sociálne bezpečie a istotu, nechce mať ľudskú dôstojnosť, nechce mať slobodu slova? Samozrejme, že nie.
Je to, akoby sme si písali rôzne odseky na rovnakej stránke. Otázkou je, či postupujeme smerom k stále väčšej konvergencii.
Čo teda radíte z hľadiska orientácie v etických výzvach digitálneho sveta?
Nevoľme skratky a zvážme dlhodobé dôsledky a dôsledky rozhodnutia, ktoré sa má urobiť. Veľa toho, čo robíme, sa podobá hre šachu. Aby sme nakoniec vyhrali, treba mnoho ťahov predvídať na začiatku. Stratégia vždy víťazí nad obyčajnou taktikou.
Článok vyšiel na Forbes.cz. Autorkou je Julie Mahlerová.