Umelá inteligencia (AI) v odpovediach na otázky používateľov v 45 percentách prípadov skresľuje spravodajský obsah, ukázala štúdia, koordinovaná Európskou vysielacou úniou (EBU).
Pätina odpovedí vykazovala faktické nepresnosti, napríklad zastarané informácie. EBU na základe štúdie, do ktorej sa zapojilo 22 verejnoprávnych médií z 18 krajín vrátane Česka, vyzvala na reakciu technologické firmy, regulátorov aj zákonodarcov. O výsledkoch štúdie ČTK informoval Český rozhlas (ČRo), ktorý sa jej zúčastnil.
Novinári zúčastnených verejnoprávnych médií skúmali viac ako 3000 odpovedí AI nástrojov v 14 jazykoch. Testovali nástroje ChatGPT, Copilot, Gemini a Perplexity. Sledovali štyri kľúčové kritériá – presnosť, uvádzanie zdrojov, rozlíšenie názorov a faktov a tiež kontextualizáciu.
45 percent so závažnou chybou
„Výsledky výskumu ukazujú, že takmer polovica odpovedí – konkrétne 45 percent – obsahovala aspoň jednu závažnú chybu. Najčastejším problémom bolo nedostatočné alebo zavádzajúce uvádzanie zdrojov, ktoré sa objavilo u 31 percent odpovedí. V pätine prípadov sa vyskytli faktické nepresnosti, vrátane takzvaných halucinácií alebo zastaraných informácií,“ uviedla riaditeľka strategického rozvoja ČRo Martina Májíček Poliaková.
Za halucináciu sa označuje situácia, keď AI vyprodukuje úplne vymyslený obsah.
Gemini pohorel
Najhoršie dopadol nástroj Gemini, pri ktorom hodnotitelia zaznamenali závažné pochybenia v 76 percentách odpovedí, prevažne pre chybné citovanie a nedohľadateľné výroky, zistila štúdia. Proti predchádzajúcej fáze výskumu vykonanej britskou verejnoprávnou BBC, ktorá závery zverejnila tento rok vo februári, sú nové výsledky síce lepšie, zároveň sa však podľa autorov terajšej štúdie potvrdilo, že v mýlení sa umelej inteligencie ide o systémový jav, nezávislý od konkrétneho jazyka, trhu alebo platformy.
Nepozná zákony
Ako príklady z českého prostredia ČRo uviedol, že AI asistent Perplexity tvrdil, že náhradné materstvo je v Česku zakázané zákonom. V skutočnosti nie je výslovne povolené ani zakázané, české právo ho nereguluje.
ChatGPT aj Copilot čerpali v ukážkovom príklade kľúčové informácie z webu prvnizpravy.cz, ktorý vojenskí spravodajcovia označili ako proruský dezinformačný kanál. Copilot ako odpoveď na otázku, čo robí NATO, využil vyjadrenie z rozhovoru s europoslancom Alexandrom Vondrom (ODS), ktoré predložil ako všeobecne platný fakt.
V odpovedi na otázku, čo vyváža Čína, využil Copilot rozhlasovú debatu, z ktorej ako fakty vybral názory jednej strany a pohľad druhého diskutéra zamlčal.
AI asistenti sa pritom pre mnohých ľudí stávajú hlavným zdrojom informácií, upozornili autori štúdie. Podľa zistení inštitútu spravodajskej agentúry Reuters ich využíva sedem percent užívateľov online spravodajstva a medzi mladými do 25 rokov až 15 percent.
Výsledkom spracovania správ AI asistentmi pritom môže byť výklad, ktorý nerešpektuje zásady kvalitnej žurnalistiky, uviedol generálny riaditeľ ČRo René Zavoral. „Preto je našou povinnosťou chrániť verejnosť pred skreslením a dezinformáciami, bez ohľadu na to, aký nástroj ich šíri,“ dodal.
Stále sa menia
Správa zo štúdie EBU upozorňuje, že kvalita odpovedí AI asistentov sa môže meniť s každou aktualizáciou. Odpoveď na otázku môže byť v jeden deň správna, ale v nasledujúci deň nepresná alebo zavádzajúca. EBU preto žiada pravidelné a nezávislé testy AI nástrojov a trvalý a koordinovaný dohľad nad tým, ako pracujú so spravodajstvom.
Technologické firmy by mali podľa EBU bezodkladne upraviť spôsob, akým ich asistenti odpovedajú na spravodajské otázky. Regulátori a zákonodarcovia by mali zabezpečiť, aby sa pravidlá na ochranu informačnej integrity dôsledne uplatňovali aj v prostredí umelej inteligencie, vyzvala vysielacia únia.
Zároveň je podľa nej potrebné posilniť mediálnu gramotnosť verejnosti a pomôcť ľuďom orientovať sa v nových technológiách.