Ilustrační foto: Wikimedia Commons

Umělá inteligence s léčbou rakoviny neporadí. Míchá správné rady s nesprávnými, zjistila studie

Nová doba přeje technologickým inovacím nejen ve zdravotnictví a někdy se může zdát, že neexistuje hranice jejich možností. Ve vědeckém časopise JAMA Oncology však nyní vyšla studie, jejíž výsledky naznačují, že ještě nenastal čas, aby si lékaři sbalili fidlátka. Jejím předmětem byl populární program ChatGPT využívající umělou inteligenci. Ten je schopen dát odpověď prakticky na jakoukoliv otázku, a to z oblasti zdravotního. Vědci ovšem nyní zkoumali, jak si vede v doporučeních, týkajících se léčby rakoviny, a u některých odpovědí se nestačili divit. Část jich totiž byla nesmyslná. Na publikaci studie upozornil zpravodajský web Fox News.

Studii vypracovali výzkumníci ze tří odborných institucí, Mass General Brigham, Memorial Sloan Kettering Cancer Center a Boston Children’s Hospital. Chatbota konfrontovali se 104 různými dotazy týkajícími se léčby rakoviny a jeho odpovědi nechali vyhodnotit zkušenými onkology. Celkově dosáhl program nepřesvědčivého výsledku 61,9 procent.

„Velké jazykové modely dokážou složit celostátní lékařské licenční zkoušky, kódovat klinické znalosti a stanovit diagnózu lépe než laici. Chatbot si však nevedl dobře při poskytování přesných doporučení pro léčbu rakoviny,“ uvádějí autoři studie. Hlavním problémem bylo to, že robot míchal správná i nesprávná doporučení dohromady. Ve 12,5 procentech případů pak byly odpovědi zcela „vyhalucinované“, tedy obsahovaly rady, které nejsou součástí žádného doporučeného způsobu léčby.

„Jde o závažný problém, protože by to mohlo vést k dezinformacím a potenciálně škodlivým rozhodnutím pacientů,“ cituje Fox News Harveyho Castra, lékaře pohotovostní medicíny a odborníka na umělou inteligenci z texaského Coppellu.

Spoluautorka studie, docentka radiační onkologie na Harvard Medical School Danielle Bittermanová však uvedla, že výsledky celkově splnily očekávání. Je podle ní třeba brát v potaz, že chatbot není primárně určen k podávání přesných informací, nýbrž k simulaci lidského jazyka. „Naše výsledky ukázaly, že model umí plynule mluvit a napodobovat lidskou řeč. Ve zdravotním poradenství je ovšem náročné rozeznat správné od nesprávných informací,“ dodala. Přestože zatím nejsou výsledky nejpřesvědčivější, Bittermanová věří, že do budoucna bude spolupráce podobných programů a lékařů přínosná.

Tato budoucnost přitom může být ještě blíž, než se může zdát. Výzkumníci totiž pro studii použili dnes již starší verzi ChatGPT 3.5. Brzy po jejím skončení ovšem tvůrci programu, společnost OpenAI, přišli s novějším modelem ChatGPT 4, jehož funkce jsou obecně vzato dokonalejší než v předchozích verzích.

I tak je podle odborníků dobré být ohledně rad od chatovacího robota obezřetný. „Přestože chatboti s umělou inteligencí mohou být cenným nástrojem, měli by být používáni jako doplněk, nikoli jako náhrada odborného lékařského poradenství,“ varuje Castro. S tím v zásadě souhlasí i Bittermanová. „V sázce je příliš mnoho, pokud se nám to nepodaří – a bezpečnost pacientů je nejdůležitější,“ dodala závěrem.

-fk-