Er ChatGPT vores kommende praktiserende læge? Det spørgsmål er de seneste år dukket op igen og igen.
Men en hændelse i USA viser, at ChatGPT endnu ikke altid er din bedste ven på dette område. En mand udviklede en sjælden lidelse, efter at en AI-bot havde givet ham et råd om, hvordan han kunne fjerne salt fra sin kost.
I 2023 bestod en AI-drevet medicinsk chatbot fra Google en krævende amerikansk lægeeksamen. Google-forskere lod programmet tage den såkaldte USMLE-prøve med multiple choice-spørgsmål. Med-PaLM opnåede en score på 67,6 procent og ville dermed have bestået.
"Med-PaLM præsterer lovende, men er stadig ringere end læger," lød det dengang fra forfatterne.
Det amerikanske medicinske tidsskrift Annals of Internal Medicine har for nylig beskrevet en sag, hvor brugen af ChatGPT som medicinsk hjælpemiddel førte til en sjælden sygdom.
Den 60-årige mand havde læst om de negative virkninger af køkkensalt (natriumchlorid) og spurgte AI-botten, hvordan han kunne fjerne det fra sin kost. ChatGPT svarede, at chlorid kunne erstattes med natriumbromid - et stof, der i begyndelsen af det 20. århundrede blev brugt som beroligende middel.
Efter tre måneders indtag af natriumbromid opsøgte manden skadestuen og påstod, at hans nabo havde forgiftet ham. Han havde blandt andet ekstrem tørst, søvnløshed og akne. Senere viste det sig, at natriumbromid var årsagen. Manden havde udviklet bromisme.
"Denne sag viser, hvordan brugen af kunstig intelligens potentielt kan bidrage til udviklingen af undgåelige negative helbredsmæssige resultater," skriver forfatterne fra University of Washington.
De havde ikke adgang til mandens oprindelige chat, men da de selv spurgte, hvad chlorid kunne erstattes med, fik de også bromid som svar.
"Selvom svaret nævnte, at konteksten er vigtig, blev der ikke givet en specifik sundhedsadvarsel eller spurgt, hvorfor vi ønskede at vide det - sådan som en medicinsk fagperson formentlig ville have gjort," forklarede de.
Ifølge forskerne bør man huske, at ChatGPT og andre AI-systemer 'kan generere videnskabelige unøjagtigheder, mangler evnen til kritisk at diskutere resultater og i sidste ende kan fremme spredningen af misinformation'.
De ser ChatGPT som et værktøj med stort potentiale til at bygge bro mellem forskere og offentligheden, men advarer mod, at information kan blive taget ud af kontekst. Det er 'meget usandsynligt', at en medicinsk ekspert ville have nævnt natriumbromid i dette tilfælde.
"Sundhedspersonale bør være opmærksomme på, hvor deres patienter henter sundhedsinformation," sagde de.
Der er også andre risici ved at bruge ChatGPT. Nogle anvender botten som personlig terapeut. AI kan virke empatisk, men for personer med alvorlige problemer kan det forværre den mentale sundhed.
En mand, der mistede sit job og blev depressiv, spurgte ChatGPT om de højeste broer i New York. En rigtig terapeut ville have grebet ind, mens ChatGPT blot gav ham en pæn liste.
Også seksuelle spørgsmål kan være problematiske. Britisk forskning viser, at mange unge bruger ChatGPT som en form for seksualundervisning. Men ifølge eksperter er det uklart, hvor svarene stammer fra, og botten kan derfor komme til at give forkerte eller uhensigtsmæssige råd.