Uit een recent gepubliceerd onderzoek blijkt dat adviezen over mentale gezondheid, gegeven door artificiële intelligentie chatbots, tekortschieten. Het grote voordeel van deze bots is dat ze altijd beschikbaar zijn, meestal gratis en worden gevoed door gigantische hoeveelheden data, Ze lijken daarmee een handige aanvulling op onze dagelijkse besluitvorming. Maar onderzoek van het Georgia Institute of Technology stelt kritische vragen bij de effectiviteit van AI bij serieuze gezondheidsproblemen, zoals mogelijke bijwerkingen van psychiatrische medicatie.
Volgens de onderzoekers presteren AI-chatbots momenteel ondermaats wanneer het aankomt op het herkennen van bijwerkingen van psychiatrische medicatie. Hun bevindingen werden gepresenteerd tijdens de NAACL 2025-conferentie en gepubliceerd via het arXiv-platform.
Wel empatisch, maar adviezen schieten tekort
Om hun studie uit te voeren, analyseerden de onderzoekers berichten van gebruikers op Reddit - een populair platform waar mensen anoniem (onder andere) hun medische zorgen delen. Deze berichten werden gebruikt om na te gaan hoe goed verschillende AI-modellen, waaronder GPT-4o en medische modellen zoals Med-PaLM, in staat waren om bijwerkingen te herkennen en adequaat advies te geven.
In samenwerking met psychiaters en studenten psychiatrie stelden de onderzoekers een toetsingskader op. Daarbij keken ze naar vier belangrijke aspecten: de toon en empathie van de antwoorden, de leesbaarheid, de adviezen om schade te beperken, en de toepasbaarheid van die adviezen in de praktijk.
De uitkomsten waren duidelijk: hoewel de AI-modellen vaak empathisch overkwamen, schoten ze tekort in het herkennen van complexe bijwerkingen en het geven van praktisch bruikbaar advies.
Levensbelang bij juiste informatie
De onderzoekers waarschuwen dat wanneer AI verkeerde informatie geeft, dat serieuze gevolgen kan hebben. In het geval van geestelijke gezondheidszorg kan onjuist of niet-actiegericht advies het verschil betekenen tussen hulp krijgen of verder in de problemen raken.
Toch zien zej ook potentieel. In regio’s waar de gestelijke gezondheidszorg slecht bereikbaar is, kunnen verbeterde AI-systemen van grote waarde zijn. Chatbots die begrijpelijke, gepersonaliseerde en klinisch verantwoorde antwoorden geven, zouden een belangrijke brug kunnen vormen voor mensen zonder toegang tot reguliere zorg, volgens de onderzoekers.
De toekomst: betrouwbaardere AI
De studie benadrukt het belang van nauwkeurige, toegankelijke en veilige AI-systemen. De onderzoekers hopen dat hun bevindingen zullen bijdragen aan betere modellen en dat beleidsmakers zich meer bewust worden van de risico’s én kansen van AI in de gezondheidszorg. Volgens hen is het ultieme doel om deze technologie zó te verbeteren dat mensen er écht op kunnen vertrouwen, vooral wanneer ze het het hardst nodig hebben.
Mohit Chandra et al: Lived Experience Not Found: LLMs Struggle to Align with Experts on Addressing Adverse Drug Reactions from Psychiatric Medication Use
arXiv:2410.19155
-----------------------------------------------------------------------------------------
Vind je dit interessant? Misschien is een abonnement op de gratis nieuwsbrief dan iets voor jou! GGZ Totaal verschijnt tweemaal per maand en behandelt onderwerpen over alles wat met de ggz te maken heeft, onafhankelijk en niet vooringenomen.
Abonneren kan direct via het inschrijfformulier, opgeven van je mailadres is voldoende. Of kijk eerst naar de artikelen in de vorige magazines.