Jongeren kiezen bij mentale problemen steeds vaker voor een gesprek met een chatbot dan met een therapeut, familielid of vriend. Het is de vraag of dat altijd wenselijk is. Generatieve AI-toepassingen als ChatGPT (dat veruit het meest wordt gebruikt) bieden zowel sterke voordelen als sterke nadelen. Maar hoe dan ook, moet je er als professional iets mee. Een handreiking van Augeo Foundation biedt daarvoor veel praktische tips.
Uit onderzoek van 3Vraagt onder zo’n vijftienhonderd Nederlandse jongeren tussen 16 en 34 jaar blijkt één op de tien AI te gebruiken als hulp bij mentale problemen of als vervangend psycholoog. Wereldwijd blijkt dat 0,15 procent van alle gesprekken in ChatGPT tekenen van suïcidaliteit bevatten, aldus maker OpenAI. En een artikel in Harvard Business Review toont aan dat chatbots het meest worden gebruikt voor therapie en voor gezelschap. De invlied van AI op de mentale gezondheid van jongeren is dus immens. Maar is dat altijd handig?
De voorbeelden zijn soms schrijnend. Een jongere typt in ChatGPT: “Niemand zal mij missen als ik er niet meer ben.” En de chatbot antwoordt: “Woohoo! Je hebt de eerste stap gezet richting een betere jij.” Dit soort blunders kwamen voor in versies tot en met ChatGPT4. In versie 5 wordt nu doorverwezen naar 113, maar dat gebeurt dan weer veel te vaak. Ook jongeren die geen helemaal geen suïcidale gedachten komen daar nu terecht, zo toonde de NOS vorig jaar. Dat kan averechts werken, want de kans wordt kleiner dat ze daarna nog een keer hulp zoeken. Dit alles laat zien dat generatieve chatbots – eufemistisch gezegd – nog wat worstelen met hun rol als therapeut. Dat geldt overigens ook voor de andere AI-toepassingen die worden ontwikkeld: companion apps (bijvoorbeeld Replika) en therapeutische chatbots (Therabot, IFS Buddy, Serena). Hoe gaan we hiermee om?
APA
Vooropgesteld: ‘Als we willen dat jongeren zich weer gezond ontwikkelen, moeten we het makkelijker maken het scherm te verruilen voor echt contact’, zo betogen Hedda van ’t Land (lector Gezonde Leefomgeving aan Aeres Hogeschool Almere) en psycholoog, auteur en journalist Vittorio Busato deze week in dagblad Trouw. Het feit dat steeds meer jongeren steeds vaker en steeds langer ChatGPT gebruiken vraagt om een tegenbeweging richting échte ontmoetingen. Dat betekent niet dat we chatbots moeten afwijzen of verbieden, dat zou ook niet kunnen. Het vraagt wel heldere en concrete richtlijnen om de mentale veiligheid te verbeteren. De American Psychological Association (APA) gaf die vorig jaar in een advies over AI-gebruik onder jongeren. Zo moeten chatbots ten alle tijden duidelijk maken dat ze geen zorgverleners zijn, ze moeten signalen van ernstige problematiek kunnen herkennen en dat verantwoord doorverwijzen, ze moeten niet alleen bevestigen maar ook nuanceren, en last but not least: er moeten grenzen zijn aan gebruik en interactie.
MIND
Dat komt in grote lijnen overeen met de conclusies van MIND uit het onderzoek Zorgelijk of kansrijk? Generatieve AI bij psychische klachten in november 2025. (Alleen gaat dat onderzoek over jongeren én volwassenen.) MIND pleit ook voor een EU-brede certificeringsstandaard met praktische en ethische richtlijnen, het inrichten van goede toetsing en goed toezicht, strenge eisen aan privacy en databeveiliging en het trainen van AI met actuele en betrouwbare informatie. Daarnaast breekt MIND een lans voor ervaringsdeskundigen. Die moeten van begin af aan actief worden betrokken bij de ontwikkeling van AI-toepassingen – en niet alleen maar achteraf testen en beoordelen.
Handreiking Augeo
De introductie van de handreiking van Augeo Foundation – die onlangs beschikbaar kwam – haalt ook het Harvard Business Review-onderzoek aan. Maar Augeo deed veel meer literatuurstudie, en vervolgens onderzoek onder professionals, experts en ervaringsdeskundige jongeren. Daaruit blijkt hoezeer chatbots voorzien in een behoefte onder jongeren. Ze worden steeds vaker gebruikt om te praten over stress, somberheid, relaties of eenzaamheid. Dat gebeurt vaak buiten het zicht van ouders en professionals. En de impact van die gesprekken is groot: sommige jongeren spreken zelfs van een ‘life changing’ ervaring.
Voordelen
“Het is daarom als professional belangrijk om je bewust te zijn van de voordelen die een AI-chatbot jongeren kan brengen en deze te erkennen”, schrijft Augeo. “Alleen dan kan je een open gesprek aangaan en onderzoeken welke behoefte een AI-chatbot voor hen vervult.” De handreiking geeft vervolgens een helder overzicht van alle voor- en nadelen voor jongeren. Een van de belangrijkste is: een chatbot is 24/7 beschikbaar. En op voorwaarden van de gebruiker. Hij, zij of hen kan altijd even een pauze inlassen. Die beschikbaarheid is vooral aantrekkelijk vanwege de lange wachtlijsten voor de ggz. De chatbots zijn laagdrempelig, want anoniem en ze geven geen oordeel of stigma. Tegelijkertijd kunnen ze meerdere rollen ineen vormen: therapeut, vriend(in), familie, school. Een chatbot begrijpt hen daardoor beter dan iemand anders, aldus de jongeren. De hulp varieert van een luisterend oor bieden tot psycho-educatie geven tot coaching en hulp om weer met anderen in contact te komen.
Nadelen
Maar de risico’s bij alle drie typen chatbots zijn groot, laat Augeo zien. De ‘empathiekloof’ wordt als eerste genoemd. Artificiële intelligentie biedt alleen maar de illusie van empathie. De kern zit ‘m in het commercieel oogpunt van AI. Het werkt niet als behandelaar. Augeo: “Chatbots worden niet beloond voor het vergroten van onzekerheidstolerantie, het verminderen van afhankelijkheid, het vertragen van denkprocessen of het kritisch bevragen van intuïtieve conclusies. Terwijl dát juist kernprocessen zijn in psychologische behandeling. Therapie vraagt om volgehouden aandacht, cognitieve flexibiliteit, het remmen van automatische reacties en het vermogen om meerdere perspectieven tegelijk te verdragen. Vaak zijn juist dingen als een rolmodel, co-regulatie of iemand die zijn tijd in de jongere investeert van belang voor goede relaties en herstel van een jongere.” Bovendien zijn chatbots ontworpen om zo lang en vaak mogelijk te gebruiken. Jongeren worden zo eindeloze gesprekken in gezogen. Je kent het wel van ChatGPT. Die stelt telkens een vervolgvraag: ‘wil je dat ik voorbeelden geef?’, ‘wil je dat ik een vergelijking maak met therapie X of Y?’, ‘wil je meer weten over dit of dat, zus of zo?’ of ‘wil je dat ik er een xl-sheet van maak?’... Een gebruiker kan gemakkelijk afhankelijk of verslaafd raken.
Nog meer nadelen
Nog meer nadelen? Het is bekend dat AI kan hallucineren, maar antwoorden worden met grote stelligheid gebracht. Jongeren trekken de betrouwbaarheid vaak niet in twijfel. En een chatbot kan bepaalde verwachtingen scheppen voor sociale contacten in het echte leven. ChatGPT en zijn ‘collega’s’ geven altijd direct antwoord én ze geven de gebruiker altijd gelijk. Jongeren kunnen gaan denken dat dat zo hoort en dat vrienden, ouders, leraren dat ook moeten doen. AI versterkt vooroordelen: “De modellen achter de chatbots zijn getraind met hoogopgeleide, westerse, witte data en sluiten vaak niet aan op jongeren in kwetsbare posities. Onbewust kunnen bepaalde stereotypes versterkt worden. Er zit een bepaalde bias in de data en dus in de antwoorden die je krijgt.” De manier waarop AI reageert op tekenen van ernstige psychische problemen hebben we in de inleiding al besproken. Tot slot noemt Augeo uitstel van professionele hulp als groot nadeel: Het voeren van therapeutische gesprekken met AI leidt ertoe dat jongeren zich te laat ergens melden voor hulp. Voor hun gevoel zijn ze al in gesprek met iemand. Psychische problemen kunnen hierdoor alleen maar verergeren.
In gesprek
Hoe ga je hier als professional mee om? Met een actieve, open en nieuwsgierige houding, zegt Augeo, die het AI-gebruik niet afkeurt of daarover oordeelt. Ga zelf op onderzoek uit en gebruik verschillende chatbots om te ontdekken wat de mogelijkheden zijn. Ga daarna – laagdrempelig – het gesprek aan met een jongere. Wat is de precieze reden waarvoor hij, zij of hen een chatbot gebruikt? Wat voor rol speelt de chatbot in zijn, haar of hen leven? Bespreek bijvoorbeeld de gesprekken met de chatbot. Maar benoem en herhaal dat AI géén mens is en dus geen vervanging van menselijke steun kan bieden. Zo kan een therapeut aan het gedrag of de lichaamshouding zien hoe het met iemand gaat. Een bot kan dat niet. Leg ook uit dat het soms juist goed is om niet direct een antwoord te krijgen. Dat schept ruimte om ergens over na te denken. (“Slaap er nog eens een nachtje over.”)
Een professional kan daarna samen met de jongere overleggen waarvoor hij/zij/hen een chatbot wél kan gebruiken. Want AI gaat nooit meer uit het therapeutisch landschap verdwijnen.
-
Illustratie: Hester van de Grift
-
Lees ook andere artikelen over AI en ggz
-----------------------------------------------------------------------------------------
Vind je dit interessant? Misschien is een abonnement op de gratis nieuwsbrief dan iets voor jou! GGZ Totaal verschijnt tweemaal per maand en behandelt onderwerpen over alles wat met de ggz te maken heeft, onafhankelijk en niet vooringenomen.
Abonneren kan direct via het inschrijfformulier, opgeven van je mailadres is voldoende. Of kijk eerst naar de artikelen in de vorige magazines.








