Het betrekken van jongeren bij de ontwikkeling van AI-tools voor mentale gezondheid is cruciaal. Dat blijkt uit internationaal onderzoek onder leiding van TU Delft. Jongeren maken veel gebruik van AI-platforms en chatbots, maar die zijn niet altijd even ethisch verantwoord én ze sluiten vaak niet aan op hun leefwereld. Met name op het gebied van privacy, inclusie en toegankelijkheid kan er nog veel worden verbeterd.
Dat blijkt uit het onderzoek Advancing Youth Co-Design of Ethical Guidelines for AI-Powered Digital Mental Health Tools. Dat is tot stand gekomen met jongeren uit verschillende landen, ethici, AI-onderzoekers en experts op het gebied van mentale gezondheid. De resultaten zijn gepubliceerd in Nature Mental Health. In het stuk stellen de onderzoekers een nieuwe AI-agenda voor. Die is gebaseerd op klassieke bio-ethische waarden zoals autonomie, welzijn en rechtvaardigheid, maar dan specifiek toegepast op jongeren en AI, en vooral met jongeren.
Schade
Op de website van de TU Delft wordt het belang van het onderzoek duidelijk gemaakt. ‘Jongeren staan voor unieke ethische uitdagingen als het gaat om digitale hulp bij mentale gezondheid’, schrijft de TU. ‘Toch houden veel bestaande richtlijnen nog te weinig rekening met hun ontwikkelingsfase, privacybehoeften en digitale leefwereld. Vooral jongeren uit gemarginaliseerde groepen worden vaak niet betrokken in onderzoek of beleid. Zonder passende ethische kaders kunnen deze technologieën, hoe goed bedoeld ook, meer kwaad dan goed doen. Zo tonen recente casussen aan dat AI soms onbedoeld schade aanricht, bijvoorbeeld wanneer jongeren emotionele relaties opbouwen met chatbots, of wanneer algoritmes bevooroordeeld zijn.’
Ethische kwesties
Uit het onderzoek komen vier belangrijke ethische kwesties naar voren die vaak onderbelicht blijven:
1. Privacy en meldplicht: Wat moet er gebeuren als een AI-tool suïcidale gedachten detecteert of risicovol gedrag zoals pesten of middelengebruik signaleert? En aan wie moet dit worden gemeld?
2. AI als gesprekspartner: Jongeren kunnen AI als ‘menselijk’ beschouwen, met onverwachte psychologische gevolgen. In een schrijnend Amerikaans geval leidde dit zelfs tot zelfdoding.
3. Toestemming en inclusie: Jongeren worden vaak uitgesloten van onderzoek door onduidelijke of strikte regels rondom ouderlijke toestemming terwijl hun stem juist cruciaal is.
4. Toegang en ongelijkheid: Niet alle jongeren hebben toegang tot digitale hulpmiddelen. Daarnaast worden AI-systemen vaak getraind op niet-representatieve groepen, zoals alleen universiteitsstudenten, wat de kloof vergroot.
Lees ook andere artikelen over AI en mentale gezondheid
-----------------------------------------------------------------------------------------
Vind je dit interessant? Misschien is een abonnement op de gratis nieuwsbrief dan iets voor jou! GGZ Totaal verschijnt tweemaal per maand en behandelt onderwerpen over alles wat met de ggz te maken heeft, onafhankelijk en niet vooringenomen.
Abonneren kan direct via het inschrijfformulier, opgeven van je mailadres is voldoende. Of kijk eerst naar de artikelen in de vorige magazines.








