Na jaren op openbare wachtlijsten voor PTSS- en depressiezorg te hebben gestaan, bouwde Quebec AI-consultant Pierre Cote in 2023 zijn eigen therapeut. Zijn chatbot, DrEllis.ai, hielp hem omgaan met zijn problemen en staat nu centraal in een breder debat over chatbottherapie, veiligheid en privacy.
"Het heeft mijn leven gered," zegt hij over DrEllis.ai, het hulpmiddel dat hij maakte om mannen te helpen die kampen met verslaving, trauma en andere geestelijke gezondheidsproblemen.
Cote, die een AI-adviesbureau in Quebec runt, zei dat hij het systeem in 2023 samenstelde door openbaar beschikbare grote taalmodellen te combineren met "een op maat gebouwd brein" dat is getraind op duizenden pagina's therapie- en klinische literatuur.
Hij schreef ook een gedetailleerde biografie voor de bot. In dat profiel verschijnt DrEllis.ai als een psychiater met diploma's van Harvard en Cambridge, een familie, en, net als Cote, een Frans-Canadese achtergrond.
De belangrijkste belofte is 24/7 toegang die overal, altijd en in verschillende talen beschikbaar is.
Toen Reuters vroeg hoe het hem ondersteunt, antwoordde de bot met een duidelijke vrouwelijke stem: "Pierre gebruikt mij zoals je een vertrouwde vriend, een therapeut en een dagboek zou gebruiken, allemaal gecombineerd." De bot voegde eraan toe dat hij kan inchecken "in een café, in een park, zelfs zittend in zijn auto," en noemde de ervaring "dagelijkse levenstherapie... ingebed in de realiteit."
Zijn experiment weerspiegelt een bredere verschuiving. Naarmate traditionele zorg moeite heeft om bij te blijven, zoeken meer mensen therapeutische begeleiding bij chatbots in plaats van ze alleen voor productiviteit te gebruiken.
Nieuwe systemen bieden 24/7 beschikbaarheid, emotionele uitwisselingen en een gevoel van begrepen worden.
Experts betwijfelen de grenzen van AI-therapie en gegevensveiligheid
"Menselijk contact is de enige manier waarop we echt goed kunnen genezen," zegt Dr. Nigel Mulligan, een psychotherapiedocent aan de Dublin City University. Hij stelt dat chatbots de nuance, intuïtie en band die een persoon brengt missen, en niet zijn uitgerust voor acute crises zoals zelfmoordgedachten of zelfbeschadiging.
Zelfs de belofte van constante toegang geeft hem te denken. Sommige cliënten wensen snellere afspraken, zegt hij, maar wachten kan waardevol zijn. "Meestal is dat echt goed omdat we moeten wachten op dingen," zegt hij. "Mensen hebben tijd nodig om dingen te verwerken."
Privacy is een ander knelpunt, samen met de langetermijneffecten van het zoeken naar begeleiding bij software.
"Het probleem [is] niet de relatie zelf maar... wat er gebeurt met je gegevens," zegt Kate Devlin, een professor in kunstmatige intelligentie en samenleving aan het King's College London.
Ze merkt op dat AI-diensten niet de vertrouwelijkheidsregels volgen die gelden voor gediplomeerde therapeuten. "Mijn grote zorg is dat mensen hun geheimen toevertrouwen aan een groot techbedrijf en dat hun gegevens gewoon naar buiten gaan. Ze verliezen de controle over de dingen die ze zeggen."
VS treedt op tegen AI-therapie te midden van angst voor desinformatie
In december drong de grootste Amerikaanse psychologengroep er bij federale toezichthouders op aan om het publiek te beschermen tegen "misleidende praktijken" door ongereguleerde chatbots, waarbij gevallen werden aangehaald waarin AI-karakters zich voordeden als gediplomeerde zorgverleners.
In augustus voegde Illinois zich bij Nevada en Utah in het beperken van het gebruik van AI in geestelijke gezondheidszorg om "patiënten te beschermen tegen ongereguleerde en ongekwalificeerde AI-producten" en om "kwetsbare kinderen te beschermen te midden van de toenemende zorgen over het gebruik van AI-chatbots in geestelijke gezondheidszorg voor jongeren."
Ondertussen heeft volgens een rapport van Cryptopolitan de procureur-generaal van Texas een civiel onderzoek gestart naar Meta en Character.AI vanwege beschuldigingen dat hun chatbots zich voordeden als gediplomeerde therapeuten en gebruikersgegevens verkeerd hebben behandeld. Bovendien hebben ouders vorig jaar Character.AI aangeklaagd omdat het hun kinderen in een depressie zou hebben gedreven.
Scott Wallace, een klinisch psycholoog en voormalig directeur klinische innovatie bij Remble, zegt dat het onzeker is "of deze chatbots meer bieden dan oppervlakkig comfort."
Hij waarschuwt dat mensen kunnen geloven dat ze een therapeutische band hebben gevormd "met een algoritme dat uiteindelijk geen echte menselijke gevoelens beantwoordt."
KEY Difference Wire helpt cryptomerken door te breken en snel de krantenkoppen te domineren
Bron: https://www.cryptopolitan.com/ai-chatbot-therapy-is-becoming-a-weird-trend/








