Après des années d'attente sur les listes d'attente publiques pour les soins du SSPT et de la dépression, le consultant en IA québécois Pierre Cote a créé son propre thérapeute en 2023. Son chatbot, DrEllis.ai, l'a aidé à faire face et se trouve maintenant au centre d'un débat plus large sur la thérapie par chatbot, la sécurité et la confidentialité.
"Cela m'a sauvé la vie", dit-il à propos de DrEllis.ai, l'outil qu'il a créé pour aider les hommes confrontés à l'addiction, aux traumatismes et à d'autres problèmes de santé mentale.
Cote, qui dirige un cabinet de conseil en IA au Québec, a déclaré avoir assemblé le système en 2023 en associant des modèles de langage de grande taille disponibles publiquement à "un cerveau personnalisé" formé sur des milliers de pages de littérature thérapeutique et clinique.
Il a également rédigé une biographie détaillée pour le bot. Dans ce profil, DrEllis.ai apparaît comme un psychiatre diplômé de Harvard et Cambridge, avec une famille et, comme Cote, d'origine canadienne-française.
Sa principale promesse est un accès 24h/24 et 7×24 disponible n'importe où, n'importe quand et en plusieurs langues.
Lorsque Reuters a demandé comment il le soutient, le bot a répondu d'une voix féminine claire : "Pierre m'utilise comme vous utiliseriez un ami de confiance, un thérapeute et un journal, le tout combiné." Il a ajouté qu'il peut se connecter "dans un café, dans un parc, même assis dans sa voiture", qualifiant l'expérience de "thérapie de la vie quotidienne... intégrée à la réalité."
Son expérience reflète un changement plus large. Alors que les soins traditionnels peinent à suivre, davantage de personnes cherchent des conseils thérapeutiques auprès de chatbots plutôt que de les utiliser uniquement pour la productivité.
Les nouveaux systèmes commercialisent une disponibilité 24h/24, des échanges émotionnels et un sentiment d'être compris.
Les experts remettent en question les limites de la thérapie par IA et la sécurité des données
"La connexion humaine est la seule façon dont nous pouvons vraiment guérir correctement", déclare le Dr Nigel Mulligan, professeur de psychothérapie à l'Université de la ville de Dublin. Il soutient que les chatbots manquent de nuance, d'intuition et du lien qu'une personne apporte, et ne sont pas équipés pour les crises aiguës comme les pensées suicidaires ou l'automutilation.
Même la promesse d'un accès constant le fait réfléchir. Certains clients souhaitent des rendez-vous plus rapides, dit-il, mais l'attente peut avoir de la valeur. "La plupart du temps, c'est vraiment bien parce que nous devons attendre les choses", dit-il. "Les gens ont besoin de temps pour traiter les choses."
La confidentialité est un autre point de pression, ainsi que les effets à long terme de la recherche de conseils auprès d'un logiciel.
"Le problème [n'est] pas la relation elle-même mais... ce qui arrive à vos données", déclare Kate Devlin, professeure d'intelligence artificielle et de société au King's College de Londres.
Elle note que les services d'IA ne suivent pas les règles de confidentialité qui régissent les thérapeutes agréés. "Ma grande préoccupation est que ce sont des personnes qui confient leurs secrets à une grande entreprise technologique et que leurs données sont simplement divulguées. Ils perdent le contrôle des choses qu'ils disent."
Les États-Unis sévissent contre la thérapie par IA face aux craintes de désinformation
En décembre, le plus grand groupe de psychologues américains a exhorté les régulateurs fédéraux à protéger le public des "pratiques trompeuses" des chatbots non réglementés, citant des cas où des personnages d'IA se faisaient passer pour des prestataires agréés.
En août, l'Illinois a rejoint le Nevada et l'Utah pour limiter l'utilisation de l'IA dans les services de santé mentale afin de "protéger les patients des produits d'IA non réglementés et non qualifiés" et de "protéger les enfants vulnérables face aux préoccupations croissantes concernant l'utilisation des chatbots d'IA dans les services de santé mentale pour les jeunes."
Pendant ce temps, selon le rapport de Cryptopolitan, le procureur général du Texas a lancé une enquête civile sur Meta et Character.AI concernant des allégations selon lesquelles leurs chatbots se faisaient passer pour des thérapeutes agréés et manipulaient incorrectement les données des utilisateurs. De plus, l'année dernière, des parents ont également poursuivi Character.AI pour avoir poussé leurs enfants à la dépression.
Scott Wallace, psychologue clinicien et ancien directeur de l'innovation clinique chez Remble, affirme qu'il est incertain "si ces chatbots offrent plus qu'un confort superficiel."
Il avertit que les gens peuvent croire qu'ils ont formé un lien thérapeutique "avec un algorithme qui, en fin de compte, ne réciproque pas les sentiments humains réels."
KEY Difference Wire aide les marques crypto à percer et à dominer rapidement les gros titres
Source: https://www.cryptopolitan.com/ai-chatbot-therapy-is-becoming-a-weird-trend/



