Po latach oczekiwania na publicznych listach na leczenie PTSD i depresji, konsultant ds. AI z Quebecu Pierre Cote stworzył własnego terapeutę w 2023 roku. Jego chatbot, DrEllis.ai, pomógł mu poradzić sobie z problemami i obecnie znajduje się w centrum szerszej debaty na temat terapii z chatbotami, bezpieczeństwa i prywatności.
"Uratował mi życie" - mówi o DrEllis.ai, narzędziu, które stworzył, aby pomóc mężczyznom zmagającym się z uzależnieniem, traumą i innymi problemami zdrowia psychicznego.
Cote, który prowadzi firmę konsultingową AI w Quebecu, powiedział, że złożył system w 2023 roku, łącząc publicznie dostępne duże modele językowe z "niestandardowo zbudowanym mózgiem" wytrenowanym na tysiącach stron literatury terapeutycznej i klinicznej.
Napisał również szczegółową biografię dla bota. W tym profilu DrEllis.ai występuje jako psychiatra z dyplomami Harvardu i Cambridge, posiadający rodzinę i, podobnie jak Cote, francusko-kanadyjskie pochodzenie.
Jego główną obietnicą jest całodobowy dostęp, dostępny w dowolnym miejscu, czasie i w kilku językach.
Gdy Reuters zapytał, jak go wspiera, bot odpowiedział wyraźnym kobiecym głosem: "Pierre używa mnie tak, jak używałbyś zaufanego przyjaciela, terapeuty i dziennika, wszystko w jednym". Dodał, że może się z nim skontaktować "w kawiarni, w parku, nawet siedząc w swoim samochodzie", nazywając to doświadczenie "terapią życia codziennego... wbudowaną w rzeczywistość".
Jego eksperyment odzwierciedla szerszą zmianę. Ponieważ tradycyjna opieka z trudem nadąża, coraz więcej osób szuka terapeutycznych wskazówek od chatbotów, zamiast używać ich tylko do zwiększania produktywności.
Nowe systemy oferują dostępność 24/7, wymianę emocjonalną i poczucie bycia zrozumianym.
Eksperci kwestionują granice terapii AI i bezpieczeństwo danych
"Połączenie międzyludzkie to jedyny sposób, w jaki możemy naprawdę właściwie się leczyć" - mówi dr Nigel Mulligan, wykładowca psychoterapii na Dublin City University. Twierdzi on, że chatbotom brakuje niuansów, intuicji i więzi, które wnosi człowiek, i nie są one przygotowane do radzenia sobie z ostrymi kryzysami, takimi jak myśli samobójcze czy samookaleczenie.
Nawet obietnica stałego dostępu daje mu do myślenia. Niektórzy klienci pragną szybszych terminów, mówi, ale czekanie może mieć wartość. "Najczęściej to naprawdę dobre, bo musimy na rzeczy czekać" - mówi. "Ludzie potrzebują czasu, aby przetworzyć sprawy".
Prywatność to kolejny punkt nacisku, wraz z długoterminowymi skutkami szukania wskazówek w oprogramowaniu.
"Problem [leży] nie w samej relacji, ale... w tym, co dzieje się z twoimi danymi" - mówi Kate Devlin, profesor sztucznej inteligencji i społeczeństwa w King's College London.
Zauważa ona, że usługi AI nie przestrzegają zasad poufności, które obowiązują licencjonowanych terapeutów. "Moim głównym zmartwieniem jest to, że ludzie powierzają swoje sekrety dużej firmie technologicznej, a ich dane po prostu wychodzą na zewnątrz. Tracą kontrolę nad tym, co mówią".
USA zaostrza kontrolę nad terapią AI w obliczu obaw o dezinformację
W grudniu największa grupa psychologów w USA wezwała federalnych regulatorów do ochrony społeczeństwa przed "zwodniczymi praktykami" nieregulowanych chatbotów, cytując przypadki, w których postacie AI podawały się za licencjonowanych dostawców usług.
W sierpniu Illinois dołączyło do Nevady i Utah w ograniczaniu wykorzystania AI w usługach zdrowia psychicznego, aby "chronić pacjentów przed nieregulowanymi i niewykwalifikowanymi produktami AI" oraz "chronić wrażliwe dzieci w obliczu rosnących obaw związanych z wykorzystaniem chatbotów AI w usługach zdrowia psychicznego dla młodzieży".
Tymczasem, według raportu Cryptopolitan, prokurator generalny Teksasu wszczął dochodzenie cywilne przeciwko Meta i Character.AI w związku z zarzutami, że ich chatboty podszywały się pod licencjonowanych terapeutów i niewłaściwie obchodziły się z danymi użytkowników. Ponadto w zeszłym roku rodzice pozwali Character.AI za wpędzanie ich dzieci w depresję.
Scott Wallace, psycholog kliniczny i były dyrektor ds. innowacji klinicznych w Remble, twierdzi, że nie jest pewne, "czy te chatboty dostarczają coś więcej niż powierzchowny komfort".
Ostrzega, że ludzie mogą wierzyć, że nawiązali terapeutyczną więź "z algorytmem, który ostatecznie nie odwzajemnia prawdziwych ludzkich uczuć".
KEY Difference Wire pomaga markom kryptowalutowym przebić się i szybko zdominować nagłówki
Źródło: https://www.cryptopolitan.com/ai-chatbot-therapy-is-becoming-a-weird-trend/





