Chatboty terapeutyczne AI są celem przyspieszających zakazów legislacyjnych na szczeblu stanowym, przy czym Maine wysłało projekt ustawy zakazującej do gubernatora 10 kwietnia, a Missouri przesunęło podobny środek poprzez kompleksową ustawę o opiece zdrowotnej.
Podsumowanie
- LD 2082 stanu Maine zakazałoby klinicznego stosowania AI w terapii zdrowia psychicznego, jednocześnie zezwalając na zastosowania administracyjne.
- HB 2372 stanu Missouri zakazałoby AI w terapii, psychoterapii i diagnozie zdrowia psychicznego, z karą 10 000 dolarów za pierwsze naruszenie.
- Prawodawstwo odzwierciedla rosnący konsensus na szczeblu stanowym, że AI nie powinno zastępować licencjonowanych ludzkich terapeutów w warunkach klinicznych.
Dwa stany USA podjęły w tym tygodniu działania w celu formalnego ograniczenia lub zakazu klinicznego stosowania AI w terapii zdrowia psychicznego, odzwierciedlając wzrost działalności legislacyjnej skierowanej na chatboty terapeutyczne, która nabrała znacznego tempa w 2026 roku. Działania w Maine i Missouri są jak dotąd najwyraźniejszymi przykładami tego, jak stany działają szybciej niż rząd federalny w zakresie regulacji AI w dziedzinie zdrowia psychicznego.
LD 2082 stanu Maine zostało wysłane do gubernatora 10 kwietnia. Projekt ustawy zakazałby klinicznego stosowania AI w terapii zdrowia psychicznego, jednocześnie zezwalając na to w czysto administracyjnych rolach. HB 2372 stanu Missouri idzie dalej, obejmując usługi terapeutyczne, usługi psychoterapeutyczne i diagnozy zdrowia psychicznego, z karą 10 000 dolarów za pierwsze naruszenia egzekwowaną przez stanowego prokuratora generalnego, zgodnie z Transparency Coalition.
Rozróżnienie, które rysują oba projekty ustaw, między leczeniem klinicznym a wsparciem administracyjnym, odzwierciedla podejście legislacyjne mające na celu zachowanie korzyści efektywnościowych AI w opiece zdrowotnej, jednocześnie wyznaczając wyraźną granicę przeciwko zastępowaniu licencjonowanej oceny klinicznej przez AI w warunkach terapeutycznych.
Dlaczego stany działają teraz
Wzrost regulacji AI na szczeblu stanowym jest częściowo napędzany szybkim rozprzestrzenianiem się komercyjnych produktów chatbotów terapeutycznych sprzedawanych bezpośrednio konsumentom, z których niektóre zostały wdrożone w warunkach klinicznych lub zbliżonych do klinicznych bez takiego samego nadzoru, jaki stosuje się wobec ludzkich praktyków. Krytycy twierdzą, że te produkty docierały do osób wrażliwych, podczas gdy ramy regulacyjne pozostawały w dużej mierze milczące.
Jak poinformował crypto.news, AI jest teraz osadzane w agencjach rządowych w wrażliwych rolach analitycznych, tworząc presję na decydentów na każdym poziomie, aby zdefiniować, gdzie AI może, a gdzie nie może zastąpić ludzkiej oceny. Zakazy chatbotów terapeutycznych są bezpośrednią legislacyjną odpowiedzią na tę presję w kontekście opieki zdrowotnej.
Szerszy trend regulacji AI
Zakazy chatbotów terapeutycznych są częścią szerszej fali legislacyjnej. Od stycznia 2026 roku w Kongresie wprowadzono ponad 10 ustaw przeciwko rynkom prognostycznym, a legislatury stanowe w całym kraju złożyły dziesiątki środków skoncentrowanych na AI, skierowanych na różne sektory.
Jak zauważył crypto.news, rząd federalny jednocześnie przyspiesza adopcję AI i walczy w bataliach prawnych o to, gdzie zaczyna się i kończy władza AI. Stany wydają się wypełniać próżnię, przyjmując wiążące ograniczenia dotyczące konkretnych aplikacji wysokiego ryzyka, podczas gdy Waszyngton debatuje nad szerszymi ramami.
Źródło: https://crypto.news/ai-therapy-chatbots-face-state-bans-in-us/








