Reklama

Sztuczna inteligencja pomoże w psychoterapii? Trwa pierwsze, ogólnopolskie badanie

Nawet 70 proc. specjalistów korzysta – w różnej formie – z AI do zadań pomocniczych związanych z prowadzeniem psychoterapii.

Publikacja: 15.12.2025 12:21

Sztuczna inteligencja pomoże w psychoterapii? Trwa pierwsze, ogólnopolskie badanie

Foto: Adobe Stock

Z tego artykułu się dowiesz:

  • Jak obecnie jest wykorzystywana sztuczna inteligencja w psychoterapii?
  • Jakie obawy towarzyszą terapeutom przy używaniu AI w kontekście etycznym i prawnym?
  • Co sugerują wstępne dane z ogólnopolskiego badania dotyczącego AI w psychoterapii?
  • Jakie regulacje są postulowane przez ekspertów dla narzędzi AI w psychoterapii?
  • W jaki sposób AI może wspierać proces diagnostyczny i oceny pacjentów?

Tak wynika ze wstępnych danych zebranych podczas trwającego właśnie ogólnopolskiego badania. Skala pokazuje, że potrzebują oni dostępnych tylko dla profesjonalistów narzędzi.

– Wielu terapeutów wciąż ma wątpliwości nie tyle co do tego, czy korzystanie ze sztucznej inteligencji w naszej pracy jest legalne, bo traktowanie danych medycznych jako tych wysokiego ryzyka wymusza już choćby AI Act – a my lobbujemy, aby psychoterapia traktowana była jako usługa medyczna – mówi „Rzeczpospolitej” dr n. med. Artur Wiśniewski z Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej, które prowadzi badanie.

– Wątpliwości pojawiają się w kwestii tego, czy jest to etyczne, bo – nawet z zachowaniem wymogów przepisów RODO i przy anonimizacji danych – mamy świadomość, że firmy stojące za dostępnymi dziś aplikacjami, z których moglibyśmy korzystać, swoje siedziby mają poza Europą – dodaje.

Pierwsze badanie dotyczące AI w psychoterapii. Co sugerują wstępne dane? 

Ze wstępnych wyników badań – na podstawie ankiet wypełnionych dotąd przez ok. 500 terapeutów ze szkół i stowarzyszeń – wynika, że 60-70 proc. specjalistów korzysta z AI w różnej formie do zadań pomocniczych związanych z prowadzeniem psychoterapii. Takich jak: robienie notatek, pisanie maili, tworzenie materiałów psychoedukacyjnych dla pacjentów czy podsumowywanie spotkań.

Reklama
Reklama

Dr Wiśniewski tłumaczy jednak, że brak całkowitej pewności, czy dane pacjentów przy korzystaniu z aplikacji są bezpieczne, to zapewne jedna z przyczyn, dla których ok. 20 proc. ankietowanych z AI nie korzysta wcale. A są to osoby w różnym wieku – część dopiero w trakcie całościowego szkolenia psychoterapeutycznego, część z 20-letnim doświadczeniem. – Wskazują one, że – aby działać – potrzebują jasnych wytycznych. W różnych krajach swoje zalecenia wydają towarzystwa, natomiast w Polsce jako jedyny dokument medyczny, faktycznie zawierający przepisy, można dziś wskazać kodeks etyki lekarskiej, który ma regulacje dotyczące wykorzystywania AI przez lekarzy – mówi doktor.

Jego zdaniem „konieczne byłoby stworzenie ram regulacyjnych dla narzędzi AI w psychoterapii, zapewniających bezpieczeństwo danych i kliniczną poprawność”. – Narzędzi może być wiele, ale wszystkie powinny spełniać określone standardy, w tym być trenowane na wyselekcjonowanych danych medycznych i działać pod nadzorem instytucjonalnym – zauważa doktor.

Czytaj więcej

Marek Konopczyński: W czyim interesie jest nowa ustawa o zawodzie psychoterapeuty?

Potrzeba specjalistycznych narzędzi AI z nadzorem medycznym. „Te działające bez nadzoru mogą utwierdzić w błędnych przekonaniach o swoim stanie zdrowia”

Według eksperta powstać mogłyby również narzędzia z certyfikacją medyczną, pozwalające na dokumentację i transkrypcję sesji terapeutycznych. Oraz te, które – jako wyspecjalizowane chatboty – będą mogły wstępnie ocenić nasilenie objawów i potrzeby pacjenta, sugerować czy wymaga pilnej interwencji, czy też początkowo, nim trafi do specjalisty, wystarczy mu wsparcie informacyjne lub psychoedukacja wspierana AI. Ta z kolei mogłaby alarmować, jeśli pojawiłyby się u niego np. myśli samobójcze.

Czytaj więcej

Czy można samodzielnie zdiagnozować sobie ADHD? Psycholożka przestrzega

Narzędzia AI pod kontrolą instytucji pomogą reagować już „w kolejce” do specjalisty? 

– Moim zdaniem utworzenie takich narzędzi pod nadzorem państwowych instytucji, choć początkowo generowałyby koszty, w perspektywie czasu pomogłoby nam oszczędzić – uważa specjalista. Tłumaczy bowiem, że dziś liczba potrzebujących pomocy i liczba terapeutów rozjeżdżają się. W takich sytuacjach system AI, który posłużyłby choćby do wstępnej oceny wskazania, kto potrzebuje pilnej pomocy, a kto – póki co – jedynie poradnictwa, pomógłby udzielać odpowiedniego wsparcia. Co potencjalnie mogłoby zmniejszyć liczbę sytuacji kryzysowych wymagających hospitalizacji.

Reklama
Reklama

– Dlatego też – choć wyniki raportu w pierwszej kolejności posłużą do wdrożenia wytycznych dla naszego towarzystwa – być może zostaną również przedstawione instytucjom państwowym – konkluduje doktor.

Podatki
Duża zmiana w podatkach: do tej kwoty daniny już nie zapłacisz
Materiał Promocyjny
Rekordy sprzedaży i większy magazyn w Duchnicach
Prawo drogowe
Sąd: odstawienie prawej nogi to błąd eliminujący kierowcę
Prawo w Polsce
Będzie nowy obowiązek dla właścicieli psów. Rząd przyjął projekt ustawy
Praca, Emerytury i renty
13. emerytura nie dla każdego. Ci seniorzy nie otrzymają świadczenia
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama