Z tego artykułu się dowiesz:
- Jak obecnie jest wykorzystywana sztuczna inteligencja w psychoterapii?
- Jakie obawy towarzyszą terapeutom przy używaniu AI w kontekście etycznym i prawnym?
- Co sugerują wstępne dane z ogólnopolskiego badania dotyczącego AI w psychoterapii?
- Jakie regulacje są postulowane przez ekspertów dla narzędzi AI w psychoterapii?
- W jaki sposób AI może wspierać proces diagnostyczny i oceny pacjentów?
Tak wynika ze wstępnych danych zebranych podczas trwającego właśnie ogólnopolskiego badania. Skala pokazuje, że potrzebują oni dostępnych tylko dla profesjonalistów narzędzi.
– Wielu terapeutów wciąż ma wątpliwości nie tyle co do tego, czy korzystanie ze sztucznej inteligencji w naszej pracy jest legalne, bo traktowanie danych medycznych jako tych wysokiego ryzyka wymusza już choćby AI Act – a my lobbujemy, aby psychoterapia traktowana była jako usługa medyczna – mówi „Rzeczpospolitej” dr n. med. Artur Wiśniewski z Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej, które prowadzi badanie.
– Wątpliwości pojawiają się w kwestii tego, czy jest to etyczne, bo – nawet z zachowaniem wymogów przepisów RODO i przy anonimizacji danych – mamy świadomość, że firmy stojące za dostępnymi dziś aplikacjami, z których moglibyśmy korzystać, swoje siedziby mają poza Europą – dodaje.
Pierwsze badanie dotyczące AI w psychoterapii. Co sugerują wstępne dane?
Ze wstępnych wyników badań – na podstawie ankiet wypełnionych dotąd przez ok. 500 terapeutów ze szkół i stowarzyszeń – wynika, że 60-70 proc. specjalistów korzysta z AI w różnej formie do zadań pomocniczych związanych z prowadzeniem psychoterapii. Takich jak: robienie notatek, pisanie maili, tworzenie materiałów psychoedukacyjnych dla pacjentów czy podsumowywanie spotkań.