Reklama

Chatbot AI zamiast lekarza? Naukowcy z Oxfordu ostrzegają

Chatboty oparte na sztucznej inteligencji stanowią zagrożenie dla osób poszukujących porady medycznej, ponieważ mają tendencję do udzielania niedokładnych i niespójnych informacji. Do takich wniosków doszli naukowcy Uniwersytetu Oksfordzkiego na podstawie najnowszego badania.

Publikacja: 15.02.2026 06:00

Naukowcy z Uniwersytetu Oksfordzkiego przyjrzeli się poradom medycznym udzielanym przez chatboty AI

Naukowcy z Uniwersytetu Oksfordzkiego przyjrzeli się poradom medycznym udzielanym przez chatboty AI

Foto: sementsova321 / Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie ryzyko wiąże się z korzystaniem z chatbotów AI w celu uzyskania porad medycznych?
  • Czy modele LLM są skuteczniejsze od tradycyjnych metod diagnozowania schorzeń?
  • Jakie trudności napotykają użytkownicy podczas interakcji z dużymi modelami językowymi?
  • Jakie znaczenie mają dalsze testy dla rozwoju systemów AI w dziedzinie opieki zdrowotnej?

Badanie, którego wyniki opublikowano w czasopiśmie „Nature Medicine”, ostrzega przed ryzykiem związanym z korzystaniem z porad medycznych udzielanych przez chatboty AI. 

Naukowcy przyjrzeli się poradom medycznym udzielanym przez chatboty AI

W badaniu z udziałem 1298 uczestników naukowcy sprawdzili, czy duże modele językowe (LLM) mogą pomóc ludziom w rozpoznawaniu podstawowych schorzeń i wyborze sposobu postępowania w dziesięciu scenariuszach medycznych. Scenariusze te opracowane zostały przez lekarzy i obejmowały przypadki od młodego mężczyzny cierpiącego na silny ból głowy po wieczornym wyjściu z przyjaciółmi po młodą matkę odczuwającą ciągłą duszność i zmęczenie.

Czytaj więcej

Ten naród jest najczęściej zniesławiany. A która AI sieje „mowę nienawiści”?

Jedna grupa uczestników badania wykorzystywała modele LLM do rozpoznania opisanych w scenariuszach problemów zdrowotnych i podjęcia decyzji o odpowiednim sposobie postępowania, takim jak wizyta u lekarza pierwszego kontaktu lub udanie się do szpitala. Natomiast grupa kontrolna korzystała z innych, tradycyjnych źródeł informacji, takich jak własna ocena sytuacji czy wyszukiwanie informacji w internecie.

Reklama
Reklama

W dalszej części badania naukowcy ocenili, jak dokładnie uczestnicy zidentyfikowali prawdopodobne problemy zdrowotne i najbardziej odpowiedni dalszy sposób postępowania. Uzyskane wyniki porównali z wynikami standardowych strategii testowania LLM, które nie obejmują prawdziwych użytkowników.

Pomimo całego szumu, sztuczna inteligencja nie jest jeszcze gotowa, aby przejąć rolę lekarza

Rebecca Payne, jedna z autorek badania, cytowana w komunikacie Uniwersytetu Oksfordzkiego

Chatboty AI: Naukowcy ostrzegają przed udzielanymi przez nie poradami medycznymi

Kluczowym odkryciem było stwierdzenie, że modele LLM nie były lepsze od tradycyjnych metod. Osoby korzystające z LLM nie podejmowały lepszych decyzji niż uczestnicy, którzy polegali na tradycyjnych metodach, takich jak wyszukiwanie informacji w internecie lub własna ocena sytuacji.

Naukowcy zauważyli również, że użytkownicy dużych modeli językowych często nie wiedzieli, jakie informacje powinni podać LLM. Te z kolei udzielały bardzo różnych odpowiedzi na podstawie niewielkie różnice w zadawanych pytaniach. Ponadto duże modele językowe przekazywały zarówno dobre, jak i złe rekomendacje, przez co użytkownicy mieli trudności z ich rozróżnieniem i określeniem najlepszego sposobu działania.

Pomimo całego szumu, sztuczna inteligencja nie jest jeszcze gotowa, aby przejąć rolę lekarza. Pacjenci muszą mieć świadomość, że zadawanie pytań dużemu modelowi językowemu na temat swoich objawów może być niebezpieczne, ponieważ może on postawić błędną diagnozę i nie rozpoznać sytuacji, w której potrzebna jest pilna pomoc – przyznała Rebecca Payne, jedna z autorek badania, cytowana w komunikacie Uniwersytetu Oksfordzkiego.

Reklama
Reklama

Konieczne dalsze testy modeli LLM

Badacze podkreślają, że chociaż modele LLM obecnie osiągają doskonałe wyniki w standardowych testach wiedzy medycznej, są zagrożeniem dla rzeczywistych użytkowników, którzy poszukują pomocy w związku z własnymi objawami medycznymi. Porównanie wyników badania z wynikami standardowych testów LLM, które nie obejmują prawdziwych użytkowników, wykazało bowiem uderzający kontrast. Modele, które dobrze wypadły w testach porównawczych, zawodziły podczas interakcji z ludźmi.

Czytaj więcej

Boom na AI napędza Google. Koncern szykuje rekordowe wydatki

– Opracowanie solidnych testów dla dużych modeli językowych ma kluczowe znaczenie dla zrozumienia, w jaki sposób możemy wykorzystać tę nową technologię. W niniejszym badaniu pokazujemy, że interakcja z ludźmi stanowi wyzwanie nawet dla najlepszych modeli LLM. Mamy nadzieję, że nasze prace przyczynią się do rozwoju bezpieczniejszych i bardziej użytecznych systemów sztucznej inteligencji – wyjaśnił Andrew Bean, jeden z autorów badania.

Z kolei inny autor badania, Adam Mahdi, zauważył: – Tak jak potrzebujemy badań klinicznych nowych leków, tak systemy sztucznej inteligencji wymagają rygorystycznych testów z udziałem zróżnicowanych, rzeczywistych użytkowników, aby zrozumieć ich rzeczywiste możliwości w obszarach wysokiego ryzyka, takich jak opieka zdrowotna.


Zdrowie
Post przerywany to hit internetu. Naukowcy sprawdzili, czy naprawdę działa – wynik zaskakuje
Zdrowie
Marihuana wpływa na chorych odwrotnie niż na zdrowych. Jest nadzieja na nową terapię?
Zdrowie
O krok od rewolucji w medycynie? „Myślę, że mamy uniwersalną szczepionkę”
Zdrowie
Szczepionki przypominające przeciw COVID-19. Naukowcy sprawdzili ich skuteczność
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama