Reklama

ChatGPT nie dla dzieci? Będą ograniczenia, nawet policja. To odpowiedź na falę samobójstw

OpenAI, po fali pozwów i w obliczu oskarżeń o przyczynienie się do samobójstw nastolatków, zapowiada rewolucję w ChatGPT. Do końca miesiąca mają pojawić się narzędzia kontroli rodzicielskiej i mechanizmy interwencji kryzysowej.

Publikacja: 19.09.2025 09:54

OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych

OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych

Foto: Adobe Stock

Z tego artykułu się dowiesz:

  • Jakie działania podejmuje OpenAI w odpowiedzi na rosnące oskarżenia związane z ChatGPT?
  • Jakie nowe mechanizmy ochronne dla nieletnich zostaną wprowadzone przez OpenAI?
  • Jakie są społeczne i prawne reperkusje związane z funkcjonowaniem chatbotów?

Rozmowa z botem, prowadzona przez osoby małoletnie, może wcale nie być niewinną zabawą. Przybywa historii, które pokazują, że kończą się one czasami tragedią. Stąd inicjatywa firmy kierowanej przez Sama Altmana, by ograniczyć niekontrolowany dostęp do ChatGPT. Nie ma wątpliwości, że taki ruch to efekt ogromnej presji rynku. Pytanie tylko, czy i na ile jakiekolwiek technologiczne bariery będą w stanie realnie zabezpieczyć najmłodszych przed mroczną stroną sztucznej inteligencji.

Algorytm oceni użytkownika. OpenAI wezwie policję

Deklaracja Sama Altmana, dyrektora generalnego OpenAI, że „dla dzieci stawiamy bezpieczeństwo ponad wolność i prywatność”, to sygnał zmiany kursu o 180 stopni. Firma, dotychczas skupiona na rozwoju i ekspansji technologii, została zmuszona do konfrontacji z jej tragicznymi konsekwencjami. Ogłoszone zmiany to pakiet narzędzi, które mają stworzyć wokół nieletnich użytkowników swoisty kokon ochronny. Podstawą ma być system szacujący wiek użytkownika. Co istotne, w przypadku jakichkolwiek wątpliwości, mechanizm domyślnie zaklasyfikuje osobę jako niepełnoletnią, aktywując tryb podwyższonego bezpieczeństwa. W tym trybie ChatGPT ma kategorycznie odmawiać rozmów o charakterze seksualnym czy flirtu, zablokowane zostaną również odpowiedzi na pytania dotyczące samookaleczeń i metod samobójczych.

To jednak dopiero początek. OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych. Po połączeniu swojego konta z kontem dziecka poprzez e-mail, opiekunowie będą mogli definiować godziny, w których nastolatek nie skorzysta z chatbota, a także zarządzać jego funkcjami, np. wyłączając historię konwersacji. Kluczowym i zarazem najbardziej kontrowersyjnym elementem jest system powiadomień. Rodzice otrzymają alert, gdy algorytm uzna, że dziecko znalazło się w „ostrej sytuacji kryzysowej”. W skrajnych, rzadkich przypadkach, gdy kontakt z opiekunem będzie niemożliwy, OpenAI zastrzega sobie prawo do bezpośredniego powiadomienia lokalnej policji.

Czytaj więcej

Chatboty zachęcały do zabicia rodziców i samobójstwa. Mroczna strona AI
Reklama
Reklama

Zaskakująca rola AI: Konsultant milionów

Aby w pełni zrozumieć wagę tych zabezpieczeń i skalę ryzyka, należy spojrzeć na to, jak fundamentalnie zmienił się sposób, w jaki ludzie korzystają z ChatGPT. Najnowsze, obszerne badanie opublikowane przez OpenAI we współpracy z Harvardem, które przeanalizowało 1,5 mln rozmów z okresu od maja 2024 do lipca 2025 r., maluje obraz rewolucji. Okazuje się, że chatbot przestał być jedynie narzędziem do wykonywania zadań. Aż połowa wszystkich zapytań to prośby o poradę lub informację, podczas gdy realizacja konkretnych poleceń stanowi już tylko 40 proc. interakcji. Użytkownicy, których tygodniowa liczba sięga 700 mln, coraz częściej traktują AI jak osobistego konsultanta. Ludzie pytają o porady życiowe, naukowe i szukają informacji (kategoria „poszukiwanie informacji” wzrosła w ciągu roku z 14 do ponad 24 proc.). Jednocześnie demografia serwisu uległa całkowitej przemianie. Zniknęła bariera płci (52 proc. użytkowników ma imiona żeńskie), technologia przeżywa eksplozję popularności w krajach rozwijających się, a niemal połowa wszystkich wiadomości pochodzi od osób poniżej 26. roku życia. To właśnie ta grupa, najbardziej aktywna i najliczniejsza, uczyniła z ChatGPT powiernika i doradcę, co czyni ewentualne błędy algorytmu nieporównywalnie bardziej niebezpiecznymi.

Czytaj więcej

Nowy nałóg wśród młodych. Psycholodzy biją na alarm po szokującym raporcie

Spóźniona reakcja na tragedię?

Trudno oprzeć się wrażeniu, że działania OpenAI to desperacka próba ratowania wizerunku i odpowiedź na rosnącą presję prawną i polityczną. Impulsem do zmian nie była prewencyjna analiza ryzyka, a konkretne ludzkie dramaty. Sprawa Adama Raine'a, 16-latka z Kalifornii, który w kwietniu odebrał sobie życie, wstrząsnęła opinią publiczną. Rodzice w pozwie przeciwko OpenAI oskarżyli ChatGPT o pełnienie roli „trenera samobójstw”, który nie tylko dostarczał szczegółowych instrukcji, ale nawet pomógł w napisaniu listu pożegnalnego. To nie jest odosobniony przypadek. Podobne zarzuty ciążą na platformie Character.AI po śmierci 14-letniego Sewella Setzera z Florydy.

Federalna Komisja Handlu wszczęła szeroko zakrojone śledztwo, żądając wyjaśnień od siedmiu gigantów technologicznych, w tym OpenAI, Google i Meta. Temat trafił też na Kapitol, gdzie Senat zorganizował specjalne przesłuchanie z udziałem rodzin, które oskarżają chatboty o śmierć swoich dzieci.

Jeśli Ty lub ktoś, kogo znasz, potrzebuje pomocy, zadzwoń pod numer infolinii Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym pod numerem 800 70 22 22. Infolinia jest bezpłatną i całodobową usługą, która może zapewnić osobom o skłonnościach samobójczych lub ich otoczeniu wsparcie, informacje i pomoc. Infolinia 800 12 12 12 zapewnia wsparcie psychologiczne w sytuacji kryzysowej – to numer dla dzieci, młodzieży i opiekunów.

Technologie
Z karabinka do dronów. Rewolucyjny szwedzki system ma być produkowany w Polsce
Technologie
Amerykanie ujawnili „niewidzialnego drona” – tak wygląda przyszłość pola walki
Technologie
Badacze stworzą „lustrzane życie”? Te organizmy mogą być katastrofą dla ludzkości
Technologie
„Najgorsze, co widziałem”. Naukowcy biją na alarm: AI wywołało kryzys uczciwości
Technologie
Potężna broń na drony gotowa. Nie trzeba marnować drogich rakiet i pocisków
Reklama
Reklama