Z tego artykułu się dowiesz:
- Jakie działania podejmuje OpenAI w odpowiedzi na rosnące oskarżenia związane z ChatGPT?
- Jakie nowe mechanizmy ochronne dla nieletnich zostaną wprowadzone przez OpenAI?
- Jakie są społeczne i prawne reperkusje związane z funkcjonowaniem chatbotów?
Rozmowa z botem, prowadzona przez osoby małoletnie, może wcale nie być niewinną zabawą. Przybywa historii, które pokazują, że kończą się one czasami tragedią. Stąd inicjatywa firmy kierowanej przez Sama Altmana, by ograniczyć niekontrolowany dostęp do ChatGPT. Nie ma wątpliwości, że taki ruch to efekt ogromnej presji rynku. Pytanie tylko, czy i na ile jakiekolwiek technologiczne bariery będą w stanie realnie zabezpieczyć najmłodszych przed mroczną stroną sztucznej inteligencji.
Algorytm oceni użytkownika. OpenAI wezwie policję
Deklaracja Sama Altmana, dyrektora generalnego OpenAI, że „dla dzieci stawiamy bezpieczeństwo ponad wolność i prywatność”, to sygnał zmiany kursu o 180 stopni. Firma, dotychczas skupiona na rozwoju i ekspansji technologii, została zmuszona do konfrontacji z jej tragicznymi konsekwencjami. Ogłoszone zmiany to pakiet narzędzi, które mają stworzyć wokół nieletnich użytkowników swoisty kokon ochronny. Podstawą ma być system szacujący wiek użytkownika. Co istotne, w przypadku jakichkolwiek wątpliwości, mechanizm domyślnie zaklasyfikuje osobę jako niepełnoletnią, aktywując tryb podwyższonego bezpieczeństwa. W tym trybie ChatGPT ma kategorycznie odmawiać rozmów o charakterze seksualnym czy flirtu, zablokowane zostaną również odpowiedzi na pytania dotyczące samookaleczeń i metod samobójczych.
To jednak dopiero początek. OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych. Po połączeniu swojego konta z kontem dziecka poprzez e-mail, opiekunowie będą mogli definiować godziny, w których nastolatek nie skorzysta z chatbota, a także zarządzać jego funkcjami, np. wyłączając historię konwersacji. Kluczowym i zarazem najbardziej kontrowersyjnym elementem jest system powiadomień. Rodzice otrzymają alert, gdy algorytm uzna, że dziecko znalazło się w „ostrej sytuacji kryzysowej”. W skrajnych, rzadkich przypadkach, gdy kontakt z opiekunem będzie niemożliwy, OpenAI zastrzega sobie prawo do bezpośredniego powiadomienia lokalnej policji.
Czytaj więcej
Dwie rodziny pozwały Character.ai, firmę specjalizującą się w sztucznej inteligencji, której chat...