Po tym, jak kilka dni temu włoski urząd dbający o ochronę danych i prywatności zmusił firmę stojącą za rewolucyjnym botem ChatGPT do zablokowania – na podstawie geolokalizacji – użytkowników w tym kraju, w Europie nastąpił efekt domina. Konsultacje z włoskimi urzędnikami przeprowadziło już kilka podobnych instytucji na kontynencie, które teraz badają, czy nie podjąć równie radykalnej decyzji. I tak na celownik firmę OpenAI wzięli m.in. Niemcy, Francuzi, Brytyjczycy i Irlandczycy.
Czytaj więcej
Założyciel Microsoftu Bill Gates twierdzi, że wezwania do wstrzymania sztucznej inteligencji nie „rozwiążą problemów”.
Z naszych ustaleń wynika, że wśród krajów, które analizują możliwość zablokowania ChatGPT, nie ma Polski. Rodzimy Urząd Ochrony Danych Osobowych (UODO) przyznał nam, że nie prowadzi żadnego postępowania skierowanego w amerykańską konwersacyjną sztuczną inteligencję. Co więcej, do urzędu nie trafiły również jakiekolwiek skargi od firm czy osób prywatnych, które dopatrzyłyby się nieprawidłowości.
To może się jednak zmienić. Twórcy ChatGPT mają bowiem coraz więcej kłopotów nie tylko w Europie, gdzie oskarża się ich o brak stosowania zabezpieczeń, które ograniczałyby wycieki danych, czy uniemożliwiały dostęp do narzędzia małoletnim użytkownikom. ChatGPT wiązany jest również z rzekomym wyciekiem poufnych informacji w firmie Samsung. I to zaledwie niecały miesiąc po wdrożeniu systemu AI, który miał ułatwiać pracę pracownikom koncernu. Algorytmy zostały „nakarmione” wrażliwymi informacjami o półprzewodnikach i specjalistycznym oprogramowaniu pomiarowym koreańskiej firmy. Bez wiedzy Samsunga treści te stały się jednak częścią szerokiej bazy danych ChatGPT, na podstawie której szkoli się AI. Pozyskane od koncernu poufne materiały stały się zatem publiczne – ujawnił serwis DigiTimes.
Czytaj więcej
Ani puszczenie na żywioł rozwoju sztucznej inteligencji, ani jej całkowite zakazanie nie powinno być odpowiedzią na wątpliwości, jakie wzbudza.