Po tym, jak kilka dni temu włoski urząd dbający o ochronę danych i prywatności zmusił firmę stojącą za rewolucyjnym botem ChatGPT do zablokowania – na podstawie geolokalizacji – użytkowników w tym kraju, w Europie nastąpił efekt domina. Konsultacje z włoskimi urzędnikami przeprowadziło już kilka podobnych instytucji na kontynencie, które teraz badają, czy nie podjąć równie radykalnej decyzji. I tak na celownik firmę OpenAI wzięli m.in. Niemcy, Francuzi, Brytyjczycy i Irlandczycy.
Czytaj więcej
Założyciel Microsoftu Bill Gates twierdzi, że wezwania do wstrzymania sztucznej inteligencji nie „rozwiążą problemów”.
Z naszych ustaleń wynika, że wśród krajów, które analizują możliwość zablokowania ChatGPT, nie ma Polski. Rodzimy Urząd Ochrony Danych Osobowych (UODO) przyznał nam, że nie prowadzi żadnego postępowania skierowanego w amerykańską konwersacyjną sztuczną inteligencję. Co więcej, do urzędu nie trafiły również jakiekolwiek skargi od firm czy osób prywatnych, które dopatrzyłyby się nieprawidłowości.
To może się jednak zmienić. Twórcy ChatGPT mają bowiem coraz więcej kłopotów nie tylko w Europie, gdzie oskarża się ich o brak stosowania zabezpieczeń, które ograniczałyby wycieki danych, czy uniemożliwiały dostęp do narzędzia małoletnim użytkownikom. ChatGPT wiązany jest również z rzekomym wyciekiem poufnych informacji w firmie Samsung. I to zaledwie niecały miesiąc po wdrożeniu systemu AI, który miał ułatwiać pracę pracownikom koncernu. Algorytmy zostały „nakarmione” wrażliwymi informacjami o półprzewodnikach i specjalistycznym oprogramowaniu pomiarowym koreańskiej firmy. Bez wiedzy Samsunga treści te stały się jednak częścią szerokiej bazy danych ChatGPT, na podstawie której szkoli się AI. Pozyskane od koncernu poufne materiały stały się zatem publiczne – ujawnił serwis DigiTimes.
Czytaj więcej
Ani puszczenie na żywioł rozwoju sztucznej inteligencji, ani jej całkowite zakazanie nie powinno być odpowiedzią na wątpliwości, jakie wzbudza.
Według doniesień portalu Samsung nie zrezygnował z korzystania z ChatGPT, ale ograniczył „wagę” każdego pytania zadawanego botowi do 1024 bajtów i poinstruował pracowników, by zachowali ostrożność, gdyż wprowadzane do systemu AI dane przesyłane są na zewnętrzne serwery.
Aleksandra Bilińska, członek zarządu Koda.AI, wskazuje, iż technologie jak ChatGPT stawiają dziś przed nami wiele pytań i zupełnie nowych wyzwań w wielu obszarach zarówno pod kątem technologicznym, politycznym czy biznesowym, jak i edukacyjnym. Według niej trzeba uczyć ludzi od najmłodszych lat świadomego korzystania z technologii. – A już na dotychczasowym poziomie dostępnych rozwiązań mamy w tym zaległości. Jesteśmy świadkami przełomu w korzystaniu z internetu, dlatego pozostaje nam obserwować to, jakie działania będą podejmowane – komentuje Bilińska.
Czytaj więcej
Przedstawiciele polskiego rządu sugerują, iż zakaz dla konwersacyjnego bota, wydany przez włoskich urzędników, to błąd. - Należy regulować sztuczną...
Tym bardziej że systemów jak ChatGPT szybko przybywa. Własne rozwiązania mają Google, Anthropic (model Claude) czy chiński Baidu, rozwija je również Meta. Algorytmy LLaMa tej ostatniej firmy niedawno wyciekły zresztą do sieci, co zapewne wkrótce umożliwi budowę wielu amatorskich i nielegalnych botów. A już dziś podobne rozwiązania powstają jak grzyby po deszczu. Tylko w ostatnich dniach własne konwersacyjne systemy AI uruchomiły laboratoria uniwersytetów Berkeley (model Koala) i Stanford (Alpaca).
Analitycy Grand View Research prognozują, że rynek AI będzie rósł w najbliższych latach w tempie 37 proc. rocznie.