AI. Jest pomysł jak okiełznać sztuczną inteligencję

Firmy oszalały na punkcie sztucznej inteligencji. AI jest jak energia atomowa: może być bronią, ale i źródłem pozytywnych działań. Jest pomysł, jak ją uregulować, choć to karkołomne zadanie.

Publikacja: 24.05.2023 03:00

Szkoły programowania stawiają na kursy online

Szkoły programowania stawiają na kursy online

Foto: Pixabay

Fala inteligentnych algorytmów rozlewa się po rynku. Boty wdrażane są przez biznes, systemy AI usprawniają działalność kolejnych instytucji. Tej rewolucji nie da się zatrzymać. O jej skali świadczą najnowsze badania firmy Gartner, z których wynika, że aż 70 proc. przedsiębiorstw bada potencjał tzw. generatywnej sztucznej inteligencji.

– Zainteresowanie tą technologią wśród polskich przedsiębiorców rośnie niezwykle szybko. Po liczbie spływających do naszych spółek zapytań widzimy, że jest ono bardzo duże, a firmom zaczął się udzielać tzw. efekt FOMO (z ang. fear of missing out, co oznacza, że boją się, iż przegapią właściwy moment) – mówi Daniel Świątkowski, prezes Hexe Capital. – Nawet dotychczas ostrożne, czy wręcz sceptyczne firmy zrozumiały, że rozwiązania takie jak np. automatyzacja komunikacji z klientami, to nie jest już coś, co mogą pomijać i obecnie jak najszybciej próbują się dowiedzieć, jak je wdrożyć w swoich organizacjach – dodaje.

Biznes łaknie AI

Ten niekontrolowany boom ma swoje dobre i złe strony. Jak wskazuje Rafał Bachorz z PSI Polska, przy pomocy algorytmów uczenia maszynowego systemy generatywne analizują dane i tworzą rozwiązania czy teksty na podstawie zgromadzonych informacji. Same w sobie nie są więc niebezpieczne. – Są to rozbudowane modele neuronowe pozwalające na wydajne pozyskiwanie informacji z różnych źródeł: tekstów, dokumentów, publikacji naukowych – wyjaśnia Bachorz. I przyznaje, że liczba firm zainteresowanych AI rośnie, czemu trudno się dziwić.

Jak tłumaczy, rozwiązania bazujące na sztucznej inteligencji to narzędzia optymalizujące biznes. PSI Polska opracowała np. projekty AI służące do zarządzania magazynem. System dla logistyki używany jest m.in. w magazynie LPP, gdzie skrócił długość tzw. ścieżek kompletacyjnych o 30 proc. Według raportu McKinsey firmy, które dość wcześnie i skutecznie zaimplementowały rozwiązania AI w zarządzaniu łańcuchem dostaw, obniżyły koszty logistyki o 15 proc. i zwiększyły poziom usług o 65 proc. w porównaniu z konkurentami, którzy nie zdecydowali się na korzystanie ze sztucznej inteligencji.

Czytaj więcej

Bill Gates wierzy w sztuczną inteligencję. "AI zastąpi wyszukiwarki i Amazona"

Zastosowań AI szybko przybywa i dziś praktycznie są w stanie odmienić każdy aspekt naszego życia. Ale motorem napędowym tej rewolucji był ChatGPT. Badania Gartnera pokazują, że 45 proc. firm do większych inwestycji w algorytmy przekonała popularność przełomowego narzędzia od OpenAI.

Jego twórca i szef tej firmy Sam Altman we wtorek odwiedził Polskę, gdzie spotkał się m.in. z premierem Mateuszem Morawieckim. Rozmawiali o potężnych możliwościach sztucznej inteligencji i perspektywach, w tym regulacji botów. Bo AI, choć pełna benefitów, stanowi zagrożenie.

– Rozwój AI stawia przed nami wyzwania. Możliwość łatwego tworzenia fake newsów stanowi jedno z tych niebezpieczeństw. Technologia nie powinna się rozwijać, lekceważąc społeczne obawy, dlatego tak ważny jest dialog między naukowcami, etykami oraz regulatorami, aby upewnić się, że tego typu niebezpieczeństwom można zapobiec – twierdzi Piotr Miłoś, lider zespołu badawczego w IDEAS NCBR, instytucji zajmującej się badaniami nad AI.

Etyczna inteligencja

Pomysł na uregulowanie algorytmów ma samo OpenAI – promuje koncept stworzenia ciała na wzór Międzynarodwej Agencji Energii Atomowej (MAEA), które miałoby sprawić, że określone zostałyby np. progi „zdolności”, jakimi dysponowałaby AI, a także poziom wykorzystywanych przez nią zasobów (m.in. takich jak moc obliczeniowa). Międzynarodowy organ czuwałby nad przestrzeganiem tych reguł, kontrolował wdrażanie systemów czy sprawdzał przypadki nieprzestrzegania ustalonych zasad poprzez audyty i testy zgodności ze standardami bezpieczeństwa.

W razie łamania prawa – tak jak MAEA – mógłby nakładać ograniczenia w rozwoju konkretnego systemu AI, określać dozwolone „stopnie wdrożenia” i ustalać dopuszczalne poziomy bezpieczeństwa.

O tym, że to potrzebne rozwiązanie, świadczy przykład Francji, gdzie tamtejsze Zgromadzenie Narodowe zatwierdziło plan wykorzystania inteligentnych kamer monitorujących przestrzeń w czasie przyszłorocznych igrzysk olimpijskich w Paryżu. Stało się to mimo sprzeciwu obrońców prywatności, którzy uważają, że technologia ta jest uciążliwa dla mieszkańców i rodzi ryzyko, że pozostanie w użyciu po igrzyskach. Poza tym to ruch sprzeczny z decyzjami AI Act (unijne rozporządzenie dotyczące sztucznej inteligencji), przyjętymi przez dwie komisje Parlamentu Europejskiego (zabrania on stosowania technologii do rozpoznawania twarzy i emocji).

Wojciech Głażewski, szef Check Point w Polsce, wylicza: – Aby ograniczyć ryzyko związane z zastosowaniem sztucznej inteligencji, rządy i organy regulacyjne powinny współpracować ze sobą w celu opracowania mechanizmów bezpieczeństwa, ustanowienia zasad etycznych. promowania przejrzystości i odpowiedzialności w jej rozwoju. Firmy, które opracowują systemy AI, winny zapewnić choć minimalne standardy, jak prywatność, uczciwość, zrozumiałość – dodaje Głażewski.

To dlatego firma SAS otworzyła właśnie w Holandii pierwsze na świecie laboratorium etycznej sztucznej inteligencji. – Wraz z szybkim rozwojem AI musimy zadbać, aby to ludzie byli w centrum – zaznacza Reggie Townsend, wiceprezes SAS Data Ethics Practice.

Sam Altman, prezes OpenAI, współtwórca ChatGPT

Powinniśmy obawiać się AI tak samo jak bomby atomowej. To jednak nie kwestia realnego zagrożenia, lecz świadomości potencjalnych ryzyk. Widzę więcej benefitów niż niebezpieczeństw związanych z rozwojem algorytmów. Trzeba wyciągać z tej technologii to co najlepsze, jednocześnie minimalizując zagrożenia. Liczę, że rządy są w stanie zapanować nad tą technologią. Liczę, że na tym polu dojdzie do porozumienia między światowymi potęgami, w tym USA, Chinami, Rosją i Unią Europejską. Jestem w stanie wyobrazić sobie taką współpracę. Wiele osób twierdzi, że taki sojusz nie jest możliwy, ale trzeba usiąść do rozmów, i to teraz, aby wypracować wspólne rozwiązania. Nikt nie gwarantuje sukcesu, ale choć podejmijmy próbę. Wszystkim powinno zależeć na wypracowaniu uniwersalnych, międzynarodowych reguł. Świat potrzebuje pewnego stopnia koordynacji wdrożeń AI, aby rozwój superinteligencji przebiegał w sposób, który pozwoli nam zachować bezpieczeństwo oraz pozwoli w jej sprawnej integracji ze społeczeństwem. 

Fala inteligentnych algorytmów rozlewa się po rynku. Boty wdrażane są przez biznes, systemy AI usprawniają działalność kolejnych instytucji. Tej rewolucji nie da się zatrzymać. O jej skali świadczą najnowsze badania firmy Gartner, z których wynika, że aż 70 proc. przedsiębiorstw bada potencjał tzw. generatywnej sztucznej inteligencji.

– Zainteresowanie tą technologią wśród polskich przedsiębiorców rośnie niezwykle szybko. Po liczbie spływających do naszych spółek zapytań widzimy, że jest ono bardzo duże, a firmom zaczął się udzielać tzw. efekt FOMO (z ang. fear of missing out, co oznacza, że boją się, iż przegapią właściwy moment) – mówi Daniel Świątkowski, prezes Hexe Capital. – Nawet dotychczas ostrożne, czy wręcz sceptyczne firmy zrozumiały, że rozwiązania takie jak np. automatyzacja komunikacji z klientami, to nie jest już coś, co mogą pomijać i obecnie jak najszybciej próbują się dowiedzieć, jak je wdrożyć w swoich organizacjach – dodaje.

Pozostało 85% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Biznes
Igor Lewenberg, właściciel Makrochemu: Niesłusznie objęto nas sankcjami
Biznes
Wojna rozpędziła zbrojeniówkę
Biznes
Standaryzacja raportowania pozafinansowego, czyli duże wyzwanie dla firm
Biznes
Lego mówi kalifornijskiej policji „dość”. Poszło o zdjęcia przestępców
Biznes
Rząd podjął decyzję w sprawie dyplomów MBA z Collegium Humanum