W 1968 roku podpisano traktat o nierozprzestrzenianiu broni jądrowej. Nie zapobiegł pojawianiu się kolejnych rodzajów broni tego typu i nowych jej posiadaczy, jak Izrael, Korea Północna czy RPA (przez chwilę), ale strach pomyśleć, co byłoby, gdyby go nie podpisano, a ludzkość nie wysłałaby wtedy jednoznacznego sygnału w tej sprawie.
Czytaj więcej
W środę Parlament Europejski przyjął rozporządzenie ws. sztucznej inteligencji (Artificial Intelligence Act, tzw. AI Act), które jest pierwszą na ś...
AI Act to ważny gest, ale może pozostać pusty
Czy sztuczną inteligencję (AI) da się w podobny sposób okiełznać? Zagrożenie nie jest mniejsze, choć różnica tkwi w tym, że rozwijaniem broni atomowej zajmowały się całe państwa, a w przypadku AI to prywatne firmy, za którymi rządy czy całe organizacje jak UE, nie są w stanie nadążyć. Nie potrzeba też tak złożonej infrastruktury.
Porównywanie AI do zagrożenia bronią atomową wcale nie jest na wyrost, zważywszy na przyszłe możliwości sztucznej inteligencji
Problem w tym, że i tu potrzebne jest światowe porozumienie. AI Act to ważny gest, ale lokalny i pozostanie pusty, jeśli podobnych reguł gry nie przyjmą inne państwa, zwłaszcza mocarstwa, jak USA i Chiny. Oba kraje przewyższają pod względem rozwoju sztucznej inteligencji – i szerzej innowacji – Europę, która mimo szczerych chęci na tym polu odstaje. Mało kto jest w stanie wymienić jakichś europejskich dużych graczy w świecie AI, podczas gdy w USA i Chinach takich koncernów jest co najmniej kilkanaście.
Przegłosowany w europarlamencie AI Act definiuje tylko część zagrożeń
Porównywanie AI do zagrożenia bronią atomową wcale nie jest na wyrost, zważywszy na przyszłe możliwości sztucznej inteligencji, która zdecydowanie wyprzedzając człowieka, może stać się nie tylko niebezpiecznym narzędziem w jego rękach, ale też samoistnym bytem o trudnych do przewidzenia zamiarach i... poglądach. Już teraz trzeba się do tego przygotować.
Czytaj więcej
Firmy z branży sztucznej inteligencji naciskają na brytyjski rząd, który wprowadza regulacyjne zabezpieczenia w kontekście rozwoju tej technologii....
Przegłosowany w europarlamencie AI Act definiuje tylko część zagrożeń (wielu jeszcze nie znamy) i próbuje znaleźć remedium. Najbardziej namacalnym przykładem są obecnie generowane przez AI fałszywe informacje w postaci np. deepfake, które, zacierając granicę między prawdą a fikcją, mogą doprowadzić do manipulacji na niewyobrażalną skalę, choćby w trakcie wyborów. Teraz ma istnieć obowiązek oznaczania takiej ingerencji, np. w zdjęcia czy filmy, choć wyegzekwować go wcale nie będzie łatwo.
Czytaj więcej
Prawo o sztucznej inteligencji ma uczynić Europę i Polskę miejscem, w którym warto być – pisze unijny komisarz ds. rynku wewnętrznego.
Proponowane regulacje nieco „rozwodniły” big techy, strasząc spowolnieniem rozwoju AI, ale i generalnie uderzeniem w innowacyjność światowej gospodarki. To niestety realne zagrożenie. Dobrze ujął to komisarz Thierry Breton w tekście dla „Rzeczpospolitej”: „Ochrona nie powinna utrudniać innowacji. Innowacje nie powinny też osłabiać ochrony”. Cała sztuka polega na tym, by wyważyć wszystkie racje, a regulacje skutecznie egzekwować. O ile w kwestii broni atomowej daleko idące regulacje zawsze mają sens (jeśli są egzekwowane), to w kwestii sztucznej inteligencji łatwo strzelić sobie w stopę. Zwłaszcza jeśli ktoś inny nie będzie miał ograniczeń.