Przepisy ePrivacy krytykowane przez organizacje pozarządowe i biznes
Pliki cookies w nowym rozporządzeniu ePrivacy – ciasteczkowy potwór czy strachy na Lachy?
Czego trzeba się nauczyć
Każdy z nas, jako dysponent swoich i nie tylko swoich danych osobowych, powinien nauczyć się dwóch rzeczy – intuicyjnego chronienia swoich danych i asertywności w relacjach z firmami, które chcą te dane pozyskać. Kto ma w swoim telefonie ustawioną blokadę ekranu zabezpieczoną hasłem składającym się z więcej niż 4 cyfr? Złamanie czterocyfrowego hasła zajmuje hakerowi niecałą sekundę. A wystarczy zastosować 8 znaków, a najlepiej hasło mieszane – składające się z liter, cyfr i znaków specjalnych – aby praktycznie uniemożliwić jego złamanie.
Gdy prowadzi się działalność gospodarczą, zagubienie nieodpowiednio zabezpieczonego telefonu, np. 4-cyfrowym hasłem, może być uznane w świetle RODO za potencjalne naruszenie bezpieczeństwa danych osobowych. Taki incydent, wiąże się z obowiązkiem zgłoszenia go Urzędowi Ochrony Danych Osobowych, a w niektórych przypadkach także poinformowaniem wszystkich osób, których dane osobowe znajdowały się w zgubionym telefonie. A kto pamięta, jakie dokładnie dane ma w telefonie? Chociaż każdy przedsiębiorca, zgodnie z zasadą rozliczalności wynikającą z RODO, powinien umieć taką informację uzyskać w każdych okolicznościach, także po zgubieniu telefonu. Straszne? Nie. Wymaga tylko zmiany podejścia do tych zagadnień. Rozwiązania techniczne, właściwie darmowe, bo często wbudowane systemowo w urządzenia, istnieją. Trzeba tylko nauczyć się z nich korzystać.
AI to już nie science-fiction
Jedną z najważniejszych rzeczy, nad którymi przyjdzie się pochylić prawodawcom i wszystkim ludziom w nadchodzących latach, jest sztuczna inteligencja (AI – od angielskiego artificial intelligence) i jej wpływ na nasze życie. Rozwój sztucznej inteligencji pozwala tworzyć coraz sprawniejsze urządzenia (np. komputery, telefony komórkowe) oraz aplikacje pomagające w codziennym życiu i pracy (np. translator Google). Jest ona wspaniałą zdobyczą nauki i techniki, która zmieni świat. Z drugiej strony, pojawia się coraz więcej dylematów etycznych w związku z jej wykorzystywaniem, m.in. do analizy naszych zachowań oraz gromadzenia danych o naszej aktywności. Dlatego tak ważne staje się ustalenie prawnych zasad ochrony wszystkich danych, nie tylko tych osobowych, przed niekontrolowanym dostępem ze strony systemów komputerowych, aplikacji, internetu rzeczy, a de facto firm i ludziom za nimi stojących.
Kwestia uregulowanego, przejrzystego i kontrolowalnego przez człowieka rozwoju sztucznej inteligencji była i jest podnoszona przez wielu wybitnych naukowców i przedsiębiorców zajmujących się nowymi technologiami. Choć w swoich projektach i badaniach wykorzystywali oni i rozwijali systemy AI, to od kilku lat nawołują do kontrolowania sztucznej inteligencji, a rządzących do wprowadzenia regulacji prawnych zabezpieczających ludzi przed zagrożeniami ze strony sztucznej inteligencji. Trudno jednoznacznie ocenić, na ile te obawy są uzasadnione. Jednak fakt, że sami naukowcy i informatycy pracujący nad samouczącymi się algorytmami (ang.: deep learning alghoritms) i uczeniem się maszynowym (ang.: machine learning) przestają rozumieć, a właściwie nie są w stanie śledzić i odwzorowywać wszystkich procesów zachodzących wewnątrz tzw. „czarnej skrzynki" powoduje, że tym ważniejsza staje się konieczność zapewnienia transparentności i etyczności prac nad sztuczną inteligencją. Ponieważ sztuczna inteligencja jest wykorzystywana w pracy nad wieloma ważniejszymi sferami naszego życia, t.j. autonomiczne samochody, medycyna lub przemysł obronny, to obawy związane z brakiem kontroli nad nimi są całkowicie zrozumiałe. Ludzie muszą mieć pewność, że rozumieją jak działa ta technologia i w jaki sposób podejmuje decyzje. Skoro sztuczna inteligencja uczy się sama, a jej twórcy nie są w stanie kontrolować procesów zachodzących w jej korowej części, zwanej przez ten brak wglądu „czarną skrzynką", to skąd mamy wiedzieć, jaką decyzję podejmie komputer pokładowy naszego pojazdu autonomicznego – czy w sytuacji kolizyjnej będzie ratować życie pasażera czy grupy pieszych, stojących na poboczu, tak jak to miało miejsce niedawno? Należąca do Google firma DeepMind, opracowała system sztucznej inteligencji Alpha Go Zero, który nauczył się grać w Go bez interwencji człowieka, znając na początku jedynie reguły gry. Całość wiedzy pozyskał on grając przeciwko sobie – przez trzy dni rozegrała prawie 5 milionów gier z samym sobą, aż nauczył się przewidywać własne ruchy i rozpoznawać ich wpływ na wynik gry. Dzięki temu w bardzo krótkim czasie system rozwinął umiejętności potrzebne do pokonania najlepszego na świecie gracza Go. Podobna maszyna uczona zasad gry w Go przez ludzi nie miała już tak dobrych wyników. To daje do myślenia.