Na sztucznej inteligencji firmy korzystają od dawna. Wie to każdy, kto choć raz dzwonił na jakąś infolinię obsługiwaną przez wirtualnego asystenta. Owszem, to upierdliwe, gdy nasza sprawa jest nietypowa i trzeba się przebić przez kilka linii automatycznych zasieków, zanim zostaniemy połączeni z żywym konsultantem, który pomoże załatwić nasz problem. Ale trzeba przyznać, że pewną niemałą część spraw, z jakimi dzwonimy do centrów obsługi klienta, udaje się załatwić na tym zautomatyzowanym etapie – a to już oszczędność przedsiębiorcy, bo nie wszystkim trzeba zawracać głowę konsultantowi, a rozmów z automatem w tym samym czasie może się odbywać kilkadziesiąt, a nawet więcej.

Problemy zaczynają się, gdy sztuczna inteligencja zaczyna sama wyciągać wnioski i „opracowywać” dane, które przez lata przekazywaliśmy światu wirtualnemu. Tak zwana generatywna sztuczna inteligencja (AI) to świat nieznany – i poniekąd niebezpieczny. Tu chodzi o coś dużo więcej niż śmieszne obrazki, filmy lub inne dzieła zadane AI do wytworzenia. To także więcej niż reklamy, które wyświetlają nam się w internecie czy mediach społecznościowych – dobiera je nam algorytm, badając, jakie strony wcześniej odwiedzaliśmy.

Czytaj więcej

Pielucha z sensorami badającymi wilgotność, czyli akt w sprawie danych coraz bliżej

Nie sposób przewidzieć, co nam grozi, gdy ktoś w złej wierze zechce skorzystać z wiedzy o tym, co kupowaliśmy, gdzie i na co się leczyliśmy, dokąd i po co jeździmy, ile zużywamy energii i co jemy. To dane bezcenne dla naszych pracodawców, ubezpieczycieli i biznesu. Więc dobrze, że europejski ustawodawca wziął się za regulacje tych obszarów – by ocalić naszą prywatność, bo wolnoamerykanka w tym obszarze to ryzyko.

Tym zagadnieniom poświęcamy większą część ostatniego w tym roku dodatku „Biznes. Bezpieczna Firma”’. Serdecznie zapraszam państwa do jego lektury.