W ostatnim tygodniu Internet obiegła informacja o uwzględnieniu sztucznej inteligencji w projekcie nowelizacji prawa autorskiego, o czym pisałem już dla „Rzeczpospolitej”. Pierwotna wersja projektu zabraniała algorytmom generatywnej sztucznej inteligencji penetrowania zasobów i tekstów w Internecie — nie przyznawała bowiem algorytmowi uprawnienia do tzw. text-and-data mining, czyli swobodnej i nieograniczonej eksploracji tekstów i danych.
Rozwiązanie to skazane było z góry na porażkę: było bowiem nie tylko sprzeczne z przepisami interpretowanej dyrektywy unijnej, ale odmienne od rozwiązań przyjętych we wszystkich pozostałych państwach Unii, w których to algorytmy AI mają co do zasady swobodę penetracji zasobów internetowych. Doprowadziło by to do sytuacji, w której sztuczna inteligencja mogłaby „uczyć się” i rozwijać wszędzie poza granicami Polski, by ostatecznie i tak być nam sprzedawana przez zagranicznych producentów.
Coraz częściej jednak dochodzi do oddolnych blokad dostępu, stawianych na drodze łapczywego algorytmu. Jak i dlaczego niektórzy decydują się na taki krok?
Czytaj więcej
Przeciwnicy rozwoju rodzimej sztucznej inteligencji, którzy otrąbili zwycięstwo nad nową technolo...
Blokada sztucznej inteligencji. Koncerny wykorzystują przepisy
Do koncernów, które zdecydowały się postawić granicę algorytmom AI należą m.in. Amazon, The New York Times, CNN, Reuters, The Guardian, USA Today, Washington Post i CBS News. Na ruch taki zdecydowała się zdecydowana większość czołowych mediów informacyjnych. Oznacza to, że programy korzystające z generatywnej sztucznej inteligencji (np. ChatGPT) nie będą w stanie korzystać z treści należących do tych koncernów — nie będą mogły „uczyć się” na nich i generować dzięki temu własnych treści. Powodem wprowadzenia takich rozwiązań jest oczywiście prawo autorskie do tekstów, na których swoje cyfrowe łapy może chcieć położyć AI — i chodzi tu zarówno o ochronę praw samych firm, jak i autorów tekstów (m.in. dziennikarzy).