Reklama

Koniec internetu, jaki znamy. Kolejny krok w rewolucji: polecenia dla agentów AI

Posłuchaj artykułu
0:00 37:59
Sztuczna inteligencja, zmieniająca coraz więcej dziedzin życia, nieoczekiwanie zaczęła stwarzać zagrożenie dla internetu. Przy okazji trzeciej rocznicy powstania ChatGPT, warto pochylić się nad tymi nowymi trendami. Chodzi o powolne umieranie stron internetowych, za pośrednictwem których od trzech dekad czerpiemy informacje o otaczającej nas rzeczywistości.

Publikacja: 28.11.2025 06:00

Kobieta przy komputerze

Kobieta przy komputerze

Foto: Adobe Stock

Kilka lat temu pojawiła się teoria spiskowa określana mianem teorii martwego internetu. Jej istotą było przekonanie, że od 2016 r. ruch w sieci generowany jest głównie przez boty, które są również autorami większości publikowanych treści i poprzez nie manipulują algorytmami, a co za tym idzie, również opinią publiczną, ponieważ decydują o tym, co internauta zobaczy w pierwszej kolejności przeglądając swoje media społecznościowe, czy też wyszukując informacje za pomocą internetowej wyszukiwarki. Cała operacja ma być skoordynowana przez jakiś tajny ośrodek rządzący światem, który w ten sposób miał wpływać na nastroje i opinie społeczne. W „martwym internecie” użytkownik nigdy nie może być pewien, czy uczestniczy w interakcjach z drugim użytkownikiem, czy może rozmawia z botem o treściach stworzonych przez innego bota.

O ile jednak nie ma żadnych dowodów na istnienie światowego spisku, którego celem było „zabicie” internetu, o tyle w 2024 r. – jak czytamy w analizie zajmującej się cyberbezpieczeństwem firmy Imperva, po raz pierwszy w historii internetu boty stanowiły większość jego użytkowników (ok. 51 proc.). Mało tego – badanie przeprowadzone przez zajmującą się pozycjonowaniem stron internetowych firmę Graphite wykazuje, że obecnie ponad 50 proc. treści pisanych, które są dostępne w internecie, nie zostało stworzone przez człowieka, przy czym między 2022 r. a 2024 r. odsetek takich treści wzrósł z 10 do 40 proc.

Dlaczego przy raporcie Graphite wyróżnia się 2022 r.? W listopadzie tego roku premierę miały dwie aplikacje, które prawdopodobnie na zawsze odmieniły naszą rzeczywistość na skalę, jaką wciąż trudno ocenić. Chodzi o chatboty – ChatGPT i Bard (dziś Gemini), opracowane przez OpenAI i Google’a. Oba, oparte na generatywnej sztucznej inteligencji, chatboty, wykorzystując zaawansowane uczenie maszynowe, które w praktyce przypomina proces uczenia się człowieka, po przetworzeniu gigantycznych zbiorów danych i „wyszkoleniu” się na ich podstawie, były gotowe do rozmowy z internautami. Nawiązując do nazwy teorii martwego internetu można stwierdzić, że tego dnia internet, jaki znamy, zaczął „umierać”.

Czytaj więcej

Polskie firmy dzięki kadrom inżynierskim mogą wygrać na AI pod kilkoma warunkami

Od Yahoo do Google - jak zmieniło się wyszukiwanie treści w internecie

Żeby zrozumieć, w jaki sposób generatywna sztuczna inteligencja odciska piętno na internecie musimy przypomnieć sobie, czym była sieć przed listopadem 2022 r.

Reklama
Reklama

W momencie swoich narodzin internet był w praktyce siecią połączonych ze sobą komputerów, na których przechowywano dane. Przełomem było stworzenie przez Tima Bernersa-Lee, utożsamianego często z internetem w ogóle, systemu WWW (World Wide Web), w którym dokumenty i inne zasoby przechowywane na połączonych w sieć komputerach są prezentowane w postaci hipertekstu za pomocą formatu URL. W 1993 r. stworzony w ramach CERN system został bezpłatnie udostępniony wszystkim, co de facto zapoczątkowało rewolucję internetową. Teraz każdy – za pomocą stworzonych równolegle pierwszych graficznych przeglądarek internetowych, takich jak Mosaic (pionier przeglądarek), czy powstały w 1995 r. Internet Explorer, mógł w łatwy sposób zapoznawać się z udostępnianymi w sieci treściami.

Jako że strony internetowe w drugiej połowie lat 90. zaczęły powstawać jak grzyby po deszczu, pojawiła się potrzeba stworzenia mechanizmu, który pozwoliłby w jakiś sposób odnaleźć się w coraz większym gąszczu informacji. W czasach przed rewolucją WWW taką rolę pełnił Archie, czyli mechanizm do przeszukiwania zasobów serwerów FTP, gdzie przechowywano udostępniane dane. W 1994 r. Jerry Yang i David Filo stworzyli Yahoo, pierwszą tak popularną wyszukiwarkę internetową, która była czymś w rodzaju przewodnika po internecie – twórcy Yahoo klasyfikowali strony dzieląc je na kategorie i tworząc katalog serwisów, co ułatwiało wyszukiwanie treści. Yahoo szybko stało się najpopularniejszym serwisem świata, ale błyskawicznie przestało też wystarczać internautom. Powód był prosty: było czymś w rodzaju internetowej książki telefonicznej, która nieco porządkowała informacyjny chaos, ale nie do tego stopnia, by móc szybko dotrzeć do bardziej szczegółowego zagadnienia. Mieliśmy więc listę stron sportowych, ale aby np. znaleźć interesujący nas wynik meczu trzeba było wybrać stronę z listy i potem szukać już informacji kierując się dostępną na niej nawigacją.

I wtedy na scenę wszedł Google – prawdziwa przeglądarka, która skanowała treść stron internetowych pod kątem treści, wyszukując te bardziej szczegółowe, a jednocześnie dokonywała oceny stron, pozycjonując w wynikach wyszukiwania wyżej te, które uznawała za bardziej wiarygodne i rzetelne. Google nie był jedyną wyszukiwarką w tamtym czasie (wcześniej powstały wyszukiwarki takie jak AltaVista czy WebCrawler), ale jej algorytm okazał się najskuteczniejszy – do tego stopnia, że dziś praktycznie wyszukiwanie jest tożsame z „googlaniem”.

Kolejne dwie dekady to niepodzielne panowanie Google’a, pozwalającego rozkwitnąć stronom internetowym, które miały szansę osiągać ogromne zasięgi (rocznie w Google wykonywanych jest obecnie ok. pięciu bilionów wyszukiwań). Zasięg jest tu słowem kluczowym, ponieważ internet powstał na bazie idealistycznego założenia, że informacja i wiedza powinny być darmowe – walutą w sieci stała się więc uwaga internautów, mierzona w odsłonach (PV), czyli „kliknięciach” w stronę i użytkownikach (UU). Dominującym modelem biznesowym w internecie, zwłaszcza jeśli chodzi o dystrybucję wiedzy czy informacji stał się model „zasięgowy” – ten, kto docierał do dużej liczby użytkowników, mógł liczyć na zainteresowanie reklamodawców. Pośrednikiem był tu zresztą często sam Google, który już w 2000 r. uruchomił system reklamowy Google AdWords (dziś Google Ads), w ramach którego serwisy internetowe mogą umieszczać na stronie reklamy pozyskiwane przez Google i partycypować w zyskach. Dzięki temu na „darmowym” co do zasady internecie można było zarabiać, i to całkiem nieźle.

Gdy w erze Google’a internauta chciał uzyskać informację np. na temat tego, jak ugotować rosół, wpisywał w pasku wyszukiwania pytanie i otrzymywał w odpowiedzi szereg linków (tzw. SERP – czyli search engine results page, strona z wynikami wyszukiwania), które były uporządkowane tak, by najwyżej pojawiały się strony uważane przez Google za najrzetelniejsze i najlepiej odpowiadające na pytanie. Internauta wybierał jeden z linków, wchodził na stronę i uzyskiwał informację, której potrzebował, a właściciel strony dzięki temu notował odsłonę, którą mógł potem „zmonetyzować” sprzedając reklamy. I właśnie ten ekosystem zadrżał w posadach, gdy pojawiły się chatboty uzbrojone w generatywną sztuczną inteligencję.

Czytaj więcej

Jeszcze nie musimy bać się AI
Reklama
Reklama

ChatGPT, Gemini i koniec tradycyjnych wyszukiwarek

O ile bowiem Google pozwalał szybciej zdobyć pożądaną informację niż katalog stron, jaką był Yahoo, o tyle ChatGPT, Gemini, Claude, Grok czy wykorzystujący modele językowe tych chatbotów serwis Perplexity pozwalają zdobyć informację jeszcze szybciej niż Google. Od momentu, w którym uzyskały one dostęp do treści w internecie (ChatGPT np. zaczął mieć możliwość przeglądania internetu na bieżąco od września 2023 r.), są w stanie wykonać za użytkownika pracę, jaką dotychczas musiał wykonywać samodzielnie, przeklikując się przez linki. Droga od zapytania do uzyskania odpowiedzi skraca się więc o konieczność wyłuskania tej odpowiedzi ze strony „podrzuconej” przez wyszukiwarkę Google. Mało tego – użytkownik może być znacznie mniej precyzyjny niż w przypadku wpisywania zapytania do Google’a, generatywna sztuczna inteligencja opiera się bowiem na głębszym rozumieniu tekstów, nie jest tak mocno uzależniona np. od słów kluczowych jak Google (potrafi zidentyfikować słowa bliskoznaczne związane z naszym zapytaniem), a jakby było tego mało, można dopytać ją o to, czego w odpowiedzi brakuje, poprosić o dokładniejsze zbadanie problemu i finalnie – otrzymać na tacy interesującą nas odpowiedź. – Z modeli językowych korzystamy chętnie szukając informacji czy opinii o danych produktach, bo to jest po prostu dla nas wygodniejsze. Nie trzeba się przeklikiwać przez 10 stron wyszukiwarki. Wszystko mamy od razu podane na tacy w jednym miejscu – mówi w rozmowie z „Plusem Minusem” Miron Kłosiński, product development director w agencji marketingowej Verseo. – Jeśli chcemy sprawdzić, jak wygląda sytuacja na Bliskim Wschodzie, nie musimy tam jechać osobiście i badać sytuacji, rozmawiać ze świadkami. Możemy po prostu przeczytać relację kogoś, kto się aktualnie tam znajduje. Chatboty AI umożliwiają pogłębienie tego researchu, wybierają za nas informacje, które mogą być rozproszone, pochodzić z wielu źródeł i je dla nas przygotowują – mówi z kolei Jakub Wójcik, prezes agencji Emerald Media.

– Przestaliśmy sami sobie „gotować informacje” z różnych składników, wybierać je, przygotowywać – teraz je zamawiamy. To tak jakby pójść do „mentalnej restauracji internetowej” i poprosić ChatGPT, aby nam zaserwował dany temat – mówi dr Jakub Kuś, psycholog nowych technologii z Uniwersytetu SWPS.

Tak zresztą rolę generatywnej sztucznej inteligencji zdefiniował sam Google. Uruchamiając w 2024 r. AI Overviews, czyli usługę polegającą na tym, że – w oparciu o rozszerzony model językowy Gemini – przy niektórych zapytaniach wyszukiwarka, przed podaniem listy linków, sama generuje ustrukturyzowaną odpowiedź w oparciu o liczne dostępne jej źródła, Google posługiwał się hasłem: „Pozwól Google’owi wykonać wyszukiwanie za ciebie”. Minął rok – i w wyszukiwarce Google pojawił się tzw. AI Mode, czyli de facto wbudowano w nią chatbota. O ile AI Overviews pojawiały się w Google’u tylko przy niektórych wyszukiwaniach (z badania przeprowadzonego w marcu w USA przez Pew Research wynikało, że taka wygenerowana przez sztuczną inteligencję odpowiedź na pytanie pojawiała się w ok. 15 proc. wyszukiwań), o tyle AI Mode sprawia, że sztuczna inteligencja może w każdej chwili zastąpić nas w wyszukiwaniu.

Konsekwencje? Łatwe do przewidzenia. Według danych firmy analitycznej BrightEdge pojawienie się AI Overviews sprawiło, że liczba ekspozycji linków w Google wzrosła o 49 proc. (ponieważ udzielając odpowiedzi AI wskazuje linki, na które się powołała), ale liczba kliknięć w pojawiający się link (czyli tzw. CTR) spadła o 30 proc. Z kolei z analizy agencji marketingowej Seer Interactive wynika, że w przypadku pojawienia się przy wyszukaniu AI Overview liczba kliknięć w pojawiające się linki spada nawet o 70 proc. Z wspomnianego badania Pew Research wynika, że w USA internauta był dwa razy mniej skłonny kliknąć w wyszukane linki, gdy poprzedzała je wygenerowana przez sztuczną inteligencję odpowiedź, a w linki pojawiające się przy tej odpowiedzi klikał tylko 1 proc. badanych. Co więcej – 26 proc. badanych, po otrzymaniu takiej odpowiedzi kończyło wyszukiwanie. Dane serwisu analitycznego Similarweb wskazują z kolei, że od momentu uruchomienia usługi AI Overviews liczba wyszukiwań określanych mianem „zero clicks” (czyli wyszukiwania bez kliknięcia) wzrosła z 56 do 69 proc. Firma doradztwa strategicznego Bain & Company podaje, że 80 proc. konsumentów szukających informacji w internecie w 40 proc. przypadków zadowala się odpowiedziami uzyskanymi w formule „zero clicks”.

– Podejście „zero clicks”, w którym nie szuka się informacji na stronach źródłowych, tylko zadowala się AI Overview, albo korzysta np. z Perplexity i otrzymuje się podsumowanie, przestaje być ciekawostką, przeciętny użytkownik internetu zaczyna się tak zachowywać – mówi Mateusz Cisowski, założyciel AI Hero.

Jakub Wójcik stwierdza natomiast: mamy do czynienia z sytuacją, w której użytkownik w pewnym sensie przerzuca szukanie odpowiedzi na inne narzędzie. Trochę się rozleniwia i uzależnia od tego, co ChatGPT i Gemini sprawdzą za niego.

Reklama
Reklama

– Gdy wpisze się w Google lub ChatGPT pytanie, to zazwyczaj już tam uzyskujemy odpowiedź. I nie potrzebujemy wchodzić na strony internetowe – mówi Miron Kłosiński. I to ostatnie jest sednem problemu.

Przypomnijmy sobie bowiem model biznesowy obowiązujący w internecie – treści są udostępniane za darmo, a walutą staje się uwaga użytkowników. W momencie, gdy użytkownicy zaczynają odpływać, wraz z nimi odchodzą reklamodawcy, którzy nie widzą potrzeby płacenia za wyświetlenia reklam, których nie ma. To z kolei pozbawia twórców stron motywacji lub po prostu środków finansowych niezbędnych do tworzenia treści czy utrzymania strony. To dlatego BBC w czerwcu tego roku pytało dramatycznie: Czy Google zniszczy internet? A brytyjski tygodnik „The Economist” pisał, że „AI zabija sieć”.

– Na pewno czeka nas rewolucja dotycząca tego, jak będzie wyglądała reklama w sieci. Z punktu widzenia twórców to jest katastrofa. Ludzie przestają wchodzić na witryny twórców, wydawnictw, blogerów, artystów. Oni mieli pewien przychód z reklamy, którą zamieszczali na stronach. I to źródełko właśnie wysycha – mówi dr Dominik Skowroński z Wydziału Zarządzania Uniwersytetu Łódzkiego.

Dr Jakub Kuś dodaje: to będzie duże wyzwanie. Czeka nas bardzo fundamentalna zmiana architektury internetu. Dla użytkownika pewnie będzie to prostsze, ale np. dla redakcji – mniej korzystne.

Owszem, niektórzy zwracają uwagę, że koniec znanego nam internetu wieszczono już w momencie pojawienia się mediów społecznościowych czy smartfonów i aplikacji mobilnych, ale – jak zauważa Cisowski – wówczas sytuacja była inna. – Aplikacje i media społecznościowe zmieniały sposób konsumowania treści czy wchodzenia w interakcje z innymi osobami, ale teraz mówimy o zmianie tego, kto jest pierwotnym odbiorcą informacji. Teraz staje się nim bot zbierający dane dla sztucznej inteligencji – mówi.

Reklama
Reklama

Czytaj więcej

Zwolnienia w Amazonie mogą wywołać efekt domina na rynku pracy

Nowa konkurencja dla Google’a

Sprowadzanie problemu do Google’a i jego postawienia na AI byłoby spłyceniem zagadnienia, bo działania tego koncernu są reakcją na nową rzeczywistość i silną konkurencję w postaci choćby ChatGPT. W kwietniu pojawiła się informacja, że po raz pierwszy od 22 lat liczba wyszukiwań wykonanych w Google za pośrednictwem przeglądarki Apple’a Safari zmniejszyła się o kilka procent. Eddy Cue, wiceprezes ds. usług internetowych przyznał, że to wina pojawienia się chatbotów AI.

Potwierdza to badanie przedstawione przez agencję marketingu cyfrowego HigherVisibility. Wynika z niego, że w USA między lutym a sierpniem tego roku odsetek wykorzystujących Google do wyszukiwania ogólnych informacji (na bieżące tematy) spadł z 73 do 66,9 proc., a jednocześnie odsetek używających do tego ChatGPT wzrósł z 4,1 do 12,5 proc. W tym samym czasie odsetek korzystających z AI na co dzień wzrósł z 14 do 29 proc. To samo badanie wskazuje, że odsetek ludzi wykorzystujących AI jako wyszukiwarki różnego rodzaju treści wzrósł z 41,6 do 62,2 proc. OpenAI wypuścił zresztą swoją własną przeglądarkę Atlas (podobnie jak Perplexity – jej przeglądarka to Comet), wspieraną przez tzw. agentów AI – czyli boty, które mogą wykonać za nas określone działania w internecie (np. wysłać maila, zapłacić rachunek albo nawet zrobić zakupy). Między styczniem 2024 r. a majem 2025 r. zapytania związane z bieżącymi informacjami skierowane do ChatGPT wzrosły o 212 proc.

Dodajmy do tego, jak błyskawicznie przybywa użytkowników chatbotów AI (w ciągu dwóch lat ich liczba miała przekroczyć miliard, w tym samego ChatGPT ma używać ok. 800 mln osób). – Trwa dynamiczny wyścig firm, które zbudowały modele AI i rywalizują o użytkowników. Na ten moment 80 proc. rynku, jeśli chodzi o wyszukiwanie przez AI, ma ChatGPT, czyli OpenAI. Drugim graczem jest Perplexity, a trzecim Google. Ale na dłuższą metę Google ma pewną przewagę, bo ludzie mają nawyk poszukiwania informacji tam – zauważa dr Skowroński dodając, że właśnie dlatego, jeśli Google przebuduje wyszukiwarkę, tak aby miała zalety chatbota OpenAI, wówczas układ sił na rynku może się zmienić. Gdyby Google nie dostosowywał się do nowej rzeczywistości, wówczas zostałby po prostu trwale zdetronizowany.

– Era tradycyjnych wyszukiwarek moim zdaniem się kończy i już nigdy nie wróci, w takim sensie, w jakim wykorzystywaliśmy je przez kilkanaście lat. To jest zjawisko, z którym nikt nie wygra. Giganci cyfrowi widzą to doskonale – mówi dr Kuś.

Reklama
Reklama

Pytanie tylko, jak do tej nowej rzeczywistości przystosuje się internet.

Czytaj więcej

Podcast „Posłuchaj Plus Minus”: AI. Czy Europa ma problem z konkurencyjnością?

Dlaczego użytkownicy sieci przestają klikać w linki

Efektem wejścia chatbotów AI w „buty” wyszukiwarek jest – jak pokazuje przykład AI Overviews – spadek ruchu. Z danych Similarweb dotyczących ruchu na ponad 100 milionach stron sieciowych wynika, że w czerwcu tego roku notowano spadek ruchu z wyszukiwarek rok do roku rzędu 5 proc. Ponadprzeciętnie wysokie spadki notują strony dotyczące tematyki zdrowotnej oraz serwisy naukowe i edukacyjne (co pokazuje, że rolę doktora Google’a czy pomocy naukowej zaczyna przejmować AI). Znaczące straty notują też serwisy mediów – z danych Similarweb wynika, że w USA od maja 2024 do maja 2025 r. liczba generowanych przez nie odsłon spadła z 2,3 mld do 1,7 mld, czyli o 26 proc.

Przedstawiciele Google’a bagatelizują ten trend. Nick Fox, wiceprezes ds. wiedzy i informacji w jednym z podcastów mówił, że z perspektywy jego spółki „sieć kwitnie” – na co dowodem ma być zwiększenie się zawartości internetu w ciągu dwóch lat o 45 proc. Wzrost liczby treści nie wyklucza jednak spadku liczby odsłon – zwłaszcza że, co zostało wspomniane we wstępie, wiele z tych nowych treści może nie być autorstwa człowieka i nie musi świadczyć o rosnącym zainteresowaniu surfowaniem po internecie.

– Nadal musimy mieć świadomość tego, że jeśli chodzi o ruch, jaki pochodzi z tradycyjnych wyszukiwarek, a ten, jaki notują chatboty, to są w ogóle inne rzędu wielkości – zastrzega Jakub Wójcik. – Ale trend rzeczywiście jest potężny i widać, że w ciągu roku, dwóch lat to może się zupełnie odwrócić – dodaje. Na to, że mamy do czynienia z technologią perspektywiczną wskazują badania Pew Research z października 2025 r. – We wszystkich badanych krajach najwięcej o AI wiedzą najmłodsi respondenci, w grupie tej najmniejsze są również obawy (a zatem i opory), jeśli chodzi o korzystanie z tych narzędzi. Z przyczyn czysto biologicznych sceptycznych wobec AI będzie ubywać.

Reklama
Reklama

Prezes agencji Emerald Media przyznaje, że w przyszłości „pewnie będą takie strony i segmenty rynku, gdzie być może wizyta na tradycyjnej stronie internetowej w ogóle nie będzie potrzebna”. W tym kontekście wymienia np. pogłoski, że być może w ChatGPT pojawi się możliwość bezpośredniego zakupu danego produktu bez pośrednictwa strony internetowej sklepu. – Teoretycznie możemy znaleźć się w rzeczywistości, że przeciętny użytkownik nie będzie zbyt często widział potrzeby, żeby opuszczać chatbota – będzie wszystkie sprawy załatwiał tam, tak jak wcześniej robił to za pośrednictwem wyszukiwarki Google – zastanawia się Jakub Wójcik.

– Widzimy, że ruch na stronach internetowych klientów maleje – mówi z kolei Miron Kłosiński z Verseo. Pytany, czy zmierzamy w stronę internetu, który jest nam „opowiadany” przez sztuczną inteligencję przyznaje, że „w tym kierunku to zmierza”, choć „w perspektywie roku-dwóch lat strony internetowe będą dalej potrzebne”. – Mając tę wiedzę, na bieżąco reagujemy na zmiany i dostosowujemy strony klientów do nowych wymogów, dbając jednocześnie o klasyczne fundamenty SEO – dodaje.

Mateusz Cisowski stwierdza: „Ja nie widzę powodu, żeby ten trend miał się masowo zmienić. Z perspektywy użytkownika to jest wygodne, więc jeśli możesz dostać jakieś informacje szybciej, nawet jeśli one są trochę gorszej jakości, to ciężko sobie wyobrazić, że przestaniemy z tego korzystać”.

Cisowski dodaje, że kolejnym krokiem, który wydarzy się w perspektywie dwóch lat, będzie upowszechnienie przeglądarek agentowych, w których będziemy wydawać polecenia agentom AI, a oni sami będą wykonywać za nas aktywności w sieci. – Tam ruch staje się w ogóle sztuczny, bo nawet jeśli ktoś wchodzi na twoją stronę, to może się okazać, że jest to bot działający w imieniu użytkownika – wyjaśnia.

Wszyscy nasi rozmówcy są zgodni – najbardziej ucierpią na tym strony o charakterze informacyjnym, poradnikowym czy np. porównywarki ofert. – To jest zagrożenie dla tego typu stron, bo one żyły do tej pory w dużej mierze z tego, że publikowały reklamy – mówi Kłosiński.

W przypadku takich stron pojawia się jeszcze czynnik etyczny – sztuczna inteligencja pozbawia je ruchu jednocześnie „karmiąc się” dostarczanymi przez nie danymi. – Część firm, mówiąc wprost, zupełnie nie szanuje praw własności intelektualnej. Przed erą generatywnego AI byłoby nie do pomyślenia, że w tak dużej skali prawa twórców będą łamane. Te serwisy muszą to odczuć – skoro w ogóle nie muszę na nie wchodzić, to dlaczego reklamodawca miałby się ogłaszać w takim czy innym serwisie, jeśli nikt tam już finalnie nie dociera? W efekcie motywacja twórców będzie cały czas spadała. Jaki będą mieli interes w tym, by ponosić koszty stworzenia autorskich materiałów? – pyta retorycznie Cisowski.

Najwięksi dostawcy treści informacyjnych zaczynają więc stosować taktykę „uwodzenia i pozywania” (ang. wooing and suing). W ramach „uwodzenia” zawierają umowy licencyjne na udostępnianie swoich treści chatbotom (a konkretnie botom crawlującym, które przeszukują strony i zbierają o nich informacje). NewsCorp (należy do niego m.in. „WSJ”) zawarł) np. wartą 250 mln dol. umowę licencyjną z OpenAI, twórcą ChatGPT), a jednocześnie pozwał Perplexity za wykorzystywanie jego treści do przygotowywania odpowiedzi na pytania internautów. Sceptycy twierdzą jednak, że są to działania głównie wizerunkowe, na dodatek, szansę na takie umowy mają tylko najwięksi gracze.

Mniejsi mogliby np. zablokować swoje strony dla wspomnianych botów crawlujących (co jest technicznie możliwe), ale wówczas np. wypadliby z wyszukiwań Google, a więc spadliby z deszczu pod rynnę. Matthew Prince, prezes firmy Cloudflare, działającej w obszarze bezpieczeństwa internetu i wydajności stron zaproponował rozwiązanie „płać-za-crawlowanie” umożliwiające stronie pobieranie opłaty od botów, które ją penetrują. Cisowski zwraca jednak uwagę, że pozostaje sprawą otwartą, czy BigTechy będą chciały za to płacić małym dostawcom treści.

Pozostają więc inne rozwiązania. Część twórców takich treści przechodzi na format audio/wideo i korzysta z serwisów takich jak YouTube oraz formatów takich jak podcasty, które trudniej „opowiedzieć” sztucznej inteligencji. Inni starają się dotrzeć do użytkowników metodami innymi niż tradycyjne wyszukiwarki: np. poprzez klasyczne newslettery czy media społecznościowe.

– Można innymi kanałami budować markę swojego portalu. Zaoferować coś, czego AI nie będzie w stanie podać w wynikach wyszukiwania: np. jakieś narzędzie typu kalkulator kosztów. Można, np. w oparciu o media społecznościowe, budować skupioną wokół siebie społeczność, swój autorytet – wylicza Miron Kłosiński z Verseo. Strony z treściami informacyjnymi, zwłaszcza media, przechodzą też na modele subskrypcyjne – tzn. odchodzą od reguły, że w internecie wszystko jest za darmo i za dostęp do swoich treści pobierają opłatę.

Dr Skowroński nadzieję dla dostawców treści informacyjnych w świecie zdominowanym przez AI widzi w obsadzaniu nisz. Jak wylicza na portalach typu Spotify, większość użytkowników słucha ograniczonej puli najpopularniejszych piosenek. – Upraszczając – 80 proc. społeczeństwa słucha 20 proc. piosenek. Ale przecież tam jest dużo również innych twórców. I wokół nich powstają pewne nisze – mówi. Jego zdaniem możliwe jest, że na rynku w pewnym momencie pojawi się ktoś, kto zacznie takie nisze promować, jako alternatywa dla Google czy OpenAI. – Powie: „ja pozwalam znaleźć niszowych twórców, ale bardzo wartościowych”.

Również dr Kuś spodziewa się, że dojdzie do rozwarstwienia, jeśli chodzi o pozyskiwanie informacji. – Będzie grupa absolutnych optymistów i fanów AI we wszystkich możliwych zastosowaniach, ale będą też tacy, którzy nie wpadną w ten proces bez dna i oni dalej będą wchodzić na swoje ulubione strony, bo mają przekonanie, że znajdą tam rzetelną informację – mówi. Pytanie, czy twórcom informacji ta garstka pasjonatów wystarczy pozostaje otwarte.

Czytaj więcej

Podcast „Posłuchaj Plus Minus”: Sztuczna inteligencja zabierze nam pracę

Martwy internet, czyli kiedy boty przejęły sieć

Ale nie wszyscy muszą odczuć wysychanie strumienia internetowego ruchu równie boleśnie. Moi rozmówcy zajmujący się marketingiem cyfrowym zwracają uwagę, że ruch generowany przez chatboty AI jest może mniejszy, ale ma wyższą jakość – tzn. jeśli ktoś trafi do nas z tego źródła, to naprawdę chciał to zrobić. A to, w przypadku niektórych posiadaczy stron, jest ważniejsze niż sam ruch. – Ruch, który dalej pozostaje na stronach internetowych, staje się bardziej kaloryczny. Może jest mniejszy, ale np. liczba zakupów, czy zapytań ws. oferty utrzymuje się na tym samym poziomie, a nawet wzrasta – podkreśla Kłosiński.

– Mówimy na przykład o firmach, którym nie zależy, by ktoś przeczytał przekazywane przez nie informacje, albo wszedł na stronę główną, żeby poznać najnowsze doniesienia. Chodzi o firmy, które chcą budować świadomość marki, swoją rozpoznawalność, żeby ostatecznie użytkownik trafił do nich, chcąc kupić jakiś produkt albo zamówić jakąś usługę. Dla nich wyszukiwanie przez AI to okazja, bo jeśli użytkownik np. zastanawia się nad wyborem kierunku studiów, to ostatecznie musi się na jakieś studia zapisać. I jeśli chatbot podpowie konkretną uczelnię, bo ta uczelnia zoptymalizowała stronę tak, żeby zwiększyć na to szansę, to nawet przy mniejszym ruchu na stronie może mieć więcej chętnych do studiowania – tłumaczy prezes Emerald Media. Podobnie rzecz się ma ze sprzedawcami różnych towarów – np. telefonów komórkowych.

I tu wracamy do teorii martwego internetu. W sytuacji, w której kanałem dostępu do użytkowników stanie się chatbot AI z perspektywy twórcy strony ważniejsze będzie, aby strona była czytelna dla niego, a nie dla użytkownika. Być może duża część internetu stanie się przestrzenią, w której „pasażerami pierwszej klasy” będą boty AI.

W czym to się będzie przejawiać? Miron Kłosiński z Verseo mówi, że w uczynieniu strony przyjaznej AI sprawdza się 80 proc. rozwiązań, które były stosowane w klasycznym SEO (czyli optymalizacji tekstu pod kątem wyszukiwarki Google). Jak dodaje na pozostałe 20 proc. składa się umieszczanie na stronie najczęściej zadawanych pytań i odpowiedzi (tzw. FAQ), co pomaga botom crawlującym znaleźć potrzebne treści. Pozostałe istotne elementy to spójne dane strukturalne, eksperckie treści czy autorytet domeny. – Ważne jest, aby zaraz po pytaniu, w jednym zdaniu, padała konkretna odpowiedź – kontynuuje Kłosiński. Jak dodaje AI lubi też „krótkie zdania, naturalny, konwersacyjny styl i język, jakiego używa internauta w rozmowie z chatbotem”. – Wtedy jest większe prawdopodobieństwo, że użytkownik, który wpisze podobne pytanie w AI, otrzyma odpowiedź, która będzie zrobiona na bazie tego, co jest na naszej stronie. Wówczas jest szansa, że nasza strona będzie zacytowana w wynikach – dodaje. – Dynamika zmian jest ogromna, dlatego stale badamy wpływ sztucznej inteligencji na wyniki organiczne. Analizujemy tysiące wyników i testujemy rozwiązania, które pomagają utrzymać oraz zwiększać widoczność stron w nowym ekosystemie – mówi przedstawiciel agencji Verseo.

Inne podpowiedzi? Jasna struktura treści, stosowanie informacyjnych nagłówków, a także podkreślanie swojego autorytetu np. przez publikowanie referencji od klientów, czy linki do publikacji na temat własnych produktów w innych miejscach sieci. Sztucznej inteligencji pomaga też umieszczanie podsumowań w punktach dotyczących materiału publikowanego na stronie.

Zalew treści generowanych przez AI i zanikanie krytycznego myślenia

Przejście na nawigowanie w internecie, w którym główną rolę odgrywać będzie AI łączy się z kilkoma wyraźnymi zagrożeniami. Po pierwsze – fakt, że nierozwiązany pozostaje problem nowego modelu biznesowego serwisów żyjących z publikowania informacji czy poradników sprawia, że pojawia się groźba, iż AI zacznie brakować informacyjnego „wsadu”. Owszem, do pewnego stopnia generatywna sztuczna inteligencja również może być źródłem treści, ale dowiedziono już, że kiedy AI szkoli się na tekstach stworzonych przez AI zaczyna się degenerować. Jest to spowodowane stałym procesem uśredniania znalezionych wyników, odrzucania wariantów skrajnych i opracowywaniem syntezy. Jeśli zaś w oparciu o syntezę przygotowujemy nową syntezę, to staje się ona coraz bardziej ogólna. Problemem są też tzw. halucynacje AI, czyli błędne odpowiedzi wynikające np. ze złego zinterpretowania znalezionych w sieci treści. AI Overview w przeszłości radził np. użytkownikom, by jedli kamienie lub używali kleju do mocowania składników na pizzy – bo chatbot prawdopodobnie źle zinterpretował treści, które miały charakter humorystyczny.

Po drugie – sztuczna inteligencja nie sili się nawet, by być obiektywna. Już sam sposób sformułowania pytania może być sugestią dla chatbota jakiej odpowiedzi oczekujemy – a generatywna AI skonstruowana jest tak, by „uczyć się” naszych preferencji i formułować odpowiedzi zgodne z naszymi oczekiwaniami. Przez co grozi nam przyszłość, w której pojęcie prawdy będzie się rozmywać, zwłaszcza jeśli szukanie odpowiedzi kończyć będziemy (a widzimy, że tak się zazwyczaj dzieje) na odpowiedzi udzielonej przez chatbota.

– To trochę wynika z modelu biznesowego dostawców tego typu usług, użytkownicy lepiej oceniają te treści, które potwierdzają już ich przekonania – mówi Cisowski.

Po trzecie wreszcie – pojawiają się obawy dotyczące tego, jak wszechobecna AI wpłynie na naszą zdolność do krytycznego myślenia. – Gdy wchodzimy w tematy bardziej zniuansowane, wymagające jakiejś głębszej refleksji, otrzymujemy wygładzone informacje. To zabija w nas umiejętność szukania informacji, weryfikowania poglądów. Gdy dostajesz informację skompilowaną w oparciu o kilkanaście źródeł, to przestajesz weryfikować, która część informacji skąd pochodzi. Zatracamy zdolność do krytycznego podejścia do tego, co otrzymujemy – przestrzega dyrektor generalny AI Hero.

Czytaj więcej

Bogusław Chrabota: Dzieci w Ameryce przestają czytać. Analfabetyzm po erze AI

– Do minimum zredukowany zostaje proces wykorzystania naszych umiejętności poznawczych, analizy, interpretacji, porównania, szukania – mówi dr Skowroński. I wskazuje, że jest to wyzwanie dla systemu edukacji. – Pytanie, na ile przekazuje ludziom wiedzę dotyczącą kryteriów, kiedy warto zastosować to narzędzie. Gdy np. szukamy przepisu na pierniczki, to ChatGPT sprawdza się dobrze. Ale jeśli chcemy poznać przyczyny, które doprowadziły do bitwy pod Grunwaldem, powinniśmy poszukać informacji poza nim, żeby budować swoje kompetencje poznawcze. Warto byłoby stworzyć macierz wskazującą, kiedy warto sięgnąć po ChatGPT, a kiedy lepiej szukać informacji samemu – radzi.

Dr Kuś podsumowuje: „widzę jako kolejny krok do jeszcze większego mentalnego lenistwa w internecie. Z drugiej strony: trudno się dziwić temu, że ludzie temu mechanizmowi ulegają, bo to oszczędność czasu i zasobów. To dylemat, przed którym stoimy: czy chcemy sobie ułatwiać życie, czy chcemy trenować swój umysł. Jeżeli pozwolimy sobie na to, aby 95 proc. informacji dostarczano nam w pigułce dzięki AI, a nasz mózg nie będzie pracował tak, jak przez wieki funkcjonował, dokonując syntezy tego, co widzi, to mózg – zgodnie z metaforą mięśnia nieużywanego będzie w coraz gorszej kondycji. Ja bym nie chciał obudzić się za 20 lat w rzeczywistości, w której nie umiemy myśleć”.

Plus Minus
„Limpopo”: Krokodyla nakarm mi luby
Plus Minus
„Islander: Wygnanie”: Europa po złej stronie
Plus Minus
„Slow Work. Jak pracować mniej i mądrzej”: W rytmie slow
Plus Minus
Gość „Plusa Minusa” poleca. Dr hab. Dagmara Woźniakowska: Lubię wyraźne zakończenia
Plus Minus
„The Ballad of Wallis Island”: Wyspa smutków i radości
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama