Prezes agencji Emerald Media przyznaje, że w przyszłości „pewnie będą takie strony i segmenty rynku, gdzie być może wizyta na tradycyjnej stronie internetowej w ogóle nie będzie potrzebna”. W tym kontekście wymienia np. pogłoski, że być może w ChatGPT pojawi się możliwość bezpośredniego zakupu danego produktu bez pośrednictwa strony internetowej sklepu. – Teoretycznie możemy znaleźć się w rzeczywistości, że przeciętny użytkownik nie będzie zbyt często widział potrzeby, żeby opuszczać chatbota – będzie wszystkie sprawy załatwiał tam, tak jak wcześniej robił to za pośrednictwem wyszukiwarki Google – zastanawia się Jakub Wójcik.
– Widzimy, że ruch na stronach internetowych klientów maleje – mówi z kolei Miron Kłosiński z Verseo. Pytany, czy zmierzamy w stronę internetu, który jest nam „opowiadany” przez sztuczną inteligencję przyznaje, że „w tym kierunku to zmierza”, choć „w perspektywie roku-dwóch lat strony internetowe będą dalej potrzebne”. – Mając tę wiedzę, na bieżąco reagujemy na zmiany i dostosowujemy strony klientów do nowych wymogów, dbając jednocześnie o klasyczne fundamenty SEO – dodaje.
Mateusz Cisowski stwierdza: „Ja nie widzę powodu, żeby ten trend miał się masowo zmienić. Z perspektywy użytkownika to jest wygodne, więc jeśli możesz dostać jakieś informacje szybciej, nawet jeśli one są trochę gorszej jakości, to ciężko sobie wyobrazić, że przestaniemy z tego korzystać”.
Cisowski dodaje, że kolejnym krokiem, który wydarzy się w perspektywie dwóch lat, będzie upowszechnienie przeglądarek agentowych, w których będziemy wydawać polecenia agentom AI, a oni sami będą wykonywać za nas aktywności w sieci. – Tam ruch staje się w ogóle sztuczny, bo nawet jeśli ktoś wchodzi na twoją stronę, to może się okazać, że jest to bot działający w imieniu użytkownika – wyjaśnia.
Wszyscy nasi rozmówcy są zgodni – najbardziej ucierpią na tym strony o charakterze informacyjnym, poradnikowym czy np. porównywarki ofert. – To jest zagrożenie dla tego typu stron, bo one żyły do tej pory w dużej mierze z tego, że publikowały reklamy – mówi Kłosiński.
W przypadku takich stron pojawia się jeszcze czynnik etyczny – sztuczna inteligencja pozbawia je ruchu jednocześnie „karmiąc się” dostarczanymi przez nie danymi. – Część firm, mówiąc wprost, zupełnie nie szanuje praw własności intelektualnej. Przed erą generatywnego AI byłoby nie do pomyślenia, że w tak dużej skali prawa twórców będą łamane. Te serwisy muszą to odczuć – skoro w ogóle nie muszę na nie wchodzić, to dlaczego reklamodawca miałby się ogłaszać w takim czy innym serwisie, jeśli nikt tam już finalnie nie dociera? W efekcie motywacja twórców będzie cały czas spadała. Jaki będą mieli interes w tym, by ponosić koszty stworzenia autorskich materiałów? – pyta retorycznie Cisowski.
Najwięksi dostawcy treści informacyjnych zaczynają więc stosować taktykę „uwodzenia i pozywania” (ang. wooing and suing). W ramach „uwodzenia” zawierają umowy licencyjne na udostępnianie swoich treści chatbotom (a konkretnie botom crawlującym, które przeszukują strony i zbierają o nich informacje). NewsCorp (należy do niego m.in. „WSJ”) zawarł) np. wartą 250 mln dol. umowę licencyjną z OpenAI, twórcą ChatGPT), a jednocześnie pozwał Perplexity za wykorzystywanie jego treści do przygotowywania odpowiedzi na pytania internautów. Sceptycy twierdzą jednak, że są to działania głównie wizerunkowe, na dodatek, szansę na takie umowy mają tylko najwięksi gracze.
Mniejsi mogliby np. zablokować swoje strony dla wspomnianych botów crawlujących (co jest technicznie możliwe), ale wówczas np. wypadliby z wyszukiwań Google, a więc spadliby z deszczu pod rynnę. Matthew Prince, prezes firmy Cloudflare, działającej w obszarze bezpieczeństwa internetu i wydajności stron zaproponował rozwiązanie „płać-za-crawlowanie” umożliwiające stronie pobieranie opłaty od botów, które ją penetrują. Cisowski zwraca jednak uwagę, że pozostaje sprawą otwartą, czy BigTechy będą chciały za to płacić małym dostawcom treści.
Pozostają więc inne rozwiązania. Część twórców takich treści przechodzi na format audio/wideo i korzysta z serwisów takich jak YouTube oraz formatów takich jak podcasty, które trudniej „opowiedzieć” sztucznej inteligencji. Inni starają się dotrzeć do użytkowników metodami innymi niż tradycyjne wyszukiwarki: np. poprzez klasyczne newslettery czy media społecznościowe.
– Można innymi kanałami budować markę swojego portalu. Zaoferować coś, czego AI nie będzie w stanie podać w wynikach wyszukiwania: np. jakieś narzędzie typu kalkulator kosztów. Można, np. w oparciu o media społecznościowe, budować skupioną wokół siebie społeczność, swój autorytet – wylicza Miron Kłosiński z Verseo. Strony z treściami informacyjnymi, zwłaszcza media, przechodzą też na modele subskrypcyjne – tzn. odchodzą od reguły, że w internecie wszystko jest za darmo i za dostęp do swoich treści pobierają opłatę.
Dr Skowroński nadzieję dla dostawców treści informacyjnych w świecie zdominowanym przez AI widzi w obsadzaniu nisz. Jak wylicza na portalach typu Spotify, większość użytkowników słucha ograniczonej puli najpopularniejszych piosenek. – Upraszczając – 80 proc. społeczeństwa słucha 20 proc. piosenek. Ale przecież tam jest dużo również innych twórców. I wokół nich powstają pewne nisze – mówi. Jego zdaniem możliwe jest, że na rynku w pewnym momencie pojawi się ktoś, kto zacznie takie nisze promować, jako alternatywa dla Google czy OpenAI. – Powie: „ja pozwalam znaleźć niszowych twórców, ale bardzo wartościowych”.
Również dr Kuś spodziewa się, że dojdzie do rozwarstwienia, jeśli chodzi o pozyskiwanie informacji. – Będzie grupa absolutnych optymistów i fanów AI we wszystkich możliwych zastosowaniach, ale będą też tacy, którzy nie wpadną w ten proces bez dna i oni dalej będą wchodzić na swoje ulubione strony, bo mają przekonanie, że znajdą tam rzetelną informację – mówi. Pytanie, czy twórcom informacji ta garstka pasjonatów wystarczy pozostaje otwarte.
Martwy internet, czyli kiedy boty przejęły sieć
Ale nie wszyscy muszą odczuć wysychanie strumienia internetowego ruchu równie boleśnie. Moi rozmówcy zajmujący się marketingiem cyfrowym zwracają uwagę, że ruch generowany przez chatboty AI jest może mniejszy, ale ma wyższą jakość – tzn. jeśli ktoś trafi do nas z tego źródła, to naprawdę chciał to zrobić. A to, w przypadku niektórych posiadaczy stron, jest ważniejsze niż sam ruch. – Ruch, który dalej pozostaje na stronach internetowych, staje się bardziej kaloryczny. Może jest mniejszy, ale np. liczba zakupów, czy zapytań ws. oferty utrzymuje się na tym samym poziomie, a nawet wzrasta – podkreśla Kłosiński.
– Mówimy na przykład o firmach, którym nie zależy, by ktoś przeczytał przekazywane przez nie informacje, albo wszedł na stronę główną, żeby poznać najnowsze doniesienia. Chodzi o firmy, które chcą budować świadomość marki, swoją rozpoznawalność, żeby ostatecznie użytkownik trafił do nich, chcąc kupić jakiś produkt albo zamówić jakąś usługę. Dla nich wyszukiwanie przez AI to okazja, bo jeśli użytkownik np. zastanawia się nad wyborem kierunku studiów, to ostatecznie musi się na jakieś studia zapisać. I jeśli chatbot podpowie konkretną uczelnię, bo ta uczelnia zoptymalizowała stronę tak, żeby zwiększyć na to szansę, to nawet przy mniejszym ruchu na stronie może mieć więcej chętnych do studiowania – tłumaczy prezes Emerald Media. Podobnie rzecz się ma ze sprzedawcami różnych towarów – np. telefonów komórkowych.
I tu wracamy do teorii martwego internetu. W sytuacji, w której kanałem dostępu do użytkowników stanie się chatbot AI z perspektywy twórcy strony ważniejsze będzie, aby strona była czytelna dla niego, a nie dla użytkownika. Być może duża część internetu stanie się przestrzenią, w której „pasażerami pierwszej klasy” będą boty AI.
W czym to się będzie przejawiać? Miron Kłosiński z Verseo mówi, że w uczynieniu strony przyjaznej AI sprawdza się 80 proc. rozwiązań, które były stosowane w klasycznym SEO (czyli optymalizacji tekstu pod kątem wyszukiwarki Google). Jak dodaje na pozostałe 20 proc. składa się umieszczanie na stronie najczęściej zadawanych pytań i odpowiedzi (tzw. FAQ), co pomaga botom crawlującym znaleźć potrzebne treści. Pozostałe istotne elementy to spójne dane strukturalne, eksperckie treści czy autorytet domeny. – Ważne jest, aby zaraz po pytaniu, w jednym zdaniu, padała konkretna odpowiedź – kontynuuje Kłosiński. Jak dodaje AI lubi też „krótkie zdania, naturalny, konwersacyjny styl i język, jakiego używa internauta w rozmowie z chatbotem”. – Wtedy jest większe prawdopodobieństwo, że użytkownik, który wpisze podobne pytanie w AI, otrzyma odpowiedź, która będzie zrobiona na bazie tego, co jest na naszej stronie. Wówczas jest szansa, że nasza strona będzie zacytowana w wynikach – dodaje. – Dynamika zmian jest ogromna, dlatego stale badamy wpływ sztucznej inteligencji na wyniki organiczne. Analizujemy tysiące wyników i testujemy rozwiązania, które pomagają utrzymać oraz zwiększać widoczność stron w nowym ekosystemie – mówi przedstawiciel agencji Verseo.
Inne podpowiedzi? Jasna struktura treści, stosowanie informacyjnych nagłówków, a także podkreślanie swojego autorytetu np. przez publikowanie referencji od klientów, czy linki do publikacji na temat własnych produktów w innych miejscach sieci. Sztucznej inteligencji pomaga też umieszczanie podsumowań w punktach dotyczących materiału publikowanego na stronie.
Zalew treści generowanych przez AI i zanikanie krytycznego myślenia
Przejście na nawigowanie w internecie, w którym główną rolę odgrywać będzie AI łączy się z kilkoma wyraźnymi zagrożeniami. Po pierwsze – fakt, że nierozwiązany pozostaje problem nowego modelu biznesowego serwisów żyjących z publikowania informacji czy poradników sprawia, że pojawia się groźba, iż AI zacznie brakować informacyjnego „wsadu”. Owszem, do pewnego stopnia generatywna sztuczna inteligencja również może być źródłem treści, ale dowiedziono już, że kiedy AI szkoli się na tekstach stworzonych przez AI zaczyna się degenerować. Jest to spowodowane stałym procesem uśredniania znalezionych wyników, odrzucania wariantów skrajnych i opracowywaniem syntezy. Jeśli zaś w oparciu o syntezę przygotowujemy nową syntezę, to staje się ona coraz bardziej ogólna. Problemem są też tzw. halucynacje AI, czyli błędne odpowiedzi wynikające np. ze złego zinterpretowania znalezionych w sieci treści. AI Overview w przeszłości radził np. użytkownikom, by jedli kamienie lub używali kleju do mocowania składników na pizzy – bo chatbot prawdopodobnie źle zinterpretował treści, które miały charakter humorystyczny.
Po drugie – sztuczna inteligencja nie sili się nawet, by być obiektywna. Już sam sposób sformułowania pytania może być sugestią dla chatbota jakiej odpowiedzi oczekujemy – a generatywna AI skonstruowana jest tak, by „uczyć się” naszych preferencji i formułować odpowiedzi zgodne z naszymi oczekiwaniami. Przez co grozi nam przyszłość, w której pojęcie prawdy będzie się rozmywać, zwłaszcza jeśli szukanie odpowiedzi kończyć będziemy (a widzimy, że tak się zazwyczaj dzieje) na odpowiedzi udzielonej przez chatbota.
– To trochę wynika z modelu biznesowego dostawców tego typu usług, użytkownicy lepiej oceniają te treści, które potwierdzają już ich przekonania – mówi Cisowski.
Po trzecie wreszcie – pojawiają się obawy dotyczące tego, jak wszechobecna AI wpłynie na naszą zdolność do krytycznego myślenia. – Gdy wchodzimy w tematy bardziej zniuansowane, wymagające jakiejś głębszej refleksji, otrzymujemy wygładzone informacje. To zabija w nas umiejętność szukania informacji, weryfikowania poglądów. Gdy dostajesz informację skompilowaną w oparciu o kilkanaście źródeł, to przestajesz weryfikować, która część informacji skąd pochodzi. Zatracamy zdolność do krytycznego podejścia do tego, co otrzymujemy – przestrzega dyrektor generalny AI Hero.
– Do minimum zredukowany zostaje proces wykorzystania naszych umiejętności poznawczych, analizy, interpretacji, porównania, szukania – mówi dr Skowroński. I wskazuje, że jest to wyzwanie dla systemu edukacji. – Pytanie, na ile przekazuje ludziom wiedzę dotyczącą kryteriów, kiedy warto zastosować to narzędzie. Gdy np. szukamy przepisu na pierniczki, to ChatGPT sprawdza się dobrze. Ale jeśli chcemy poznać przyczyny, które doprowadziły do bitwy pod Grunwaldem, powinniśmy poszukać informacji poza nim, żeby budować swoje kompetencje poznawcze. Warto byłoby stworzyć macierz wskazującą, kiedy warto sięgnąć po ChatGPT, a kiedy lepiej szukać informacji samemu – radzi.
Dr Kuś podsumowuje: „widzę jako kolejny krok do jeszcze większego mentalnego lenistwa w internecie. Z drugiej strony: trudno się dziwić temu, że ludzie temu mechanizmowi ulegają, bo to oszczędność czasu i zasobów. To dylemat, przed którym stoimy: czy chcemy sobie ułatwiać życie, czy chcemy trenować swój umysł. Jeżeli pozwolimy sobie na to, aby 95 proc. informacji dostarczano nam w pigułce dzięki AI, a nasz mózg nie będzie pracował tak, jak przez wieki funkcjonował, dokonując syntezy tego, co widzi, to mózg – zgodnie z metaforą mięśnia nieużywanego będzie w coraz gorszej kondycji. Ja bym nie chciał obudzić się za 20 lat w rzeczywistości, w której nie umiemy myśleć”.