Reklama

Monika Różycka: Nowy gatunek poznawczy. Zaufanie w epoce agentów AI

Agenci AI przestają być narzędziami, a stają się naszymi współpracownikami. Wchodzą do zespołów, podejmują decyzje, uczą się i analizują szybciej, niż zdążymy to nazwać. Co to znaczy dla zaufania, tej najdelikatniejszej tkanki organizacji?

Publikacja: 21.10.2025 05:06

Monika Różycka: Nowy gatunek poznawczy. Zaufanie w epoce agentów AI

Foto: Adobe Stock

Zaczęło się niewinnie. W startupach i laboratoriach, wśród programistów, badaczy i projektantów, pojawili się pierwsi agenci AI – nasi cyfrowi współpracownicy, którzy potrafią uczyć się, analizować i działać samodzielnie. Agent AI to połączenie sztucznej inteligencji z konkretnymi narzędziami, które pozwalają jej działać zamiast człowieka, a nie tylko odpowiadać na pytania. To system, który potrafi nie tylko analizować dane, lecz także pisać maile, planować zadania, zarządzać kalendarzem, tworzyć raporty czy podejmować decyzje w określonym zakresie.

AI staje się partnerem w pracy

Można powiedzieć, że agent AI jest cyfrowym współpracownikiem – kimś pomiędzy asystentem a menedżerem, który rozumie kontekst, reaguje na zmiany i uczy się w trakcie pracy. Jego moc polega na zdolności do wykonywania czynności, które wcześniej wymagały obecności człowieka.

Czytaj więcej

Sztuczna inteligencja wykrywa choroby, zanim się pojawią. Medycyna wchodzi w nową erę

Międzynarodowe startupy tworzą już środowiska, w których tacy agenci współpracują ze sobą, uczą się nawzajem i rozwijają własne strategie działania. W Polsce również zaczynają powstawać rozwiązania wspierające rozwój agentów AI. Skala jest mniejsza niż w Dolinie Krzemowej, ale kierunek ten sam: AI przestaje być narzędziem, a staje się partnerem w pracy.

Nie chodzi już o automatyzację, lecz o delegację. Agenci AI wykonują zadania, które jeszcze wczoraj wymagały człowieka, ale robią to szybciej i precyzyjniej. Bez emocji, uczuć, zmęczenia i potrzeby snu.

Reklama
Reklama

Dla jednych to naturalny etap rozwoju technologii, dla innych – początek nowego rodzaju współistnienia: człowieka i kodu, które zaczynają współpracować w jednym zespole. Rodzi się nowy gatunek. Nie biologiczny, lecz poznawczy. A wraz z nim pytanie, które dotąd nie miało sensu: czy można zaufać współpracownikowi, który nie ma świadomości?

To nie science fiction, lecz kolejny etap ewolucji organizacyjnej, w której człowiek i kod dzielą odpowiedzialność, przestrzeń i decyzje. Już niedługo zespoły nie będą składały się wyłącznie z ludzi. Wyobraźmy sobie salę konferencyjną, w której algorytm może nie siedzi obok, ale już myśli i decyduje szybciej, niż człowiek zdąży pomyśleć. Człowiek wnosi kontekst, intuicję, emocję i wahanie. Maszyna zaś wydajność, precyzję i chłód. Razem tworzą tandem, który może więcej niż każde z nich osobno. To już nie jest relacja hierarchiczna, lecz neohybryda: człowiek + kod. Jaka będzie dynamika takiego zespołu? Jak nim zarządzać?

Nowy rodzaj zaufania

Dotychczasowe modele zaufania organizacyjnego – także mój autorski Model MITrust (Model Instytucjonalnego Zaufania) – zakładały, że wszystkie podmioty uczestniczące w relacjach zaufania są ludźmi lub instytucjami tworzonymi przez ludzi. MITrust łączy dwa poziomy – osobisty i systemowy – ponieważ jego akronim oznacza zarówno Model Institutional Trust, jak i symboliczne „Myself & Institution”, czyli relację między jednostką a instytucją.

Oparty na wartościach takich jak zaufanie do siebie, autentyczność i uczciwość, model ten pokazuje, że żadne zaufanie organizacyjne nie powstanie bez wewnętrznej spójności i autentyczności ludzi, którzy je tworzą. Tymczasem coraz częściej do zespołów wchodzą dziś agenci sztucznej inteligencji, którzy nie są już jedynie narzędziami, lecz aktywnymi uczestnikami procesów decyzyjnych. Otwiera to nowy wymiar w refleksji nad zaufaniem, czyli relację człowiek-AI-instytucja.

Czytaj więcej

Bańka AI 17 razy większa niż dot-comów z lat 90.? Ten analityk zszokował świat

W klasycznej dynamice zespołu MITrust opisuje zaufanie jako system wartości, w którym kluczową rolę odgrywają: zaufanie do siebie, kompetencje, uczciwość, wiarygodność, komunikacja, współpraca, życzliwość, sprawiedliwość, lojalność i autentyczność. Każda z tych wartości ma swój odpowiednik w zachowaniu ludzkich aktorów organizacyjnych. Jednak w momencie, gdy w zespole pojawia się agent AI, część z nich traci naturalne odniesienie. Sztuczna inteligencja może wykazywać kompetencję (mierzalną skuteczność działania), może budzić wiarygodność (poprzez przewidywalność i spójność decyzji), lecz nie posiada uczciwości, lojalności ani autentyczności w ludzkim sensie. Nie przeżywa relacji, nie doświadcza etyki, nie podejmuje decyzji w kontekście emocji czy odpowiedzialności.

Reklama
Reklama

Czym jest „zaufanie” do AI

Jak zdefiniować „zaufanie” między człowiekiem a maszyną, skoro dla AI liczy się wynik – przewidywalny i mierzalny, a dla człowieka równie ważny jest proces, w którym zaufanie buduje się stopniowo: poprzez kompetencje, wiarygodność, relacje i uczciwość. To, co dla człowieka stanowi emocjonalne doświadczenie, dla agenta AI pozostaje jedynie danymi.

Oznacza to, że w nowej architekturze MITrust konieczne jest rozróżnienie dwóch typów zaufania:

1. Zaufania relacyjnego – budowanego między ludźmi, opartego na emocjach, wartościach i doświadczeniu współpracy.

2. Zaufania funkcjonalnego – kierowanego wobec agentów AI, opartego na przewidywalności, jakości danych, zgodności z wartościami instytucjonalnymi i transparentności algorytmów.

Nowy typ zespołu, w którym człowiek i agent AI współdziałają, wymaga więc hybrydowej etyki współpracy. MITrust można w tym kontekście rozumieć jako ramę integracyjną, która scala oba porządki:

• emocjonalno-społeczny (człowiek-człowiek),

Reklama
Reklama

• techniczno-proceduralny (człowiek-AI).

Agenci AI nie wnoszą emocji, ale mogą wzmacniać lub osłabiać zaufanie – w zależności od tego, jak są projektowani i wdrażani. Wymaga to nowej kompetencji liderów: zdolności „programowania wartości” w systemach, które operują danymi, ale nie rozumieją sensu.

Zaufanie staje się więc mostem między świadomością ludzką a inteligencją nieludzką, między intencją a działaniem.

Cztery punkty nowego zaufania

1. Przewidywalność i transparentność. Im bardziej rozumiemy, jak działa algorytm, tym chętniej mu ufamy. Ale to paradoks – im więcej wiemy, tym wyraźniej widzimy, jak mało rozumiemy.

2. Skuteczność i efektywność kontra komfort. Jeśli maszyna jest skuteczna i efektywna, człowiek nabiera do niej zaufania. Ale współpraca z „czarną skrzynką” zawsze niesie pewien niepokój – jak początkowo jazda autem autonomicznym bez trzymania kierownicy.

Reklama
Reklama

3. Odpowiedzialność w zespole hybrydowym. Kto odpowiada, gdy błąd popełni system? Czy to nasz błąd, czy jego? Zaufanie wymaga ustalenia granic odpowiedzialności.

4. Wspólny cel. Zaufanie łatwiej budować, gdy człowiek i maszyna dzielą misję. Wtedy AI nie jest tylko narzędziem, lecz uczestnikiem procesu poznawczego.

Nowa wersja modelu MITrust musi zatem odpowiedzieć na pytanie: czy organizacje potrafią zbudować środowisko, w którym ludzie ufają agentom AI, nie dlatego że są nieomylni, lecz dlatego, że działają zgodnie z wartościami, które ludzie w nich zakodowali. Dopiero wtedy można mówić o prawdziwej symbiozie – o zaufaniu instytucjonalnym nowej generacji, w którym technologia staje się uczestnikiem odpowiedzialności, nie tylko procesów.

O autorce

dr hab. Monika Różycka

Pracuje na Uniwersytecie Szczecińskim. Jest kierownikiem projektu „Analiza zaufania do sztucznej inteligencji w kontekście psychospołecznych postaw w obszarze nauki i biznesu w Polsce” finansowanego przez ministra nauki i szkolnictwa wyższego


Reklama
Reklama

Zaczęło się niewinnie. W startupach i laboratoriach, wśród programistów, badaczy i projektantów, pojawili się pierwsi agenci AI – nasi cyfrowi współpracownicy, którzy potrafią uczyć się, analizować i działać samodzielnie. Agent AI to połączenie sztucznej inteligencji z konkretnymi narzędziami, które pozwalają jej działać zamiast człowieka, a nie tylko odpowiadać na pytania. To system, który potrafi nie tylko analizować dane, lecz także pisać maile, planować zadania, zarządzać kalendarzem, tworzyć raporty czy podejmować decyzje w określonym zakresie.

Pozostało jeszcze 93% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Opinie Ekonomiczne
Cezary Szymanek: Krócej znaczy drożej. Pilotaż skróconego czasu pracy to ukryta podwyżka w urzędach
Materiał Promocyjny
Bank Pekao uczy cyberodporności
Opinie Ekonomiczne
Anita Błaszczak: Niepewność, która uderza w nas wszystkich
Opinie Ekonomiczne
Piotr Skwirowski: Budżetowa hulaj dusza, ale piekło jest
Opinie Ekonomiczne
Aleksandra Ptak-Iglewska: Biznes celowo gra z kaucjami
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Opinie Ekonomiczne
Witold M. Orłowski: Grawitacji nie ma!
Materiał Promocyjny
Nowy Ursus to wyjątkowy projekt mieszkaniowy w historii Ronsona
Reklama
Reklama