Z tego artykułu dowiesz się:
- Jakie wyzwania towarzyszą wdrażaniu sztucznej inteligencji w kontekście rzeczywistych korzyści biznesowych?
- W jaki sposób błędy generowane przez systemy AI obciążają procesy operacyjne firm?
- Jaka jest kluczowa rola danych w zapewnieniu spójności i wiarygodności wyników działania sztucznej inteligencji?
Droga do realnej rentowności projektów AI wcale nie jest krótka i prosta, a sama kreatywność zaawansowanych systemów to zbyt mało, by biznes, który wdrożył takie rozwiązania, mógł cieszyć się z oczekiwanych korzyści. Analizy firmy Centiment pokazują, że sztuczna inteligencja oczywiście skraca, przyspiesza i wyręcza, ale jednocześnie mocno angażuje. Wystarczy wskazać, że 58 proc. pracowników średnio trzy godziny tygodniowo spędza na korygowaniu błędów botów. Potwierdzają to badania Workday & Hanover Research: niemal 40 proc. czasu oszczędzanego dzięki sztucznej inteligencji przepada na poprawianie błędów.
Czy to jednak reguła, jak wykorzystać narzędzia AI w praktyce biznesowej różnych branż? O tym będzie można posłuchać podczas sesji „Sztuczna inteligencja w praktyce” drugiego dnia XVIII Europejskiego Kongresu Gospodarczego (22-24 kwietnia, Katowice). Rejestracja na to wydarzenie trwa.
Biznes potrzebuje „naukowca”, a nie „artysty”
– Ekscytacja sztuczną inteligencją jest w pełni uzasadniona, jednak generatywna AI, która zdominowała masową wyobraźnię, wciąż nie posiada kontekstu operacyjnego i wiarygodności niezbędnych do zarządzania złożonymi ekosystemami biznesowymi. Niewiele organizacji zdecydowałoby się powierzyć niesprawdzonemu systemowi swoje najbardziej krytyczne procesy już od pierwszego dnia – podkreśla Bernd Greifeneder, współzałożyciel Dynatrace. I zauważa, że początkowa euforia ustępuje miejsca bardziej trzeźwej rzeczywistości.
– Widzimy, że pozostawione bez nadzoru systemy generatywnej AI mogą popełniać kosztowne błędy, i nie są to drobne usterki. Prawdziwy koszt halucynacji generatywnej sztucznej inteligencji tkwi w procesie ręcznej weryfikacji danych. To realny „podatek”, który obciąża biznes – mówi Greifeneder.
Firmy coraz częściej dostrzegają, że samodzielna agentowa AI (agentic AI) nie jest w stanie zapewnić spójnych i wiarygodnych efektów, jakich się od niej oczekuje. Zdaniem wiceprezesa Dynatrace problem polega na tym, że do wykonania konkretnych zadań „często zapraszamy niewłaściwy typ sztucznej inteligencji”.
– Generatywna AI, o której jest dziś tak głośno, to system stochastyczny, czyli probabilistyczny. To kreatywny artysta – nigdy nie mamy pewności, co dokładnie stworzy. Taka nieprzewidywalność jest fantastyczna podczas burzy mózgów czy generowania nowatorskich treści, lecz w krytycznych operacjach IT nie potrzebujemy artysty, a naukowca. Potrzebujemy systemu deterministycznego, który jest niezawodny, zrozumiały i oparty na twardych faktach – wyjaśnia.
To właśnie tutaj obietnica autonomicznej AI (systemów zdolnych do samodzielnego rozumowania i działania) zderza się z rzeczywistością. Skutek jest taki, że – jak podaje McKinsey – choć 62 proc. przedsiębiorstw eksperymentuje z agentami AI, tylko 23 proc. zdołało je przeskalować w ramach funkcji biznesowych.
Czytaj więcej:
W najbliższych latach jedną z kluczowych kompetencji menedżerskich stanie się zdolność do projektowania i kontrolowania systemów decyzyjnych oparty...
Pro
Od eksperymentu do nadzorowanej autonomii
– Łączenie ze sobą kreatywnych „artystów” nie gwarantuje naukowej precyzji. W rzeczywistości potęguje to ryzyko błędu – zaznacza Greifeneder.
Eksperci mają rady co zrobić, by wdrożenia AI miały sens. Przede wszystkim firmy nie muszą automatyzować każdego procesu. Natomiast tam, gdzie użycie bota staje się możliwe do zautomatyzowania, warto to zrobić, a z czasem przejść na kolejny poziom. Kluczem jest nadzorowana autonomia (Supervised autonomous). Chodzi o to, że wraz ze wzrostem zaufania system zaczyna obsługiwać bardziej złożone scenariusze – AI potrafi przeanalizować nową sytuację, zrozumieć jej wpływ na biznes i wygenerować gotowy plan działania. Jednak plan ten zostaje wdrożony dopiero po zatwierdzeniu przez człowieka. Pozwala to zachować kontrolę nad kluczowymi decyzjami, odciążając jednocześnie ekspertów od żmudnej analizy wstępnej. Fundamentem są tu trzy zasady: niezawodność (oparcie na AI deterministycznej), przejrzystość (możliwość weryfikacji rozumowania) oraz tzw. pętla zwrotna (precyzyjne dane do optymalizacji planów).
Firmy muszą zadbać o ustrukturyzowane dane. To podstawa. Duże modele językowe (LLM) nie są w stanie bezpośrednio przetwarzać petabajtów rozproszonych danych operacyjnych, gdyż ich okna kontekstowe są ograniczone, a wydajność drastycznie spada przy zbyt dużej ilości informacji wejściowych. Przesycenie zapytań danymi obniża ich jakość, znacznie lepsze wyniki daje selekcja i strukturyzowanie tylko najistotniejszych informacji.
Czytaj więcej:
70 proc. polskich firm sektora handlu internetowego, które zaimplementowały sztuczną inteligencję, mówi już o wzrostach przychodów. Ale to w kilku...
Pro
Więcej o wyzwaniach związanych z implementacją AI w biznesie i efektach konkretnych wdrożeń (w formule tzw. use case) usłyszeć będzie można podczas wspomnianego panelu na Europejskim Kongresie Gospodarczym. Porozmawiamy o tym w składzie:
- Joanna Jaworek-Korjakowska, dyrektor, Centrum Doskonałości Sztucznej Inteligencji, Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie
- Bartłomiej Kopacz, Head of Clinical Operations Poland & CEE, GSK
- Marcin Krasuski, Head of CEE Government Affairs and Public Policy, Google Poland
- Dawid Osiecki, dyrektor zarządzający, Lider Praktyki Data & AI, Accenture w Polsce
- Aleksandra Tomaszewska, dyrektor, Departament Badań i Innowacji, Ministerstwo Cyfryzacji
- Wojciech Stramski, prezes zarządu, Beyond.pl
- Alicja Żyła, wiceprezes zarządu, ING Bank Śląski SA.
Pełną agendę Europejskiego Kongresu Gospodarczego w Katowicach można znaleźć TUTAJ. Trwa rejestracja na to wydarzenie, której można dokonać TUTAJ.