fbTrack
REKLAMA
REKLAMA

Opinie

Niepewność: nowe miary i wyzwania

Adobe Stock
Dane statystyczne mówią nam, że wszystko jest w porządku, ale lektura gazet i codzienne wiadomości powodują odczucie, że „coś wisi w powietrzu". Oczywistym pytaniem jest, jak to „coś" zmierzyć – piszą ekonomiści.

Ekonomiści analizujący zjawiska makroekonomiczne w skali globalnej stanęli ostatnio przed problemem mierzenia tego, co wydawać się może niemierzalne, mianowicie zmian niepewności geopolitycznej i ich wpływu na gospodarkę. Okres przed 2001 rokiem nazywano w literaturze Wielkim Uspokojeniem (Great Moderation), bowiem niewielkie zmiany podstawowych wskaźników gospodarczych powodowały, że nie było większych problemów z prognozowaniem zjawisk makroekonomicznych. W przypadku prognozowania inflacji wystarczyło zajrzeć do podręcznika z finansów empirycznych lub ekonometrii stosowanej, aby dowiedzieć się, że ryzyko związane z takim prognozowaniem można ocenić przez obserwację jej zmienności i analizę czynników, które kształtowały ją w przeszłości. Noblista z ekonomii w 2003 roku, Robert Engle jeszcze w latach 80. przedstawił oryginalną metodę modelowania ekonometrycznego, które umożliwiało ocenę takiej zmienności.

Przy niewielkich zmianach wskaźników gospodarczych przed 2001 rokiem równie względnie niewielki był wpływ czynników geopolitycznych na gospodarkę światową. Przyjmowano, że efektywna polityka monetarna prowadzona w większości krajów przez banki centralne uspokajała rynki, a problem niepewności geopolitycznej w badaniach ekonomicznych miał drugorzędne znaczenie.

Narastanie niepewności

Od września 2001 roku dynamika wydarzeń politycznych o zasięgu ogólnoświatowym wyraźnie się zwiększyła. Spowodowały to głównie wojny na Bliskim Wschodzie, tarcia i kryzysy fiskalne w Unii Europejskiej, napięcia w stosunkach Rosji z Gruzją, Ukrainą i krajami bałtyckimi, problemy związane z brexitem. Po wyborze Donalda Trumpa na prezydenta Stanów Zjednoczonych nastąpiły gwałtowne zmiany w światowej polityce handlowej, takie jak zapowiedzi wojen handlowych między najważniejszymi globalnymi graczami gospodarczymi. Te i szereg innych wydarzeń powodują utrzymywanie się stanu niepewności. W efekcie potencjalne skutki takiej wyraźnie odczuwalnej, ale niezbyt jasno rozumianej niepewności stają się jednym z głównych tematów komentarzy ekonomicznych. Przykładowo, w pierwszym tygodniu grudnia „Financial Times" pisał, że niepewność zabija wzrost gospodarczy, a Wall Street Journal analizował, jak niepewność w sprawie taryf celnych wobec Chin wpływa na nastroje inwestorów.

Niemniej jednak nie powoduje to, jak na razie, zmian głównych wskaźników gospodarczych. W większości krajów inflacja jest stabilna, zmiany PKB są prognozowane ze stosunkowo niewielkim błędem, na rynkach finansowych i walutowych nic drastycznego się nie dzieje.

Niemniej jednak inwestorzy czują się niepewnie. Co jutro zrobi Donald Trump? Będzie brexit czy nie? A jeżeli będzie, to jaki? Jak rozwiąże się sprawa deficytu budżetowego Włoch? Czy będzie jakieś długookresowe rozwiązanie kryzysu imigracyjnego w Europie? Brak jasnych odpowiedzi na te pytania powoduje, że u inwestorów pojawia się tak zwana opcja realna (real option), która przejawia się w odkładaniu decyzji, szczególnie długookresowych, w oczekiwaniu na wyjaśnienie sytuacji. Dopóki takie wyjaśnienie nie pojawia się, to decyzje inwestycyjne często są wstrzymywane, wpływając negatywnie na wzrost gospodarczy, na zahamowanie tempa wzrostu bezpośrednich inwestycji zagranicznych (szczególnie w krajach o zawirowaniach politycznych), na trudności na giełdach itp.

Mamy zatem do czynienia z sytuacją do tej pory niespotykaną. Dane statystyczne mówią nam, że wszystko jest w porządku, ale lektura gazet i codzienne wiadomości powodują odczucie, że „coś wisi w powietrzu". Oczywistym pytaniem jest, jak to „coś" zmierzyć i sprawdzić, czy ogólna sytuacja niepewności poprawia się, czy też pogarsza.

Stawia to nowe wyzwania przed analitykami gospodarczymi, a w szczególności przed osobami i ośrodkami zajmującymi się prognozami. Potrzebna jest nowa syntetyczna miara, która w zagregowany w sposób będzie pokazywała zmiany niepewności.

Współczesne podejście do mierzenia niepewności opiera się na koncepcji amerykańskiego ekonomisty Franka Knighta. W opublikowanej prawie sto lat temu w 1921 roku fundamentalnej książce pt. „Ryzyko, niepewność i zysk" (Risk, uncertainty and profit) przedstawił on koncepcję niepewności mierzalnej i niemierzalnej, nazywając niepewność mierzalną ryzykiem, a niepewność niemierzalną niepewnością sensu stricto.

Mierzenie niepewności

W literaturze spotyka się trzy główne metody mierzenia takiej niepewności. Dwie pierwsze polegają, w gruncie rzeczy, na szukaniu związków i zależności między ryzykiem i niepewnością. Trzecia metoda koncentruje się na badaniu zmian nastrojów odzwierciedlanych w mediach.

Pierwsza z tych metod, szczególnie popularna w Stanach Zjednoczonych, opiera się na założeniu, że niepewność prowadzi do braku zgody (braku konsensusu) przejawiającej się zróżnicowaniem opinii w panelu ekspertów prognozujących główne wskaźniki ekonomiczne. Przyjmuje się, że im większe jest zróżnicowanie opinii w panelu, tym większa jest niepewność.

Podstawową wadą tej metody jest często obserwowana wzajemna zależność prognoz w panelu. Okazuje się bowiem, że wielu ekspertów w panelu nie jest pewnych swoich prognoz i w gruncie rzeczy starają się oni odgadnąć to, co prognozuje „lider" o największym autorytecie w ich środowisku. W efekcie pojawia się stosunkowo małe zróżnicowanie prognoz, czyli niska ocena niepewności. Niewiele pomaga tu stosowanie prognoz probabilistycznych. Inną praktyczną wadą tej metody są częste zmiany składu panelu, co utrudnia porównywanie. Okazuje się, że zmiany składu panelu związane są z fazami cyklu koniunkturalnego i łatwiej jest nakłonić panelistów do udziału w badaniu w czasie boomu gospodarczego niż w okresie recesji.

Drugą metodą pośrednio związaną z analizą ryzyka jest metoda opierająca się na badaniu błędów prognoz. W swojej zasadzie jest ona bardzo prosta: im większe błędy prognoz, tym większa niepewność.

Metoda ta nie ma wad omówionej poprzednio metody panelowej. Nie zależy od zmian w grupie ekspertów i ich wzajemnych zależności, umożliwia porównania międzynarodowe i opiera się o łatwo dostępne dane statystyczne; zwykle dane o inflacji czy PKB. Ma ona jednak inną istotną wadę. Jest ona typową metodą ex-post, czyli z oceną niepewności trzeba poczekać do momentu, kiedy będzie można wyznaczyć błędy prognoz.

Trzecia metoda jest intuicyjnie najprostsza i bezpośrednio odwołuje się do koncepcji Knighta. Jest ona jednak najbardziej kosztowna i pracochłonna. Jej twórcą jest zespół Nicholasa Blooma z Uniwersytetu Stanforda. Stworzyli oni tak zwany indeks EPU (Economic Policy Uncertainty Index). Jego istota polega na porównywaniu w czasie liczby artykułów publikowanych w codziennej prasie o dużym zasięgu, w których występują słowa „niepewność" i pokrewne oraz istotne terminy odnoszące się do zjawisk makroekonomicznych. Jeżeli liczba takich artykułów zwiększa się, to wartość indeksu rośnie i odwrotnie. Zalety tej metodologii są bezsprzeczne. Jest ona zrozumiała i przekonująca oraz umożliwia łatwe tworzenie szeregu wariantów indeksu poprzez przeszukiwanie artykułów względem wystąpienia określonej kombinacji słów. Przykładowo, identyfikując artykuły, w których wystąpią słowa „niepewność" i „imigracja", otrzymać można indeks określający zmianę niepewności w gospodarce związaną z napływem imigrantów.

Skuteczność badania artykułów prasowych dla identyfikowania przyszłych zjawisk i procesów jest duża, czego jednym z dowodów może być spektakularna identyfikacja megatrendów dokonana przez Johna Naisbitta w latach 70. i 80. XX wieku.

Indeksy niepewności EPU

Zespół Nicolasa Blooma udostępnia na stronie internetowej http://www.policyuncertainty.com/ globalne wartości indeksu EPU, jak też indeksy dla wielu krajów, w tym dla Rosji i Chin. Ponadto pokazywane są też warianty tego indeksu i indeksy z innych ośrodków. Przykładowo, dla Wielkiej Brytanii podane są indeksy ogólne i łączące brexit z niepewnością. Są również indeksy opisujące niepewność w odniesieniu do polityki monetarnej.

Podobnie jak inne miary niepewności, EPU ma również pewne wady. Jego wartość zależy od wyboru dzienników do badania i prawidłowej identyfikacji charakteru artykułu. Wpływ na wyniki ma też zastosowana technika elektronicznego przeszukiwania tekstów; takich technik wiele, ale, jak dotychczas, nie ma w sprawie ich skuteczności zgody i często zastosowania różnych metod prowadzą do różnych rezultatów. Dodatkowe problemy występują w przypadku prób konstrukcji indeksów typu EPU dla mniejszych krajów i przy korzystaniu z gazet publikowanych w lokalnych językach.

Indeksów typu EPU dla Polski jak na razie się nie publikuje. Niemniej, w Instytucie Prognoz i Analiz Gospodarczych skonstruowano eksperymentalny indeks dla lat 2006–2017 opierający się o analizę błędów prognoz inflacji, czyli drugą z opisanych wcześniej metod. Indeks ten wraz ze szczegółowym opisem będzie wkrótce opublikowany.

Wojciech Charemza jest profesorem w Akademii Finansów i Biznesu Vistula, poprzednio pracował na University of Leicester

Bohdan Wyżnikiewicz jest prezesem Instytutu Prognoz i Analiz Gospodarczych i członkiem Komitetu Prognoz przy Prezydium PAN, b. prezes GUS

Źródło: Rzeczpospolita
REKLAMA
REKLAMA
REKLAMA
REKLAMA
NAJNOWSZE Z RP.PL
REKLAMA
REKLAMA