Świat po kryzysie. Śmierć ekonomicznego paradygmatu?

Obrazek użytkownika Bartosz Wasilewski
Gospodarka
Wstęp 

      W 476 roku upadł Rzym, w 1453 Konstantynopol. 1789 to początek Rewolucji Francuskiej, 1917 – radzieckiej. Ludzkość doczekała się wielu przełomowych chwil.

W wielu przypadkach daty to tylko symbole, skróty myślowe, punkty pomocnicze, wyznaczniki chronologiczne, pojęcia ułatwiające opis rzeczywistości – ktoś w USA powie: „11 września” – wszyscy wiedzą o co mówcy chodzi, ktoś w Polce wspomni datę 1 września – każdy rozumie, co chce przez to wyrazić. W znaczeniu potocznym można stwierdzić, że tego a tego dnia o takiej a takiej godzinie rozpoczęła się nowa era. Ale przecież wiemy, że niezwykle rzadko zdarza się, aby przełom następował przypadkowo. Mamy świadomość, że wielkie wydarzenia, wielkie daty, to tylko punkty kulminacyjne, że każdy przełom jest poprzedzony procesem, którego geneza częstokroć sięga wielu lat, ba, dziesięcioleci, stuleci wstecz. Teraz, gdy piszę te słowa, w Polsce i na świecie zachodzi niezliczona liczba procesów, które za parę lat zaowocują wielkimi datami, erupcjami na ogromną skalę.

      Która data jest z punktu widzenia dziejów ludzkości istotniejsza –  1 września 1939, czyli formalne rozpoczęcie II wojny światowej, czy układ monachijski z września roku poprzedniego? A może znacznie ważniejszy był 1933 i moment dojścia Hitlera do władzy? Może 1 września to tylko pochodna Układu Wersalskiego? A może znacznie poważniejsze konsekwencje przyniósł rok 1871? A może II wojna światowa, jeden z najstraszniejszych koszmarów ludzkości, to w prostej linii konsekwencja średniowiecznego układu z Verdun sprzed ponad tysiąca lat? Albo ujarzmienia Sasów przez Karola Wielkiego? Może wreszcie pobłądziliśmy zupełnie analizując przyczyny polityczne i historyczne, podczas gdy bezpośrednią przyczyną 1 września był słynny „dzień samobójców” – czwartek 24 października 1929 roku? Niezwykle trudno jest nam oceniać doniosłość wydarzeń. Prawdopodobnie daty, których nikt nie pamięta są tymi najważniejszymi dla zrozumienia znaczenia procesów, które zmieniają świat. Kto wie, czy dziś nie zdarza się coś, co w sposób bezpośredni wpłynie na kolejną przełomową datę w historii ludzkości – za 10, 20, 100 lat? Musimy być niezwykle czujni, aby takie wydarzenia lokalizować i opisywać. Nie mamy żadnej pewności, że nasze rozumowanie jest trafne, czy dobrze rozumiemy otaczający nas świat i czy dobrze identyfikujemy problemy, przed którymi staną przyszłe pokolenia. Dopiero mając dzisiejszą wiedzę a sięgając po gazetę sprzed 5, 10, 50 lat mamy świadomość, które wydarzenia z pierwszych stron gazet tak naprawdę wpłynęły na kształtowanie się przyszłości. Nie możemy mieć jednak pewności, czy te z piątej, dziesiątej czy ostatniej strony, o których nikt dziś nie pamięta, za kolejne ileś lat okażą się właśnie tymi najważniejszymi.

      Rok 2008 był przełomowy pod wieloma względami. Przede wszystkim dlatego, że przyniósł więcej pytań niż odpowiedzi. Świat do roku 2001 żył obietnicą końca historii, większość była przekonana, że to tylko kwestia czasu. Późniejszy wielki problem – terroryzm w wersji globalnej – po kilku latach też wydawał się być oswojony. Panowało powszechne przekonanie, że zgodne współdziałanie świata zapewni mu względne bezpieczeństwo i dobrobyt. Rok 2008 pokazał, że państwo narodowe wcale nie umarło, że stare konflikty z zadziwiającą łatwością wchodzą w „gorące fazy”, że wielkie mocarstwa wciąż patrzą na siebie bardzo nieufnie, że przyszłość kolejny raz jawi się jako wielka zagadka.

      2008 to również śmierć innego mitu. Zdążyliśmy uwierzyć,  że osiągnęliśmy taki poziom wiedzy ekonomicznej, że stosując odpowiednie dawki kontroli i wolności potrafimy zapewnić, przynajmniej Zachodowi, stały i stabilny wzrost gospodarczy. Naszym problemem było tylko to, kiedy i w jaki sposób do klubu światowego dobrobytu dołączą biedniejsze państwa i regiony, tym samym kończąc epokę ekonomicznych konfliktów na osi Północ – Południe. Martwiliśmy się efektem cieplarnianym, podnoszeniem się poziomu wód oceanicznych, zanieczyszczeniem powietrza. Dziś do tych problemów, do których rozwiązania bynajmniej wcale się nie zbliżyliśmy, dołączają dawno zapomniane: bezrobocie, stagnacja, recesja, niepewność, bankructwa.  

     W plebiscycie na najpopularniejsze słowo 2008 roku zacięcie rywalizowałyby ze sobą „kryzys” i „zmiana”. Dziś jeszcze trudno wyłonić zwycięzcę. Za tym pozornie błahym problemem kryją się bardzo ważne dyskusje toczone na wszystkich płaszczyznach społecznych i politycznych, przede wszystkim zaś właśnie wokół ekonomicznego paradygmatu i jego zmiany. Jak echo powraca pytanie: Czy ktokolwiek ma pomysł, jak taka zmiana miałaby wyglądać i co stanie się ze światem po kryzysie?

      Tak naprawdę te kilka miesięcy następujące po tąpnięciu na rynku nieruchomości w USA nie przyniosło odpowiedzi na większość stawianych w tych dyskusjach pytań. Czy obecne zawirowania oznaczają śmierć starego, „neoliberalnego paradygmatu” ekonomicznego i narodziny nowego, jeszcze nie zdefiniowanego? Czy trzęsienie ziemi w sektorze finansowym spowodowało tylko popękanie nadbudowy światowego systemu ekonomicznego, pozostawiając niewzruszone jego fundamenty?

      Chińczycy o kryzysie mówią: „wei ji”. „Wei” to niebezpieczeństwo, ale „ji” oznacza „szansę”. Czy świat przetrwa niebezpieczeństwo i jak wykorzysta daną mu szansę? Ci, którzy zawsze uważają,  że szklanka jest zawsze po połowy pełna, w tę szansę bardzo mocno wierzą. Niektórzy podkreślają nawet, że kryzys może spełnić funkcję pewnego katharsis, biblijnego potopu, który oczyści świat ekonomii ze wszystkich jego grzechów. Pesymiści zaś wieszczą upadek cywilizacji Zachodu. I jedni, i drudzy nie mają racji, co jest zarówno pokrzepiające, jak i smutne, na pewno zaś ciekawe. 
 

 

Rozdział  I

Problem metody

 

 

Gdy ekonomiści mylą  się w teorii, ludzie cierpią  w praktyce.

Moises Naim

 

 

1. Znaczenie metodologii 

      Niedocenianym, niestety, przez wielu praktyków pytaniem nauki ekonomicznej jest: „Jak badać zjawiska ekonomiczne?”. Będzie ono wyjściowe dla naszej analizy – kto wie, czy metodologia nie jest tą dziedziną ekonomii, w której kryzys dokonał największych spustoszeń. Fakt, że znakomita większość praktyków i teoretyków ekonomii nie tylko nie przewidziała obecnych kłopotów, ale była przez nie wręcz zaskoczona, działa na ekonomistów zniechęcająco. Pojawia się bowiem wątpliwość, czy to, co robili przez całe życie ma w ogóle jakikolwiek sens, kiedy okazuje się, że stworzony przez nich system, który miał zapewnić trwały i stabilny wzrost rozsypał się jak domek z kart? Co w ogóle zostało z naszej wiedzy ekonomicznej? A może zasadne jest pytanie, czy badaliśmy zjawiska ekonomiczne w poprawny sposób? Pytania te są tym bardziej doniosłe, że świat potrzebuje dziś ekonomicznej wiedzy bardziej niż kiedykolwiek wcześniej w przeciągu ostatnich kilkudziesięciu lat. Czy mamy więc czas na budowę nowego podejścia ekonomicznego? Gwałtowny wzrost popytu wytrącił rynek wiedzy ekonomicznej z równowagi. Nagle, jak spod ziemi pojawiają się więc tuziny gotowych recept i złotych środków, z których każdy jest naiwnie przedstawiany jako niezawodne panaceum na wszystkie problemy. Rządzący, z przyczyn politycznie doskonale zrozumiałych, choć ekonomicznie niekoniecznie racjonalnych, działają niezwykle szybko, po omacku, bez należytego zastanowienia. Nie ma w tym szaleństwie metody.

      Inna sprawa, że czasy są szalone. Bardzo łatwo byłoby nawoływać  do zamknięcia się w ekonomicznych laboratoriach, majstrowania przy modelach, gromadzenia i przetwarzania danych empirycznych. Bo to, że coś w ekonomii nie działa poprawnie, widać gołym okiem. Niestety, nauka ekonomiczna jest zanurzona w realnym świecie, w którym czas gra główną rolę i w którym każdy dzień zwłoki przekłada się na realną sytuację zwykłych ludzi – likwidację miejsc pracy, spadek dochodu narodowego, zamknięcie firmy, ludzki dramat.

     Sytuacja ekonomii w ogólności, a w szczególności dziś, w 2009 roku, jest niezwykle podobna do sytuacji medycyny. Lekarstwo na raka zostanie prędzej czy później wynalezione. Epidemia AIDS zostanie prędzej czy później opanowana. Ale w tym przypadku to „prędzej” i owe „później” ma kolosalne znaczenie – w obu przypadkach nieźle kwantyfikowalne. Zmagania ekonomistów mają więc znacznie szerszy wymiar niż suche, abstrakcyjne, akademickie rozważania. Tutaj nie tylko prawda i wiedza odgrywają wielką rolę. Tutaj liczy się również czas.

      Pozostając przy porównaniach z medycyną – o ile z wielkim prawdopodobieństwem można założyć, że gnębiące dziś ludzkość choroby uda się ujarzmić w dającej się przewidzieć przyszłości, to można również przyjąć graniczącą z pewnością tezę, że w szybkim czasie zostaną one zastąpione przez choroby nowsze, jeszcze groźniejsze i jeszcze trudniejsze do pokonania. Lekkomyślnością byłyby w tym przypadku próby implementowania metod walki ze średniowieczną dżumą do współczesnej wojny na przykład z wirusem HIV. Postulowanie „powrotu do Keynesa”, czyli przeniesienia rozwiązań z lat 30 XX wieku do problemów pierwszej dekady wieku XXI, ma więc więcej wspólnego z bezradnością i desperacją niż poważną próbą rozwiązania problemu1. Nie ulega oczywiście wątpliwości, że historyczne nauczki mogą i powinny być dla nas lekcją na przyszłość. I rzeczywiście, nietrudno odnaleźć daleko idące analogie między obiema sytuacjami. Znów mamy chociażby problem z rosnącym bezrobociem i ujemnym wzrostem gospodarczym. Ale, podążając za słowami praktyka i teoretyka ekonomii, profesora Grzegorza Kołodki, rzeczy dzieją się tak, jak się dzieją, ponieważ wiele rzeczy dzieje się naraz2. Z tej prostej prawdy wynika równie banalna, co prawdziwa konstatacja. Mianowicie, skoro na każde najmniejsze wydarzenie składa się niezliczona ilość innych wydarzeń, to prawdopodobieństwo, że jeden kryzys będzie wypadkową tych samych zdarzeń, co inny jest znikome. W praktyce zaś – niemożliwe. Nie stać więc nas na takie proste przenoszenie rozwiązań. Czasy są na tyle trudne, że taka nonszalancja może się skończyć tragicznie.  

2. Podejście Oppenheima-Hempela i teza o symetrii 

      Co w takim razie mają począć ekonomiści? Mają gotowe recepty, ale nie są one przystające do bieżących problemów. Potrzebują  czasu, którego nie mają. Skoro gospodarka jest coraz bardziej złożona, a jej struktura wyjątkowo dynamiczna, to i nauka ekonomii winna podlegać nieustannej rozbudowie i ewolucji. Ale czy możemy wymagać, aby ekonomiści za tymi zmianami nadążali, skoro dysponują takimi, a nie innymi narzędziami badawczymi? Czy nadzieja, że będziemy w stanie jednocześnie wyjaśniać i przewidywać zjawiska ekonomiczne, nie jest zwykłą naiwnością? Ba, czy można oczekiwać takich rezultatów od jakiejkolwiek z nauk?

     Przez lata wymóg ten stawiali wszystkim naukom Peter Oppenheim oraz Carl Hempel3. Uważali oni, że każda prawda naukowa da się wyprowadzić z tak zwanego prawa wyższego rzędu, pewnego uniwersalnego explanans, z którego wywodzą się wprost zarówno naukowe predykcje, jak i wyjaśnienia zjawisk z przeszłości. Skoro wszystkie twierdzenia, niezależnie od czasu, którego dotyczą, mają to samo pochodzenie, to zarówno wyjaśniania jak i predykcje mają w nauce taki sam status i są wobec siebie doskonale symetryczne. Oznacza to, że jeśli z pewnej prawdy ogólnej zwanej prawdą wyższego rzędu wypływa wyjaśnienie pewnego zjawiska, to wywodzone z tego samego prawa przewidywania przyszłości też powinny okazać się prawdziwe – i na odwrót. Już na pierwszy rzut oka widać kontrowersje. Krytycy tezy Oppenheima-Hempela z największą siłą zaatakowali oczywiście „tezę o symetrii”. Wskazywano, słusznie zresztą, że nie istnieje teoria, która jednocześnie wyjaśniałaby, jak i przewidywałaby procesy i zjawiska, lub która robiłaby to w sposób przekonywujący. Newton mógł z łatwością przewidzieć, co stanie się z jabłkiem, które zostało strącone z gałęzi. Ale wyjaśnić – dlaczego dzieje się tak, że jabłko spada na ziemię – nie potrafił on ani nie potrafi nikt z nas. Wiemy, że istnieje grawitacja, ale jaki jest mechanizm jej powstawania i co sprawia, że każde ciało oddziałuje grawitacyjnie na inne ciało – nie wie nikt. Z drugiej strony słynna teoria Karola Darwina o pochodzeniu gatunków, choć jest w stanie dość przekonywująco wyjaśnić jak to się stało, że z „człowieka wyprostowanego” wyewoluował „człowiek myślący”, to w żadnym wypadku nie daje podstaw do przewidywania, jakie cechy będą charakteryzowały gatunek ludzki za kolejne 1,7 miliona lat. Wydaje się, że w przypadku ekonomii asymetryczność predykcji i wyjaśnień musi być jeszcze bardziej wyraźna. W biologii proces dostosowawczy trwa wiele setek lat, a prawa fizyczne (przynajmniej według obecnego stanu wiedzy) są uniwersalne w każdym miejscu na osi czasu. W ekonomii zaś, zwłaszcza współczesnej, przedmiot badań może zmienić się nawet z dnia na dzień, dezaktualizując stare prawa, które w nowej rzeczywistości stają się nieprzydatne. Trudno więc oczekiwać, że teoria, która jako tako wyjaśniała zjawiska i procesy ekonomiczne kilka, kilkanaście lat temu, ma jakiekolwiek szanse przewidzieć to, co będzie dziać się za kolejne piętnaście lat. Konstruowanie teorii przewidującej w celu wyjaśnienia przeszłości jest po pierwsze niemożliwe, po drugie zaś mało sensowne. Możemy więc już teraz odrzucić od siebie pragnienie stworzenia uniwersalnej teorii ekonomicznej, owego explanans w rozumieniu Oppenheima i Hempela, jednocześnie skutecznie atakując argumentację: „skoro działanie X sprawdziło się w przeszłości, to X sprawdzi się dziś”. 

3. Falsyfikacjonizm Poppera 

     Na razie jednak odpowiedzieliśmy (częściowo) na pytanie „czego nie robić?”. Przed nami znacznie trudniejsze pytanie i znacznie trudniejsza odpowiedź: „co robić?”. Nęcącą propozycję podsuwa nam Karl Popper – jeden z największych filozofów nauki XX wieku. Jego opus magnum, czyli teoria falsyfikacjonizmu4, zakłada, w bardzo daleko idącym uproszczeniu, że każda (naukowa) teoria jest prawdziwa i skuteczna, o ile nie zostało dowiedzione, że jest fałszywa5. Praca naukowca nie ma zatem polegać na udowadnianiu, które jest bardzo trudne, a często nawet niemożliwe. Nikt po dziś dzień nie udowodnił, że rewolucyjna teoria ewolucji Darwina jest prawdziwa, nikt nie wie na pewno, czy historię wszechświata rozpoczął Wielki Wybuch. Popper proponuje zatem, aby naukowcy falsyfikowali i formułowali nowe teorie. Takie podejście ma zapewnić nie tylko efektywniejsze, ale również szybsze, a przede wszystkim liniowe zbliżanie się do prawdy absolutnej, zamiast uporczywego uganiania się za nią, bez pewności, że ona w ogóle istnieje, albo że ludzki potencjał umysłowy jest wystarczający aby do niej dojść. Tym samym Popper odrzuca jednoznacznie pozytywizm logiczny, który nieostrożnie głosił przekonanie o istnieniu prawdy absolutnej, ba, wierzył nawet, że ludzkość może ją poznać poprzez doświadczenia empiryczne.

     Podejście Poppera może być bardzo interesujące i użyteczne, ale nie pozbawia nas wątpliwości. Czym bowiem różni się dowodzenie prawdy od falsyfikowania? Czy propozycja Poppera nie sprowadza się po prostu do udowodniania, że (~p)=1 zamiast q=1? Różnica tkwi w rodzaju kwantyfikatorów. W ekonomii udowodnić, że q jest prawdziwe, to wykazać, że we wszystkich przypadkach stosowanie q jest skuteczne, bo właśnie skuteczność teorii ekonomicznej jest głównym jej zadaniem. To, jak zauważył już David Hume6, a z całą mocą podkreślał Popper, stwarza ogromne problemy, których często nie da się pokonać. Mowa tu o słynnym „problemie indukcji” – nie ma bowiem żadnego powodu, aby twierdzić, że wszyscy konsumenci wolą batoniki od czekoladek tylko dlatego, że  sto milionów osób postawionych przed takim problemem wybrało batonik. Tak samo zresztą, jak błędne jest wnioskowanie, że skoro wszystkie wróble jakie widzieliśmy w życiu są szare, to wróble-albinosy nie istnieją. W przypadku falsyfikowania wystarczy dowieść, że istnieje na świecie jeden biały wróbel lub że istnieje jeden konsument który ponad wszystko uwielbia czekoladki. To zadanie z pewnością o wiele prostsze.

     Problem polega na tym, że teorie naukowe są znacznie bardziej skomplikowane, niż teza o kolorze upierzenia wróbli, a dowiedzenie ich fałszywości nie sprowadza się do czysto empirycznych wniosków i może nastręczać wiele innych problemów. Czy możemy stwierdzić jednoznacznie, że prawo Saya7 jest fałszywe? A może po prostu nasze narzędzia badań i laboratorium w którym pracujemy są niedoskonałe? To, że fałszywość teorii jest rzeczą względną jest doskonale widoczne we współczesnym stanie nauki ekonomicznej, w której istnieje trudno policzalna liczba różnorodnych nurtów, szkół i podejść, z których większość jest skonfliktowana i arbitralnie zakłada fałszywość teorii przeciwników. Czy keynesowskie założenie o „mnożniku inwestycyjnym” jest prawdziwe, czy zostało sfalsyfikowane przez szkołę austriacką i monetarystów? Nawet jeśli mamy dobre narzędzia do liczenia wzrostu PKB, bezrobocia i poziomu cen, to przecież nie są one doskonałe. Fałsz, podobnie, jak prawda jest więc rzeczą względną.

     Te namacalne wady podejścia popperowskiego przekładają się  na konkretne problemy współczesnej myśli ekonomicznej. Jest ona niesłychanie mocno podzielona i skonfliktowana. Energia największych umysłów ekonomicznych jest skoncentrowana na atakowaniu, lub ataków tych odpieraniu. Obecny mainstream, czyli podejście neoklasyczne, jest od dłuższego czasu okopany na starych pozycjach, starając się przede wszystkim utrzymać swoją rolę w nauce. Tymczasem liczne nurty heterodoksyjne starają się rozpychać łokciami i atakując pozycje neoklasyków z nadzieją, że same zajmą ich miejsce. Spór taki może oczywiście być, i bardzo często rzeczywiście jest, płodny. Ale nie jest twórczy wystarczająco, a często przypomina wręcz dreptanie w miejscu. Współczesna ekonomia miota się między większym i mniejszym zastosowaniem matematyki i ekonometrii, między postulatem powrotu do empirycznego podejścia Adama Smitha, a abstrakcyjnymi, zmatematyzowanymi modelami, między postępującą  integracją z innymi naukami społecznymi a próbami odcięcia się od wpływu nauk humanistycznych. O tym, że współczesna myśl ekonomiczna przechodzi poważny kryzys, świadczy zaskoczenie i szok jaki przeżyła wraz z załamaniem się rynków nieruchomości w USA i wszystkimi jego następstwami. Teoria Poppera, że ciągle falsyfikowanie i budowanie nowych teorii zbliża nas do prawdy, jest więc falsyfikowalna.  

4. Thomas Kuhn i paradygmaty 

      Wobec tych wątpliwości ciekawą alternatywę zaprezentował  amerykański filozof i historyk nauki Thomas Kuhn. Teoria Kuhna, znana powszechnie pod terminem paradygmatyzmu8, sytuuje się na przeciwnym od metodologii Poppera biegunie filozofii nauki. Czym jest ów paradygmat Kuhna, nie zostało explicite wyjaśnione nawet przez samego autora. Upraszczając, można go zdefiniować jako całościowy, obejmujący również elementy metafizyczne, obraz naukowego pojmowania świata, dostarczający modelowych rozwiązań w pewnej dziedzinie nauki. Przykładowo – paradygmat newtonowski dostarczył odpowiedzi na wiele pytań dotyczących teorii ruchu planet. Definicja taka jest bardzo szeroka i nieprecyzyjna (z czego zdawał sobie sprawę sam Kuhn), ale intuicyjnie dość prosta do zrozumienia i bardzo często oraz łatwo stosowana (o czym świadczy również tytuł niniejszej pracy). Istotą teorii Kuhna i jednocześnie tym jej aspektem, który najbardziej nas interesuje, jest jednak wyjaśnienie, w jaki sposób następuje zmiana paradygmatu w nauce, w jakim stopniu mogą się one wzajemnie przenikać i uzupełniać, a w jakim są dla siebie konkurencyjne. Na początku, być może w celu zwiększenia siły przebicia swojej teorii, Kuhn stał na bardzo odważnym stanowisku, że naukowe paradygmaty wzajemnie się wykluczają. Można być albo fizykiem kartezjańskim, albo newtonowskim, możemy przyjmować albo paradygmat darwinowski, albo kreacjonistyczny. Nie możemy natomiast wierzyć, że Ziemia trochę krąży wokół Słońca i jednocześnie, że Słońce krąży trochę wokół Ziemi.

      Ta dość naiwna i prostoduszna konstatacja stała się przedmiotem ostrej krytyki, która zmusiła Kuhna do zrewidowania swoich radykalnych poglądów. W drugim wydaniu swojej Struktury rewolucji naukowej, Kuhn przyznaje swoim krytykom rację i przyjmuje możliwość wzajemnego przenikania się paradygmatów. Wobec tego nie jest już błędem metodologicznym założenie, że inflacja może być powodowana zarówno czynnikami realnymi, jak i pieniężnymi, a najczęściej jest powodowana splotem tych czynników. Te pragmatyczne ustępstwo rozmiękcza nieco teorię Kuhna, ale czyni ją lepiej przystosowaną do rzeczywistości i łatwiej stosowalną.

      Faktycznie, metodologia Kuhna jest dość szeroko stosowana. Szczególnie w ostatnich miesiącach mówi się często o „paradygmacie neoliberalnym”. Pojęcie to jest jednak zazwyczaj używane jako skrót myślowy. Bo czy rzeczywiście ów „neoliberalizm” spełnia definicję kuhnowskiego paradygmatu? Oprócz opisanych wyżej problemów z określeniem samego „paradygmatu”, pojawia się jeszcze pytanie, czym jest „neoliberalizm”? Czy sprowadza się on tylko do większego zaufania do rynku niż do państwa oraz akceptacji różnic majątkowych jako naturalnej funkcji pracowitości i zdolności jednostek? Jeśli pod tym pojęciem rzeczywiście kryłaby się tak prosta konstatacja, to trudno byłoby uznać neoliberalizm za szerokie naukowe podejście stosowalne do większej części otaczającej nas rzeczywistości. Wówczas neoliberalizm byłby raczej czymś w rodzaju światopoglądu ekonomicznego, zbiorem pewnych przekonań i wartości, a więc pojęciem aksjologicznym, nie naukowym. Jeśli natomiast neoliberalizm miałby oznaczać maksymalnie poluzowaną politykę fiskalną rządów, stronienie od kontrolowania podmiotów gospodarczych i działania wolnorynkowe, to znów nie byłoby to pojęcie naukowe, lecz polityczne. Jeśli neoliberalizm ma być kuhnowskim paradygmatem, to musiałby on dostarczać spójnej metody badawczej, wyjaśniającej naukowo zjawiska ekonomiczne.

      Czy możemy go tak zaklasyfikować? Jest to problem dyskusyjny, ale z naszego punktu widzenia mało istotny. Naszym celem jest bowiem próba przewidzenia tego, w jaki sposób, w jakim kierunku, a przede wszystkim czy zmieni się ekonomia pod wpływem kryzysu gospodarczego rozpoczętego w 2008 roku. Jeśli nawet uznamy, że przez ostatnie dwadzieścia lat myśl ekonomiczna była zdominowana przez paradygmat neoliberalny, to oznaczałoby to jedynie, że kryzys może ten paradygmat zmienić. Może, ale przecież nie musi. Wynika to z faktu, że metoda Kuhna jest czysto opisowa, stricte defensywna. Ma ona uzasadniać stan rzeczy panujący w nauce, sankcjonować pewną schematyczność – na przykład skoro naukowcy zalecają uwolnienie cen rynku energii, to wynika to wprost z tego wolnorynkowego paradygmatu, który nazwaliśmy neoliberalnym. Na zasadzie analogii wolny rynek gazu może przynieść podobne rezultaty, jak uwolnienie cen w innych branżach, na przykład telekomunikacyjnej. Podobnie – stosując w praktyce paradygmat newtonowski, możemy udowodnić, że skoro tor obrotu Ziemi wokół Słońca jest elipsa, to również orbita Saturna będzie wyglądała podobnie. Nie chodzi tutaj oczywiście o aprioryczne założenia, lecz o pewien schemat, którym możemy się posługiwać w procesie badawczym. Moglibyśmy więc uznać metodologię Kuhna za lepszą propozycję niż popperyzm, ale pod warunkiem, że badalibyśmy ekonomię statycznie, w pewnym określonym punkcie czasu. W momencie przemian, w którym się aktualnie znajdujemy, potrzeba nam metodologii normatywnej, dynamicznej, takiej, która pozwoliłaby nie tylko przewidzieć zmiany, ale sformułować pewne postulaty dotyczące tych zmian. Ofensywna metoda Poppera jest, dla naszych celów, bardziej przydatna, ale i ona nie jest pozbawiona poważnych wad, które wymieniliśmy już wyżej.  

5. Lakatos i naukowe programy badawcze 

      Świadom tych wad i ograniczeń obu teorii, jeden z uczniów Karla Poppera, Węgier Imre Lakatos skonstruował teorię, która zakłada pewne kompromisy zarówno ze strony metody Poppera, jak i propozycji Kuhna i plasuje się gdzieś pomiędzy tymi dwoma podejściami. Lakatos wprowadza całkiem nowy aparat pojęciowy. Centralnym punktem jego teorii jest pojęcie naukowego programu badawczego. Wydaje się, że jest to pojęcie szersze od paradygmatu Kuhna. Za naukowy program badawczy możemy więc uznać na przykład samo badanie ekonomicznych zachowań jednostek, zapoczątkowane wiele wieków temu przez Smitha czy Mandeville’a, a może nawet samego Arystotelesa. Nic nie stoi zresztą na przeszkodzie, aby całą ekonomię zaklasyfikować jako jeden wielki program badawczy w rozumieniu Lakatosa.

      Oczywiście tak szeroka definicja byłaby tak mało precyzyjna, że aż nieużyteczna. Lakatos dokonuje więc wewnętrznego podziału naukowego programu badawczego na hard core i protective belt, co można tłumaczyć odpowiednio jako „twardy rdzeń” i „pas ochronny”. Te enigmatyczne, charakterystyczne dla Lakatosa terminy kryją pod sobą kluczowe dla jego teorii pojęcia. „Twardy rdzeń” jest bardzo bliski pojęciu paradygmatu Kuhna. Zawiera on bowiem te elementy naukowego programu badawczego, które najtrudniej jest zmienić, a często jest to nawet niemożliwe. Są to również elementy, które są szeroko akceptowalne i stosowane w praktyce badań. „Twardy rdzeń” zawiera nie tylko dogmatyczne tezy i założenia, nieraz bardzo daleko idące, ale również swoistą heurystykę i to zarówno negatywną jak i pozytywną. „Twardemu rdzeniowi” naukowego programu badawczego względną stałość i niezmienność zapewnić ma „pas ochronny”. Jest to z kolei zbiór tez i wierzeń pomocniczych, nawiązujących do elementów „twardego rdzenia”, zmiennych jednak i poddawanych próbom naukowym, również falsyfikacji.

      Widzimy jednak, że ten aparat pojęciowy jest bardzo sztywny. Przyjmując ekonomię  za przykład naukowego programu badawczego, możemy oczywiście wyodrębnić ortodoksyjny neoklasycyzm jako „twardy rdzeń” i całą masę różnych nurtów heterodoksyjnych jako „pas ochronny”, pojęcia te nie będą jednak zbieżne z tymi zaproponowanymi przez Lakatosa. Neoklasycyzm nie jest przecież uznawany ani za niezmienny, ani nadrzędny wobec innych teorii. Jest po prostu tym nurtem, który na dzień dzisiejszy znalazł sobie najwięcej zwolenników. Ponadto, rozmaite heterodoksje w wielu przypadkach całkowicie negują dorobek neoklasyczny, ostentacyjnie ignorując przy tym jego heurystyczny przekaz. „Twardy rdzeń” ekonomii jest więc nie tylko popękany i wciąż atakowany, ale również nie jest kompatybilny ze swoim „pasem ochronnym”. 

      Krytyka poszczególnych podejść metodologicznych jest jednak bardzo prosta, budowanie nowych zaś niezwykle trudne. Co więcej wydaje się, że wobec teoretycznego obciążenia empirycznych doświadczeń ludzkich, budowla, która w całości by nas zadowalała, jest niemożliwa do wzniesienia. Nawet bowiem jeśli uda nam się jakimś cudem udowodnić, że wszystkie wróble są szare, to kolor ich piór nie jest niczym innym niż zastosowaniem innej teorii, tym razem fizycznej. Kolor to przecież tylko fala świetlna o określonej częstotliwości. Najprostsze, najbardziej naturalne testowanie teorii naukowych – za pomocą empirii jest więc równie zwodnicze, jak wszystkie pozostałe metody.

     Zarówno Popper, Kuhn jak i Lakatos, oraz wielu innych metodologów wykonali olbrzymią pracę i przybliżyli nas do optymalnego podejścia do teorii naukowych. Nie będziemy próbowali uszeregować torii tych autorów według stopnia przydatności dla naszych rozważań. Spróbujemy więc korzystać ze wszystkich trzech teorii. Takie eklektyczne podejście może okazać się niebezpieczne, ale wydaje się nam, że równie nierozsądne byłoby arbitralne odrzucanie któregokolwiek z podejść.  
 
 
 

Rozdział  II

Stan ekonomii przed kryzysem. 

We learn from history that we do not learn from history.

      Georg Hegel 

1. „Cykle koniunkturalne” ekonomii 

      Ekonomia, tak jak gospodarka przeżywa chwile zarówno swojej świetności jak i upadku. Najwyraźniej te „cykle koniunkturalne” ekonomii widać na przestrzeni XX wieku. Lata dwudzieste to okres niezagrożonego tryumfu neoklasycznej ekonomii. Great Depression lat trzydziestych przyniosła nie tylko załamanie gospodarcze, ale również zwątpienie w ekonomię Alfreda Marshalla i optymalność rynkowej równowagi. Do czasów wydania i rozpowszechnienia Ogólnej teorii zatrudnienia, procentu i pieniądza, pióra Johna Keynesa, ekonomia zdawała się być zawieszona w próżni – wprawdzie istniała w miarę dobrze rozwinięta teoria ekonomiczna, ale nie potrafiła ona wyjaśniać zjawisk, które z wielkim impetem przetaczały się przez świat lat trzydziestych XX wieku. Tryumf Keynesa i namacalne efekty zalecanej przez niego polityki gospodarczej przyniosła odrodzenie ekonomii jako nauki, ostateczne rozczłonkowanie jej na mikro- i makroekonomię, a przede wszystkim przywróciło ekonomistom wiarę w możliwość pozytywnego kształtowania zjawisk ekonomicznych. Ekonomia znów przeżywała swoje dni chwały. Do czasu. W latach siedemdziesiątych ujawniły się z całą siłą wady i niedostatki teorii keynesowskiej, a trwała stagflacja zmusiła ekonomistów do prób włączenia do swoich modeli problemu inflacji. Odpowiedzią na ten marazm gospodarczy była ofensywa monetarystów z Chicago pod „dowództwem” Miltona Friedmana oraz tak zwana rewolucja neokonserwatywna, przeprowadzona w latach osiemdziesiątych przez rząd Margaret Thatcher w Wielkiej Brytanii i prezydenta Ronalda Reagana w Stanach Zjednoczonych. Zwycięstwo ich podejścia, określone później mianem wspominanego wcześniej „paradygmatu neoliberalnego”, zostało dodatkowo okraszone upadkiem komunizmu i bloku wschodniego w 1989 roku. Zawód ekonomisty stał się wówczas zajęciem prestiżowym, a wiara w to, że ekonomia będzie w stanie tak sterować globalną gospodarką, aby zapewnić jej trwały i stabilny wzrost i dobrobyt coraz większej rzeszy ludzi, stawała się wciąż silniejsza i silniejsza. I tym razem jednak ta idylla została przerwana przez kryzys roku 2008. Zatrzymajmy się jednak na chwilę nad stanem nauki ekonomicznej przełomu wieków. 

2. Globalizacja jako przykład płytkiej dyskusji 

      Podstawową  osią dyskusji ekonomicznej końca XX i początku XXI wieku był  problem globalizacji, problem który był wielokrotnie i wielorako definiowany i interpretowany. Doszło do tego, że „globalizacja” stała się słowem-wytrychem otwierającym każde drzwi i wyjaśniającym każdy problem. Termin ten uległ tak niebezpiecznej dla każdej dziedziny wiedzy generalizacji. Wszystko zatem stało się pochodną globalizacji i skutkiem międzynarodowej integracji gospodarczej. McDonald’s w Moskwie – globalizacja. Niezwykły skok gospodarczy Chin w ostatnim ćwierćwieczu – globalizacja. Fabryka Fiata w Tychach – globalizacja. Co ciekawe, takiej generalizacji na równi dopuszczali się zwolennicy, jak i zagorzali przeciwnicy globalizacji. Antyglobaliści, którzy sami siebie wolą nazywać alterglobalistami, lubią całe zło tego świata zapisywać na koncie nieszczęsnej globalizacji. Zamknięte koło biedy i niedorozwoju państw afrykańskich – globalizacja. Kiepskie, nieraz urągające ludzkiej godności warunki pracy w państwach rozwijających się – globalizacja. Zanieczyszczenia środowiska – globalizacja9. Bezrobocie w państwach rozwiniętych – a jakże, globalizacja. Było to, i jest, szeroko wykorzystywane przez rozmaite ruchy lewicowe, które w konflikcie interesów biednego Południa i bogatej Północy próbują znaleźć paralele do XIX-wiecznej walki klasowej.

      Generalnie jednak globalizacja zyskała sobie więcej zwolenników niż przeciwników. Powody takiego stanu rzeczy są nietrudne do zidentyfikowania. Globalizacja dawała ogromne zyski zachodnim korporacjom, jednocześnie pozwalając państwom Trzeciego Świata znacznie szybciej się rozwijać i ograniczać rozliczne problemy społeczne z bezrobociem na czele. Ponadto gęstniejąca sieć międzynarodowych, często multilateralnych, współzależności niewątpliwie czyniła świat jeśli nie bezpieczniejszym, to przynajmniej bardziej przewidywalnym. To właśnie przekonanie o zbieżności interesów zglobalizowanych państw i unifikacyjnej roli proliferacji kulturalnej Zachodu zrodziło ideę końca historii10 – największej utopii końca XX wieku.

      W wymiarze ekonomicznym globalizacja stała się obietnicą  dynamicznego wzrostu gospodarczego, którego granice trudno jest wskazać czy nawet objąć wyobraźnią. „Globalizatorzy” mieli, i wciąż mają przed sobą niezmierzony „niebieski ocean”, różnorodność rynków, miejsc produkcji i dystrybucji. Niczym nowożytnym kolonizatorom, globalizacja dała zachodnim firmom możliwość ucieczki ze swojego ciasnego, klaustrofobicznego wręcz świata nasyconych rynków i kapryśnych, wymagających pracowników. Nic więc dziwnego, że zarówno globalizacja, jak i samo jej pojęcie zrobiły tak zawrotną karierę.

      Zachwycano się spontanicznością globalizacji. Dostrzegano oczywiście, że międzynarodowa deregulacja i liberalizacja handlu ma wpływ na przyspieszenie procesów globalizacyjnych, ale generalnie podkreślano, że proces ten biegnie mimo wszystko samoistnie. Nikt nie kazał sieci kawiarni Starbucks otwierać filii w Warszawie. Firma podjęła tą decyzję autonomicznie, podobnie jak setki innych firm. To, że pojedyncze podmioty ekonomiczne, będące globalnymi przedsiębiorstwami podejmują bardzo zbliżone do siebie decyzje – otwierania punktów sprzedaży i produkcji poza granicami własnego kraju, kontynentu, kręgu kulturowego, fascynowało. Należy jednak zwrócić uwagę na to, jakie ta fascynacja niosła ze sobą zagrożenia. Jeżeli rzeczywiście uznamy, że proces globalizacji postępuje samoistnie, że wprost z definicji rozwija się w najlepszym możliwym kierunku, to możemy postawić tezę, że globalizacja jest rozwiązaniem światowego problem nierówności. Jednocześnie można wysunąć postulat, aby ten dynamiczny i ewoluujący wciąż proces pozostawić bez jakiegokolwiek skrępowania, bez kontroli. Nie mam tutaj wcale na myśli kontroli instytucjonalnej, gdyż znajduje się to niejako poza polem naszego zainteresowania. Pragnę zwrócić uwagę na bardziej subtelny problem – kwestię kontroli intelektualnej, naukowej.

      Konkretyzując  – najbardziej jaskrawy przykład globalizacji pokazuje, że pewne idee i postulaty mogą zdominować krytyczne spojrzenie na pewne problemy. Ustawiając się na pozycji zdecydowanego zwolennika lub przeciwnika na przykład globalizacji, pozbawiamy się możliwości obiektywnego spojrzenia na problem, a całą swoją energię kierujemy w kierunku obalania tez przeciwnika stojącego po przeciwnej stronie barykady i budowanie podpór dla naszej idei. Niesie to ze sobą niebezpieczeństwo, którego tak obawiał się Popper – społeczeństwa, które nie falsyfikuje, czyli takiego, które może tracić swój czas i siły na walkę wciąż wokół jednej idei, która może w istocie być nie tylko fałszywa, ale zbudowany na jej gruncie aparat pojęciowy może zupełnie odstawać od rzeczywistości. Pojawia się tutaj po raz kolejny problem indukcji, Fakt, że globalizacja dotychczas pozwalała w miarę efektywnie rozmieścić szczupłe zasoby pomiędzy nieograniczone potrzeby, nie stanowi żadnej przesłanki ku temu, aby działo się tak również w przeszłości. Należy zachować czujność, przystosowywać i przekształcać instytucje, ale również aparaty pojęciowe i analityczne. I należy czynić to nieustannie, gdyż starożytne panta rei ma zastosowanie również, a może przede wszystkim, w ekonomii.

     Zbyt pochopne byłoby zarzucanie nauce ekonomicznej, że nie przewidziała kryzysu, albo bardziej precyzyjnie, że mu nie zapobiegła. Ale już fakt, że nie była na niego przygotowana, jest poważnym przestępstwem. Bo oznacza to, że w polu jej zainteresowań znalazły się procesy i zjawiska mniej istotne. Zamiast wypracowywania mechanizmów obronnych przed kryzysowymi załamaniami, skoncentrowała się na poszukiwaniu rozwiązań, które miałyby w sposób liniowy, to jest bez znaczących wstrząsów, rozwiązać większość problemów i poprowadzić ludzkość w kierunku powszechnego dobrobytu i dostatku. Tak właśnie zrodziły się łatwe recepty na bardzo trudne i złożone problemy.  

3. Krótka historia ekonomii XX wieku 

      Cofając się nieco bardziej wstecz i mając na uwadze te obserwacje dotyczące problemu globalizacji, zwracamy uwagę, że również historia ekonomicznego dyskursu XX wieku jest bardzo podobna w swojej strukturze – mianowicie obraca się wokół jednej podstawowej osi sporu. Jest nią oczywiście kwestia roli państwa w wolnorynkowej gospodarce. Co charakterystyczne, w dyskursie tym występuje bardzo silna polaryzacja. Ideowi przeciwnicy usadawiają się po całkowicie przeciwnych stronach, a w naukową dysputę dość wyraźnie wkrada się polityka. Walka zaś zwolenników jednego i drugiego podejścia przybiera raczej kolory ideologiczne niż stricte naukowe. To stanowi poważny problem, z powodów podanych wyżej. Dyskusja zaczyna odrywać się od rzeczywistości, która nieustannie ewoluując płata uczestniczącym w niej ekonomistom kolejne figle. Nie ma przy tym większego znaczenia, czy nagły kryzys został wywołany przez czynniki egzogeniczne (jak szok naftowy w latach siedemdziesiątych) czy endogeniczne (jak kryzys bankowy początku lat osiemdziesiątych) – w każdym przypadku zaskakiwały one świat ekonomiczny i musiało minąć trochę czasu, aby znaleźć odpowiedzi na ujawnione problemy i przywrócić światową gospodarkę do przyzwoitego stanu. Najbardziej zastanawiające jest jednak to, że te swoiste „cykle koniunkturalne” nauki ekonomicznej powtarzają się niemal regularnie na przestrzeni XX wieku.

      Obserwacje te pomogą nam w prześledzeniu najważniejszych idei i tez ekonomicznych XX wieku w taki sposób, aby odkryć i zlokalizować ich słabe punkty, które doprowadziły również do obecnego kryzysu. Rozpoczniemy naszą analizę od poprzedniego tak poważnego kryzysu ekonomicznego – Great Depression lat trzydziestych XX wieku. Bez wątpienia wstrząsnął on światem ekonomii. Trzeba przyznać że miał on wielkie szczęście, że akurat wtedy geniuszem błysnął John Keynes, który zaproponował zupełnie nowe podejście do ekonomii, które dziś nazywamy makroekonomią. Wyprowadzenie mnożnika keynesowskiego było sprawą drugorzędną – a przyszłe liczne, skuteczne zresztą ataki na niego, wcale nie obaliły głównych tez tego ekonomisty. Istotą modelu Keynesa jest bowiem wskazanie realnych instrumentów, za pomocą których państwo może skutecznie kontrolować poziom produkcji krajowej. Keynes mylił się nieco co do możliwości rządu, co jest oczywistą konsekwencją pominięcia  zmieniającego się poziomu cen i wpływu polityki monetarnej na skalę zmiany dochodu narodowego. Pomyłka dotyczyła więc błędnego oszacowania proporcji, jednak nie naruszyła ona „twardego rdzenia” programu Keynesa.

      To właśnie zadecydowało o tym, że myśl keynesowska na tak długo zdominowała naukę ekonomiczną. Sprzyjała jej również sytuacja historyczna. Kraje zachodnie przez kilkadziesiąt lat przeżywały niespotykany wcześniej boom gospodarczy spowodowany powojennym popytem konsumpcyjnym oraz, w jeszcze większym stopniu, inwestycyjnym. Nic więc dziwnego, że przeciwnikom Keynesa, nawet gdyby tacy w dużej liczbie i sile istnieli, brakowało argumentów do polemiki z założeniami jego teorii. Dynamiczny wzrost produkcji pozwolił ekonomistom na złudne, ale i komfortowe wrażenie, że „długi okres nie istnieje”11, a rządowe stymulowanie gospodarki będzie owocowało trwałym, dynamicznym wzrostem gospodarczym. Fakt, że w keynesowskim modelu zabrakło miejsca dla inflacji sprawił, że jej problemowi nie poświęcano zbyt wiele uwagi, twierdząc, że działania rządu związane z manipulowaniem podażą pieniądza nie mają na nią zasadniczego wpływu. Ekonomiści, jak to już wcześniej bywało i później jeszcze będzie bywać, znaleźli się w komfortowej sytuacji, która uśpiła ich czujność i spowodowała kolejny kryzys ekonomii. Rzeczywistość przyniosła nowe wyzwania, których ekonomiści nie przewidzieli i na które nie byli gotowi.

      Jakby tego było mało, rozwój wypadków postępował niezwykle dynamicznie. Lata siedemdziesiąte dwudziestego wieku z wielką brutalnością  przypomniało światu o problemie inflacji. Wcześniejsze poglądy na jej temat opierały się głównie na empirycznie wyprowadzonej w drugiej połowie lat pięćdziesiątych, słynnej krzywej Philipsa12 i sprowadzały się do dość prostej zasady: można utrzymywać niską inflację kosztem wyższego bezrobocia, albo niższe bezrobocie kosztem wysokiej inflacji. Oba wskaźniki, oczywiście za pomocą interwencji rządowych, można utrzymywać również na kompromisowym poziomie, zapewniającym nieduże bezrobocie przy względnie niewysokiej inflacji, która nie zagrażała owocom wzrostu gospodarczego. Jak zostało powiedziane wyżej, był on przez niespełna trzydzieści powojennych lat rzeczywiście stabilnie wysoki. Okazało się jednak, że zewnętrzny szok naftowy nie tylko spowodował gwałtowne zahamowanie wzrostu gospodarczego, ale doprowadził do wzrostu bezrobocia, któremu nie towarzyszył spadek inflacji. Przeciwnie, ceny zaczęły rosnąć bardzo szybko z powodu coraz wyższych kosztów produkcji, opartej w świecie zachodnim na wykorzystaniu ropy naftowej. Dla nowej ekonomicznej rzeczywistości ukuł się termin stagflation13.

      Metody stymulowania popytu zaczerpnięte z myśli Keynesa okazały się  niewystarczające. Otworzyło to drogę do ataku dla jej przeciwników. Wykorzystała to grupa ekonomistów związanych z University of Chicago pod przywództwem Miltona Friedmana i jego asystentki Anny Schwartz. Już w latach ’50 wysunęli oni pogląd, że inflacja, jako zjawisko ściśle pieniężne, jest w sposób bardzo istotny powiązana z podażą pieniądza określaną przez bank centralny. Dlatego też, zaczęto określać ich mianem monetarystów. Zakładali więc, że finansowanie deficytu budżetowego, który jest pochodną keynesowskiego zaangażowania państwa w stymulację popytu konsumpcyjnego, prowadzi w prosty sposób do wzrostu inflacji. Ich poglądy znalazły empiryczne potwierdzenie zarówno w państwach Zachodu, dręczonych przez wysoką inflację, jak i w kręgu krajów gospodarki socjalistycznej. W przypadku tych ostatnich inflacja w sposób jawny co prawda nie występowała, ale presja inflacyjna związana z kryzysem naftowym doprowadziła do tak zwanej „ukrytej inflacji”. Przejawiała się nie we wzroście cen, gdyż te były sztywno kontrolowane przez organy państwowe, lecz w powstawaniu niedoborów produkcji, czyli wysokiej nadwyżki popytu nad podażą14, która z powodu wzrastających kosztów produkcji, niemożliwych w realiach komunistycznych do skompensowania podwyżką cen, musiała w sposób oczywisty spadać. Tak więc kraje socjalistyczne stanęły przed problemem shortageflation15, pojęciem bardzo podobnym do zachodniej stagflation, jednak lepiej oddającym specyfikę socjalistyczną. Przykład gospodarki centralnie planowanej jest o tyle istotny, że owa wielka presja inflacyjna lat siedemdziesiątych zapoczątkowała procesy, które doprowadziły do ostatecznego upadku bloku państw demokracji ludowej dwadzieścia lat później. Jest to również potwierdzenie trafności podejścia monetarystów, gdyż zastosowanie przez państwa zachodnie ich wskazówek spowodowało wyjście z kryzysu lat siedemdziesiątych i pozwoliło osiągnąć decydującą przewagę w ziemnej wojnie. Państwa socjalistyczne, które z powodów ideologicznych nie mogły zastosować wolnorynkowych przemian pogrążały się w kryzysie coraz głębiej, co doprowadziło do ostatecznego bankructwa komunizmu.

      Cóż więc takiego zaproponowali monetaryści? Przede wszystkim uznali oni ekspansywną politykę monetarną rządu za całkowicie nieskuteczną, a wręcz szkodliwą, jako prowadzącą do spirali inflacyjnej. Argumentowali to tym, że długookresowa krzywa podaży staje się doskonale nieelastyczna – to z kolei powoduje, że jakiekolwiek zmiany popytowe nie mają realnego wpływu na dochód narodowy, natomiast doprowadzają do zmian poziomu cen. Keynesiści nie mieli na tą teorię odpowiedzi z bardzo prozaicznego powodu – Keynes po prostu ignorował długi okres w ekonomii. To otworzyło pole do rozwoju teorii monetarystów i szybkiego wzrostu jej popularności. Odznaczający się nieufnością do państwowych regulacji, zaczęli głosić powrót do wolnorynkowych ideałów wspierając się na filozofii ekonomistów szkoły austriackiej16. Monetaryści z Chicago znów oddali więc rynek w ręce gry popytu i podaży. Tak zrodziły się zręby czegoś, co dziś nazywa się paradygmatem neoliberalnym. Od czasów rewolucji reaganowskiej i thatcherowskiej kierowane przez neoliberałów gospodarki USA i Wielkiej Brytanii oraz naśladujących je państw rozwijały się niemal liniowo, nie licząc kilku mniej lub bardziej poważnych anomalii jak kryzys bankowy początku lat ’80 czy azjatycki w latach 1997-1998 Co najważniejsze jednak rozwój był na tyle dynamiczny, że wspomniane anomalie traktowano raczej pobłażliwie, zaliczając je na poczet naturalnych wahnięć cyklu koniunkturalnego. Fakt, że kryzysy te z niespotykaną w historii prędkością przenosiły się do innych państw traktowano jako produkt uboczny globalizacji. Przykry, ale nie na tyle, aby zneutralizować korzyści płynące z tego procesu. Ekonomia końca XX wieku żyłą więc beztroskim poczuciu spełnienia społecznego obowiązku – choć oczywiście nikt tego oficjalnie nie przyznawał, to wszystkim wydawało się, że oto osiągnęliśmy poziom wiedzy, który pozwoli nam na stabilny i trwały wzrost gospodarczy.  

4. Krótka historia polityki gospodarczej XX wieku 

      Faktem bezspornym, który ma zasadnicze znaczenie dla naszych rozważań  jest ścisłe i wzajemne powiązanie ekonomii z polityką. Będzie to doskonale widoczne jeśli nałożymy na przedstawioną wyżej historię najważniejszych nurtów nauki ekonomicznej siatkę politycznych działań najważniejszych przywódców i kierowników polityki gospodarczej XX wieku.  Najgorętszym, wśród polityków pierwszej ligi, zwolennikiem teorii Johna Keynesa był 32 prezydent Stanów Zjednoczonych Franklin Delano Roosevelt. Jego słynny New Deal jest wręcz podręcznikowym przykładem zastosowania teorii keynesowskiej w praktyce. Była to odpowiedź rządu amerykańskiego na Great Depression. Roosevelt zapoczątkował okres intensywnego zaangażowania państwa w gospodarkę ograniczając tym samym wolny rynek i zasady konkurencji. Program zwany The First New Deal z 1933 roku skoncetrowany został na rządowym uregulowaniu działania przedsiębiorstw finansowych, przemysłowych czy rolniczych. Obejmował zmiany w prawie jak i w systemie redystrybucji środków. Kierowała nim agenda National Recovery Administration powołana przez National Industrial Recovery Act. The Second New Deal z lat 1934-36 oparł się na wierze w mechanizm mnożnika keynesowskiego i przeznaczył gigantyczne pieniądze na wzrost wydatków rządowych. Miało to nie tylko automatycznie podnieść dochód narodowy, ale również stymulować konsumpcję poprzez zwalczanie wysokich cen. Inwestycje rządowe były ukierunkowane na tworzenie nowych miejsc pracy poprzez wielkie projekty infrastrukturalne, takie jak chociażby budowa Golden Gate Bridge w San Francisco za 27 milionów dolarów, co ówcześnie było olbrzymią kwotą. Dla realizacji tych celów powołano specjalną agencję rządową – Work Progress Administration, zarządzającą gigantycznymi kwotami. Integralną częścią New Deal było ponadto dzieło współpracownika Roosevelta, Edwina Witte’go – Social Security Act, ustawa wprowadzająca szereg gwarancji socjalnych dla bezrobotnych, ubogich, emerytów i rencistów, dzieci17. Jak widać New Deal uderzał we wszystkie charakterystyczne cechy Wielkiego Kryzysu – inflację, bezrobocie, biedę, które wzajemnie się napędzały i potęgowały. Zupełnie nie liczono się przy tym z kosztami, o czym świadczy ogromna liczba wyspecjalizowanych i zbiurokratyzowanych agend rządowych dysponujących znacznymi budżetami, często autonomicznymi. Uwierzono, że wszystko, co ważne w gospodarce, dzieje się w sferze realnej – że nieustanne zwiększanie podaży pieniądza, stymulacja pożyczek rządowych i indywidualnych18 nie wyrządzi w gospodarce szkód, bo pozytywnie wpływa na konsumpcję i produkcję, a sfera monetarna była z punktu widzenia keynesistów nieistotna. Dla polityków była to sytuacja idealna – jeżeli nawet fachowcy i naukowcy popierali zwiększanie wydatków rządowych, to nic nie stawało na przeszkodzie zwiększaniu obciążeń budżetu i jego deficytu, popieraniu gwarancji socjalnych i rozdawnictwu. Taka polityka doskonale trafiała w gusta elektoratu – nieprzypadkowo prezydent Roosevelt został wybrany na jeszcze trzy kolejne kadencje. Interwencjonizm państwowy, choć jednak pod inną postacią, zyskał również ogromną popularność w Europie – czego przykładem są sukcesy polityczne populistów: Mussoliniego we Włoszech i Hitlera w Niemczech.

      Czasy II Wojny Światowej z oczywistych powodów jeszcze wzmogły zaangażowanie państwa w kierowaniu gospodarką. Po jej zakończeniu zaś, niezwykle wysoki popyt konsumpcyjny, a przede wszystkim inwestycyjny oraz potrzeba realizacji wielkich projektów infrastrukturalnych w Europie zniszczonej wojną sprzyjał hegemonii keynesizmu. Ponadto rozwijająca się teoria welfare state zgłaszała potrzebę rozwijania działalności państwowej w zakresie zagwarantowania rozbudowanych świadczeń społecznych i redystrybucji dóbr. Pierwsze problemy pojawiły się na przełomie lat ‘50 i ’60, kiedy gospodarki zachodnie musiały stawić czoła zjawisku stagflacji (patrz punkt 3. tego rozdziału). Jednak autorytet keynesistów był na tyle silny, że ich teoria była wciąż szeroko stosowana w polityce gospodarczej. Teorie przeciwstawne, takie jak monetaryzm traktowano wciąż jako heterodoksyjne, Milton Friedman został laureatem Nagrody Nobla dopiero w 1976 roku. Lata ’70 przyniosły słynny kryzys naftowy19, który uwidocznił jak kruche podstawy ma wzrost gospodarczy oparty na ciągłej stymulacji konsumpcji. W świecie ekonomicznym rozgorzała dyskusja, która znalazła swoje odbicie w sferze politycznej na początku lat ’80.

      Z rewolucją, jak się wówczas dokonała w polityce gospodarczej nierozerwalnie łączą się nazwiska premier Wielkiej Brytanii Margaret Thatcher, prezydenta Stanów Zjednoczonych Ronalda Reagana oraz w mniejszym stopniu premiera Kanady Martina Briana Mulroney’a. Związek ten jest na tyle silny, że zwykło się mówić o „rewolucji thatcherowskiej” i „reaganowskiej”. Margaret Thatcher była premierem w latach 1979-1990, a Reagan urzędował przez dwie kadencje od 1981 do 1989 roku. Działania brytyjskiego rządu i amerykańskiej administracji w tych latach były bardzo podobne. Pobudzenie popytu konsumpcyjnego i inwestycyjnego próbowano osiągnąć za pomocą obniżki podatków, a nie redystrybucji dochodu. Niższe wpływy do budżetu rekompensowano cięciami wydatków publicznych i likwidacją rozdętego biurokratyzmu. Wycofywano się z dużej własności publicznej poprzez powszechne prywatyzacje, zasilające budżet dodatkowymi kwotami. Ta stosunkowo prosta polityka przyniosła zamierzony skutek – gospodarka USA osiągnęła największe tempo wzrostu w historii. Najważniejszą spuścizną rewolucji neokonserwatywnej było jednak odrodzenie wiary w wolny rynek i ideologiczne podstawy wolności jednostki również w sferze gospodarczej. Zaczęto wspierać przedsiębiorczość, kosztem dotychczasowej ochrony praw pracownika, której wyrazem była potęga związków zawodowych rozbita przez Reagana i Thatcher. Szczególnie prezydent USA, będący utalentowanym mówcą, często odwoływał się w sposób bezpośredni do oświeceniowej koncepcji świętości własności prywatnej jako przyrodzonego prawa człowieka, wymienianego teraz jednym tchem obok prawa do życia czy prawa do swobody wypowiedzi20. Tak radykalna zmiana kierunku polityki gospodarczej, oraz fakt, że zaczęła ona przynosić wymierne rezultaty wpłynęły na zmianę sposobu myślenia przeciętnego obywatela. Amerykański model wolności jako podstawy rozwoju społeczeństwa znów stał się bardzo atrakcyjny w innych częściach świata, a pogrążający się w coraz głębszym kryzysie ZSRR miał do przeciwstawienia coraz mniej argumentów. Schyłek rządów Reagana i Thatcher przyniósł ostateczny upadek komunizmu. Następna dekada lat ’90 przyniosła wprawdzie zwycięstwa wyborcze lewicy (Partia Pracy w Wielkiej Brytanii z Tony’m Blair’em na czele, administracja Billa Clintona w USA, później Socjaldemokratycznej Partii Niemiec z Gerhardem Schroderem), jej rządy nie zmieniły jednak znacznie kierunku wyznaczonego w latach ’80, wprowadzając tylko zasadę bardziej socjalnej redystrybucji dóbr na zasadzie: produkować kapitalistycznie, dzielić socjalistycznie. Syntezy tych dwóch postulatów podjął się brytyjski socjolog Anthony Giddens, twórca programu Labour Party oraz koncepcji The Third Way21, czyli kompromisu między kapitalizmem a socjalizmem. Dla naszych rozważań najważniejszy jest fakt, że Trzecia Droga w pełni akceptuje wolnorynkowe procesy produkcyjne, przy nieco większym akcencie położonym na hasła wrażliwości społecznej. Pomijając spory jakie toczą się wokół idei Trzeciej Drogi i jej krytykę, zarówno z prawej, jak i lewej strony, możemy śmiało założyć, że wpisała się ona w neoliberalną koncepcję gospodarki, dominującą w polityce światowej od lat ’80 XX wieku.  
 
 

Rozdział  III

Kryzys 2008 – co się stało? 

To się  powtarza co 5, 10 lat. Zła krew musi odpłynąć.

Mario Puzo, „Ojciec Chrzestny”

 

 

      „Chciwość”– to słowo pasuje jak ulał do wyjaśniania przyczyn kryzys. „Chciwość bankierów” – robi jeszcze większe wrażenie. „Chciwość podstępnych bankierów” – nie tylko wyjaśnia, skąd wzięły się nasze problemy, ale jednocześnie podkreśla, że to nie nasza wina, tylko bankierów, którzy ponadto oszukiwali nas przez cały czas prosperity. Nic więc dziwnego, że tego typu określenia robią furorę w światowej publicystyce doby kryzysu. Tej z lewej strony22.

      Tymczasem ci z prawej próbują nas przekonać, że kryzys w swej istocie to prosta konsekwencja państwowych regulacji i ingerencji w misterną strukturę wolnego rynku, a neoliberalizm tak naprawdę ma więcej wspólnego z układem polityczno-biznesowym niż prawdziwą wolnością23.

      Tymczasem wydaje się, że prawdziwe powody obecnego załamania gospodarczego są w istocie znacznie bardziej prozaiczne, i daleko im od wzniosłej ideologii. Poprawne sformułowanie przyczyn jest zaś niezbędne do pełnego zrozumienia zjawiska. Przyjrzyjmy się więc na chwilę anatomii kryzysu, wyłączając z dyskusji argumenty ideologiczne, polityczne i emocjonalne.

       
 

1. Pęcznienie 

      Na trudne pytania, jak już wcześniej zauważyliśmy, zbyt często poszukuje się łatwych odpowiedzi. Ten sam mechanizm działa gdy obarczamy winą za kryzys, mityczną już niemal, bańkę na rynku nieruchomości. Tymczasem jest to próba przenoszenie per analogiam wyjaśnienia kryzysu przykładami z historii gospodarki. Podobne do tej mieszkaniowej „bańki” pękały wiele razy w przeszłości. Najbliższym przykładem może być bańka internetowa, która ekspodowała na przełomie drugiego i trzeciego millenium. Na parkietach całego świata ceny akcji spółek inwestujących w projekty internetowe, niczym XVII-wiecznych tulipanów24, poszybowały tak wysoko w górę w ciągu pięciu lat, że były zdecydowanie wyższe, niż realne ich wartości. Naturalnie, musiało to w końcu doprowadzić do gwałtownego spadku wartości nominalnej. Podobne bański spekulacyjne, mniejszych i większych rozmiarów zdarzały się regularnie i zostały dość dobrze udokumentowane i poznane – podobną strukturę miał również kryzys azjatycki 1997 roku. To dlatego tak chętnie transplantowano to określenie również na obecny Crisis. Dawało to poczucie, że oto spotykamy się z czymś, co dobrze znamy, czymś naturalnym i czymś, z czym wolna gra popytu i podaży powinna stosunkowo szybko sobie poradzić – wszystko wróci do normy, gdy tylko ceny dostosują się do panujących na rynku warunków.

     Trudno tu posądzać kogokolwiek o wygodnictwo, raczej o odpowiedź  adekwatną do stanu wiedzy. To normalne i zrozumiałe, że człowiek próbujący opisać zjawisko posługuje się terminologią  i wiedzą, która jest mu najbardziej znana i którą posługuje się najbardziej biegle. Zadziałały tu mechanizmy, które zostały już opisane wyżej, w punkcie 2 rozdziału II. Jak powiedzieliśmy, takie zachowanie jest zrozumiałe, nie jest natomiast prawidłowe.

      Sama głębokość i szerokość kryzysu powinna dać do myślenia. Nie wystarczy powiedzieć, że była to większa bańka niż zwykle, lub że napęczniała w ważniejszym sektorze gospodarki. Tak głęboki i tak rozległy kryzys musi mieć szersze przyczyny niż tylko zawirowania na jednym rynku. I rzeczywiście tak było.

      Wydaje się, że podstawą walki z kryzysem jest przyznanie, że nie jest on ani zwyczajny, ani naturalny. Należy spojrzeć na niego bardziej kompleksowo. Może prawdziwymi jego przyczynami są  czynniki psychologiczne, kryzys pewnego sposobu myślenia, ekonomicznego światopoglądu?  Może właśnie na naszych oczach rozpada się mit o szybkim, łatwym i stabilnym zarabianiu na wszystkim, albo przynajmniej na większości tego, w co się inwestuje? Najwidoczniej to nie wirtualny, często spekulacyjny kapitał jest odpowiedzią na pytanie: jak szybko i minimalnym kosztem trwale rozwijać gospodarkę, zwiększać PKB i zapewniać dobrobyt. Nie są to wcale tak abstrakcyjne pytania i wkraczają w strefę ekonomicznej metafizyki tylko połowicznie – od tego, jak ludzie będą zachowywać się w nowej rzeczywistości ekonomicznej zależy, czy i jak często takie kryzysy będą się powtarzały. Właściwie mamy szczęście, że kryzys nadszedł wcześniej, niż później. Im dłużej złe praktyki rozprzestrzeniały się geograficznie i psychologicznie (zakorzeniając się w ludzkiej świadomości i sposobie percepcji) tym upadek byłby boleśniejszy.

      Pęcznienie bańki zaczęło się wtedy, gdy znaczna część kapitalistów uznała, że zarabianie to czynność prosta, powtarzalna i schematyczna. Bardzo ciekawie o tym mechanizmie pisał przeszło 100 lat temu o tym zjawisku Thorstein Veblen w swojej Teorii klasy próżniaczej:  

      Brzmi to może trochę zbyt podobnie do wspominanych na początku tego rozdziału publikacji piętnujących „chciwość bankierów”. Słowa Veblena jednak zaskakująco trafnie opisują istotę kryzysu neoliberalizmu, który niektórzy tak ochoczo nazywają kryzysem kapitalizmu. Zarzut przesunięcia ciężaru działań przedsiębiorców z procesów produkcyjnych do procesów pieniężnych trzeba postawić jednak nie teoretykom, naukowcom, lecz praktykom życia gospodarczego – politykom i prywatnym przedsiębiorcom-finansistom. Tak, jest to krytyka kapitalizmu, ale kapitalizmu reglamentowanego, kierowanego według zasad wytyczonych przez polityków i wielki kapitał. Nie należy więc wyciągać pochopnych wniosków, że kryzys musi spowodować załamanie się wiary w wolny rynek, indywidualizm jednostki i siły niewidzialnej ręki.

      Przyczyny kryzysu są rozległe, zbyt szerokie, aby je tutaj opisywać. Zresztą, co trzeba niestety przyznać, brakuje nam wiedzy, aby podjąć się tego działania. Myślę jednak, że pouczającym przykładem jak skomplikowane, zbyt ryzykowne produkty finansowe wraz z lekkomyślnym zachowaniem polityków i finansistów negatywnie oddziaływały na zdrową tkankę gospodarki może być poniższa historia Poucza ona, jak ważne jest zachowanie czujności i jak błędy popełnione wiele lat temu (co przy obecnym tempie życia gospodarczego wydaje się być szczególnie istotne) mszczą się później z niebywałą siłą.

      Jest rok 1938. Najpoważniejsze objawy Great Depression zostały już opanowane i zaczęto rozglądać się za stworzeniem podstaw do rozwoju gospodarki, która wciąż leczyła rany po kryzysie. W kręgach administracji Franklina Delano Roosevelta zrodził się pomysł powołania instytucji finansowej odpowiedzialnej za udzielanie korzystnych dla konsumentów kredytów hipotecznych. Bankom komercyjnym nie bardzo się to opłacało, gdyż podstawy egzystencji wielu rodzin były wciąż bardzo płynne a ryzyko utraty kredytów przez banki wysokie. Stworzono więc państwowe Federalne Narodowe Stowarzyszenie Kredytów Hipotecznych26, którego zadaniem było udzielanie tanich kredytów hipotecznych dostępnych dla każdego przeciętnego Amerykanina. FNMA nie miała przynosić potężnych dochodów, lecz poprawiać życie Amerykanom. Tak się jednak złożyło, że powojenny boom gospodarczy obejmujący również budownictwo, pozwolił Fannie Mae zdobyć pozycję dobrze prosperującej, rozwijającej się firmy z obiecującymi perspektywami na przyszłość. Stała się na tyle atrakcyjna, że gorączkowo potrzebująca gotówki na prowadzenie wojny w Wietnamie administracja Lyndona B. Johnsona sprywatyzowała tę firmę. Tym samym rząd USA przestał gwarantować papiery wartościowe tworzone przez Fannie Mae. Utworzono nowe agencje: Ginnie Mae, czyli Government National Mortgage Association oraz dwa lata później Freddie Mac – Federal Home Loan Mortgage Corporation, które przejęły część funkcji Fannie Mae, ale które nigdy nie zdobyły jej pozycji rynkowej.

      Mechanizm działania tych instytucji jest bardzo podobny. Polega na minimalizowaniu ryzyka udzielania łatwych kredytów mieszkaniowych poprzez łączenie wielu pojedynczych pożyczek w pakiety, przekształcane później w papiery wartościowe, sprzedawane instytucjom finansowym na całym świecie. Papiery tego typu cieszyły się ogromną popularnością, bo były gwarantowane przez rząd USA, oficjalnie do czasu prywatyzacji Fannie Mae i Fredzie Mac, a nieoficjalnie po ich sprzedaży. Dla wszystkich było jasne, że rządowi USA bardzo zależy na polityce taniego kredytu mieszkaniowego i dobrej kondycji banków o których tu mowa. Na marginesie dodajmy, że de facto zostało to potwierdzone 7 września 2008 roku kiedy rząd ponownie przejął nad nimi kontrolę, aby nie dopuścić do ich upadku.

      Wszystko to wygląda już nieco podejrzanie. Jak to bowiem możliwe, że na pozornie mało wartościowych papierach, (niskooprocentowanych pożyczkach obciążonych dużym ryzykiem) tyle firm i ludzi robiło tak świetny interes? Jednak to dopiero początek kryzysowej układanki. 

      Kolejnym przystankiem w naszej krótkiej podróży przez historię kredytu hipotecznego w USA jest rok 1977 i ustawa Community Reinvestment Act. Zmuszała ona niejako banki i ubezpieczycieli do udzielania kredytów mieszkaniowych osobom bez faktycznej zdolności kredytowej27. Miało to zapewnić dostęp do kapitału dla ludności najbiedniejszej, przede wszystkim dyskryminowanej ludności murzyńskiej i latynoamerykańskiej. Dla prywatnych banków i firm ubezpieczeniowych takie pożyczki to żaden interes – mogły one również łączyć je w pakiety, i robiły to bardzo chętnie, ale nie korzystały już z rządowych gwarancji, ciężko było im więc znaleźć na nich nabywców. Kolejna uwaga na marginesie – jak to możliwe, że rynek papierów wartościowych opartych na opisywanych kredytach hipotecznych rozwinął się tak bujnie, skoro praktycznie każdy chciał się ich jak najszybciej pozbyć?

      Odpowiedzi należy szukać w mechanizmie przekształcania bezwartościowych papierów w atrakcyjne aktywa. Z pustego i Salomon nie naleje –  ale międzynarodowy system finansowy to nie dwa naczynia, ale gigantyczna i poplątana sieć wzajemnych zależności. Tutaj mogą dziać się takie cuda, bo informacja jest rozproszona, dostęp do niej asymetryczny, a tempo życia gospodarczego i wiara w możliwość nieustannego, dynamicznego bogacenia się też zrobiły swoje.

      Olbrzymia rolę odegrały firmy ratingowe. Moody’s, Fitch czy Standard&Poor’s uwzględniając fakt gwarancji rządowych dla bed debts, wystawiały im najwyższe możliwe oceny. Pakiet bezwartościowych, wręcz szkodliwych pożyczek dla osób z najwyżej wątpliwą zdolnością kredytową otrzymywał ocenę AAA. Bo przecież USA nie zbankrutują. W ten sposób banki na całym świecie kupowały kota w worku. Wiele strategii inwestycyjnych jest obecnie realizowana za pomocą komputerowych algorytmów, w których oceny agencji ratingowych graja dużą rolą. Przykładowo, jeśli pewien bank inwestycyjny założył, że 20% jego portfela będą zawierały aktywa ryzykowne, kolejne 20% bezpieczne, a reszta – 60% mieszane, to 20% inwestował w jawnie ryzykowne papiery, na przykład jednostki uczestnictwa funduszy typu hedge, kolejne 20% zaś w pozornie bezpieczne, bo ocenione na AAA, ryzykowne papiery oparte na złych kredytach emitowane przez instytucje typu Fannie Mae.  

2. Pęknięcie 

      Dość powszechne jest przekonanie, że bańka spekulacyjna musi prędzej czy później pęknąć. Nie jest to prawdą – równie dobrze może po prostu przestać pęcznieć i stopniowo zacząć się kurczyć. Dlaczego tak się nie stało? Podobne pytanie można by zadać Napoleonowi Bonaparte lub Hitlerowi: dlaczego zaatakowali Rosję, kiedy mieli już pod władzą całą Europę? Dlaczego Aleksander Wielki ruszył na Indie? Nie wiedzieli, kiedy przestać.

      W przypadku spekulacyjnych baniek mechanizm psychologiczny jest identyczny, choć rzeczywistość bardziej złożona, a więc ryzyko jest jeszcze trudniejsze do zidentyfikowania. Cóż, prawdą jest, że lepiej gdy ludzie walczą ze sobą na wysokość sumy na koncie w banku niż gdy rywalizują ogniem i mieczem. Skutki tej walki, choć może nie tak bolesne, mogą być jednak równie doniosłe. I jest to coraz bardziej sprawa globalna.

      Kiedy nastąpiło pęknięcie? Wbrew nazwie nie możemy oczekiwać wyznaczenia konkretnej daty. Już w 2006 roku znaczące spadki cen nieruchomości w USA zwiększyły czujność bardziej uważnych obserwatorów życia ekonomicznego. Wówczas nie było jednak mowy o kryzysie, a wahania cen w nawet największych i najważniejszych gałęziach gospodarki nie powinny wywoływać u nikogo paniki – ot zwykła korekta, realizacja zysków. Bardziej alarmujące wieści zaczęły docierać w przeciągu roku 2007. To wtedy okazało się że duża część papierów wartościowych stworzonych w oparciu o bad debts28 z sektora kredytów hipotecznych stała się bezwartościowa. Wtedy jeszcze nie zdawano sobie sprawy, jak głęboko tego typu papiery przeniknęły do systemu bankowego i jak wiele instytucji finansowych jest nimi „zarażonych”. Byliśmy świadkami bankructwa lub poważnych problemów kilku funduszy, których strategie inwestycyjne opierały się na rynku łatwych kredytów mieszkaniowych i hipotecznych29. Z czasem problemy te rozszerzyły się na większe instytucje finansowe, które również miały w swoich aktywach wiele „toksycznych papierów” opartych na bad debts. Ostatni kwartał 2007 i pierwszy kwartał 2008 roku przyniosły straty największych banków inwestycyjnych w USA – Citygroup, Merrill Lych, Goldman Sachs czy Lehman Brothers. Dla przykładu Citigroup – największy ze wszystkich bank stracił odpowiednio 9,8 mld i 5,11 miliardów dolarów, rozpoczął realizacje planu zwolnień ponad 13 tysięcy pracowników oraz ogłosił odpisy z tytułu strat na kwotę 12 miliardów dolarów 30. Dokapitalizowanie tych banków sumą kilkudziesięciu miliardów dolarów31 było oczywiście tylko odsunięciem katastrofy, choć rynek zdawał się uporczywie odsuwać od siebie tą myśl. Zresztą znamienny jest fakt, że po ogłoszeniu wyników za I kwartał 2008 akcje Citigroup na nowojorskim parkiecie znacznie wzrosły, pociągając za sobą zwyżki całego sektora finansowego. Inwestorzy byli przekonani, że najgorsze już za nimi. Zresztą formułka ta („najgorsze za nami”) będzie powtarzana co kilka tygodni, aż do dnia dzisiejszego.

      Jak wiemy, okazało się, że najgorsze było dopiero przed nimi. Kulminacyjnym momentem kryzysu i nieźle nadającą się na symbol datą  był oczywiście 15 września 2008 – dzień upadku Lehman Brothers. Wydaje się jednak, że jeszcze istotniejsze było przejęcie Freddie Mac i Fannie Mae przez skarb USA, co zapoczątkowało tendencję do nacjonalizowania przez państwo wielkich instytucji finansowych w celu zapobiegnięcia efektu domina, jaki pociągnęłoby za sobą bankructwo wielkich banków inwestycyjnych lub instytucji ubezpieczeniowych. To dlatego przeznaczono astronomiczną kwotę 85 miliardów dolarów na ratowanie, poprzez dokapitalizowanie, AIG – największego ubezpieczyciela na świecie. Oznaczało to praktyczne upaństwowienie tej spółki. 
 
 

3. Kryzys zaufania 

      Fakt, że kryzys rozpoczął się i zogniskował w jednym z najważniejszych sektorów gospodarki – finansach, ma doniosłe znaczenie dla jego postępów. Sektor finansowy jest bowiem bardzo istotną podporą  współczesnych gospodarek usługowych i wytwarza niemałą część ich PKB. Najbardziej dotkliwie odczuły to „bankowe” państwa bałtyckie, w których większość inwestycji zagranicznych opartych było na kapitale nordyckich i niemieckich banków inwestycyjnych lokowanym w usługach, przede wszystkim finansowych32. Jednak jeszcze ważniejsze, bo globalne konsekwencje, ma inna rola sektora finansowego. W każdym kraju i każdej gospodarce pełni on funkcje pośrednika, transferuje kapitał od gospodarstw domowych do przedsiębiorstw i odwrotnie. Przekształca oszczędności prywatne w kredyty inwestycyjne i konsumpcyjne. Nic więc dziwnego, że gdy sektor finansowy kicha, to cała gospodarka dostaje kataru. A jeśli wygląda to na poważną infekcję, to może zamiast kataru pojawi się grypa albo nawet zapalenie płuc…

      Infekcja wywołana tak zwanymi toksycznymi papierami niewątpliwie jest poważna. Dla niektórych instytucji finansowych wirus był nawet śmiertelny – stąd określenia ratowania Fannie Mae, Freddie Mac czy AIG mianem „reanimacji trupa”. Wystarczy wspomnieć przykład Lehman Brothers. Ale przecież nie wszyscy byli nim zarażeni, w każdym razie nie w tak wysokim stopniu. Problemy maja jednak wszyscy. I nie wystarczy tutaj przywołanie faktu postępującego wzajemnego uzależniania się firm i instytucji w zglobalizowanym świecie. Istotą kryzysu nie jest przecież załamanie na rynku kredytów sub-prime, lecz wywołana nim zapaść całego systemu finansowego. Zaatakowane zostało jego spoiwo – zaufanie.

      Nagle okazało się bowiem, że nikomu nie można ufać. Bynajmniej dlatego, że chciwi bankierzy oszukiwali siebie nawzajem. Chodzi raczej o to, że nie da się stworzyć bazy danych, systemu, który zamierałby wszystkie informacje niezbędne do oszacowania ryzyka. Banki przestały wiedzieć, komu mogą pożyczyć bez obaw, że jutro pożyczkobiorca nie stanie się niewypłacalny. Sam kredytobiorca nie może być tego pewien. Brak wiedzy – oto problem współczesnej gospodarki opartej na skomplikowanych usługach finansowych.

      Czy problem taki mogłaby rozwiązać „maszyna licząca” w rozumieniu Oskara Langego33? Raczej nie. Maszyna taka z pewnością potraktowałaby papiery ocenione na AAA jako nad wyraz bezpieczne. Inna sprawa, że nie pozwoliłaby na udzielanie kredytów sub-prime. To z kolei nie spodobałoby się amerykańskim wyborcom…

      Jak więc ten problem rozwiązać? Gdyby odpowiedź była taka prosta, to kryzysu już dawno by nie było. Fakt, że wkroczył on tak głęboko w sferę psychologiczną powoduje trudności w jego zwalczaniu. Działania podmiotów regulujących gospodarkę – państwowych instytucji mogą zmierzać do zmian szerokości strumienia przepływu kapitału, instytucji prawnych, stopnia regulacji. Jednak mizerny wpływ jaki wywarł na gospodarkę plan Paulsona dowodzi, że kryzys odcisnął piętno przede wszystkim w ludzkiej psychice. 
 
 

Rozdział  IV

Reakcja państw 

Wiele się  musi zmienić, aby wszystko pozostało po staremu

Giuseppe Tomasi di Lampedusa

 

      Można się spierać, czy kryzys jest zjawiskiem bardziej ekonomicznym, czy politycznym. Bez wątpienia najważniejsza i najbardziej ożywiona dyskusja toczy się właśnie na tych dwóch płaszczyznach. Zajmiemy się teraz reakcją polityczną państw na kryzys gospodarczy. 

1. Plan Paulsona 

      Najważniejsze decyzje dotyczące walki z kryzysem zostały podjęte oczywiście w Waszyngtonie. Były to jednocześnie decyzje najtrudniejsze, bo podejmowane w gorącej atmosferze giełdowych spadków i nieznośnie szybko upływającego czasu. Pierwszą zdecydowaną odpowiedzią Ameryki na kryzys był plan Paulsona.

      Amerykański sekretarz skarbu nie miał łatwego zadania. Również z powodów politycznych. Pierwsza wersja jego planu przepadła w Izbie Reprezentantów 29 września 2009. Wersja z poprawkami została ostatecznie uchwalona przez Senat już 1 października. Dwa dni później poprawki Senatu zostały przedstawione Izbie Reprezentantów, która zaakceptowała je. Emergency Economic Stabilization Act of 2008 został podpisany kilka godzin później przez George’a W. Busha.

      Pośpiech, z jakim przygotowano plan stabilizacyjny, choć bez wątpienia zrozumiały, nie wróżył jednak dobrze realizacji planu. Spotkał się on z ostrą krytyką ze strony polityków, ekonomistów34, obywateli35 i samego rynku36.

      Henry Paulson zdecydował, że najważniejszym zadaniem administracji rządowej jest ratowanie dużych instytucji finansowych, zarażonych toksycznymi aktywami. Olbrzymia większość z 700 miliardów dolarów, które zostały wydane według planu, została wydana na odkupienie37 od banków i ubezpieczycieli złych długów, generujących gigantyczne straty księgowe i ekonomiczne38. Miało to na celu odciągnięcie zakażonych aktywów z rynku i przywrócenie tym samym obrotu „zdrowymi” papierami. Innymi słowy – poprawić drożność na rynku międzybankowym oraz odbudować zaufanie inwestorów poprzez podniesienie rynkowej wartości spółek giełdowych. W niektórych przypadkach zastrzyki gotówki miały ratować przed bankructwem. Tak było w przypadku największego ubezpieczyciela świata – AIG – którego ratowanie pochłonęło równowartość około 1/6 rocznego PKB Polski.

      Co by się stało, gdyby bailout nie został przeprowadzony? Z pewnością mielibyśmy więcej bankructw niż tylko upadek Lehman Brothers czy Washington Mutual. Dalszą tego konsekwencją byłoby całkowite rozchwianie systemu finansowego. Ciekawy jest przy tym argument, że taki bieg wypadków mógłby okazać się całkiem korzystny dla światowej gospodarki. Bankructwa pełniłyby funkcję oczyszczającą – pozostawiłyby na rynku tylko te firmy, które przestrzegały zasad rozsądnego podejścia do inwestycji i dobrze zarządzały ryzykiem. Jednocześnie ukarałyby zbyt lekkomyślnych i mało kompetentnych bankierów. Po pewnym czasie, który ciężko byłoby jednak nawet w przybliżeniu podać, gospodarka wróciłaby do normy, powstałyby nowe, „zdrowe” instytucje finansowe, które więcej nie popełniałyby błędów przeszłości. Można z tym argumentem polemizować, wskazując na możliwość oligopolizacji sektora finansowego przez kilku gigantów, co z pewnością przełożyłoby się negatywnie na sytuację konsumentów. Upadki firm pociągnęłyby wzrost bezrobocia. Co więcej moment „powrotu do równowagi” całkiem prawdopodobnie byłby mocno oddalony w czasie. Dyskusja taka byłaby z pewnością bardzo ciekawa, ale równie przydatna dla analizy planu Paulsona, co rozmowa o wczorajszej pogodzie. Pozostawienie sektora finansowego „niewidzialnej ręce” byłoby, krótko mówiąc, politycznym seppuku dla administracji Busha.

      Pozostaje jednak pytanie, jak inaczej, bardziej efektywnie, można było wykorzystać niebagatelną sumę 700 miliardów dolarów? Z pewnością priorytetem była koordynacja działań skarbu USA z innymi państwami. Dofinansowanie amerykańskich banków względnie pogarsza sytuację banków zagranicznych. Wyzwanie to przecież udrożnienie światowego systemu finansowego, a nie tylko amerykańskiego, jakkolwiek dziwnie to nie zabrzmi, lokalnego rynku. Tymczasem pierwsze pieniądze wydane w ramach planu trafiły tylko i wyłącznie do amerykańskich instytucji finansowych. To z kolei spotęgowało problemy takich banków jak holendersko-belgijski Fortis Bank, niemiecki Hypo Real Estate czy brytyjski Bradford & Bingley.

      Łatwo powiedzieć, trudniej zrobić. Obecnie istniejące multilateralne organizacje międzynarodowe nie posiadały instrumentów umożliwiających skoordynowaną akcję antykryzysową. Co więcej, w sytuacjach zagrożenia odradza się narodowy partykularyzm i państwowe interesy, co dodatkowo utrudnia skuteczne porozumienie. Stworzenie międzynarodowych mechanizmów obrony w sytuacjach kryzysowych to jedno z najpoważniejszych zadań jakie stawiają przed politykami obecne wydarzenia.

      Z pewnością mógł jednak Henry Paulson porzucić wątek skupowania toksycznych aktywów na rzecz bezpośredniej kapitalizacji spółek39. Zwiększając kapitał zakładowy rząd zwiększałby wartość rynkową instytucji i dawał jej do ręki tak niezbędną do pobudzenia rynku międzybankowego gotówkę. Zniknąłby problem z szacowaniem wartości toksycznych papierów40, co przyspieszyłoby realizację planu Paulsona. Kolejnym zarzutem wysuwanym przeciwko byłemu już sekretarzowi skarbu był fakt, że jego plan nie dotyka najgłębszych przyczyn kryzysu, czyli patologicznego systemu ubezpieczeń i kredytów hipotecznych. Nie prowadzi również do zmiany złych praktyk instytucji finansowych. Rzuca zbyt łatwe koło ratunkowe dla tych którzy popełniali obciążane wysokim ryzykiem błędy. To nie tylko „niepedagogiczne” działania, to przede wszystkim pomoc na bardzo krótką metę.

      Ciężko oszacować, jakie efekty przyniósł Emergency Economic Stabilization Act of 2008 i czy był warty kwoty 700 miliardów dolarów. Sam fakt, że był potrzebny, nawiasem mówiąc jeszcze droższy, plan Obamy, wskazuje, że Paulson nie zrobił wszystkiego aby reanimować amerykańską gospodarkę. Ocena jego działań nie jest jednak celem niniejszej pracy. Nas interesuje fakt, że automatycznym niemal krokiem rządu, i to rządu uznawanego powszechnie za „neoliberalny” była zakrojona na szeroką skalę nacjonalizacja i interwencjonizm. Nikt ze znaczących i posiadających realną władzę polityków nie zdecydował się na zanegowanie potrzeby wydawania miliardów dolarów przez rząd, choć oczywiście wszyscy doskonale zdają sobie sprawę, jakie niebezpieczeństwo inflacyjne niosą one za sobą. Nie wspominając już nawet o rosnącym zadłużeniu publicznym Stanów Zjednoczonych, sięgającemu dziś niebotycznych wręcz rozmiarów41. Do dziś, wiele miesięcy od początku kryzysu, nie przedstawiono planów uzdrowienia systemu finansowego. O ile ekonomiści powinni nauczyć się przewidywać kryzys, to politycy muszą stworzyć instrumenty zabezpieczania przed nim i szybkiego reagowania w razie jego wystąpienia. Przede wszystkim zaś rozpocząć legislacyjną ofensywę zmierzającą do ograniczenia złych praktyk i patologicznego systemu. Mówiąc najkrócej – chodzi o tworzenie i doskonalenie instytucji. 

2. Plan Obamy 

      Nowy plan antykryzysowy, przygotowany już przez administrację  prezydenta Obamy i nazwany przez to planem Obamy, ma już zasadniczo inny charakter niż plan Paulsona. Błędnie więc określa się  go mianem jego kontynuacji czy uzupełnienia.

      The American Recovery and Reinvestment Act of 2009 to przede wszystkim program stymulacyjny. Ma on na celu pobudzenie gospodarki jako całości, nie ratowanie poszczególnych firm. Na jego określenie często stosuje się termin New New Deal co trafnie podkreśla analogie z przedwojennym planem Roosevelta. W obu przypadkach widzimy klasyczny keynesizm – próba zwiększenia mnożnika keynesowskiego poprzez pobudzenie konsumpcji (stąd cięcia podatkowe) i intensywne inwestycje bezpośrednie w różnych sektorach gospodarki, które maja podnieść produkcję. Plan warty jest jeszcze więcej, niż program Paulsona – po cięciach dokonanych przez Izbę Reprezentantów i Senat42 – 787 miliardów dolarów. 1/3 tej sumy ma być przeznaczona na obniżki podatków. Pozostałe 2/3 to inwestycje rządowe, przede wszystkim w sektorze służby zdrowia (147,7 mld USD), edukacji (91 miliardów USD), infrastruktury (51,2 mld USD). Socjalne programy pomocowe dla najbiedniejszych pochłoną około 82,5 mld USD43. Obama chce też dofinansować energetykę (61,3 mld dolarów) oraz naukę i technologię (8,9 mld)44. Ocena merytoryczna planu Obamy sprowadza się właściwie do analizy keynesowskiej teorii rozwoju i dyskusji nad jej zasadnością, czego w tej pracy robić nie potrzebujemy. Zwróćmy jednak uwagę, że propozycje przedstawione przez administracje Obamy są rażąco wręcz klasyczne, mało innowacyjne. Świadczy to o tym, że zespół świetnych przecież ekspertów ekonomicznych skupionych w obozie Obamy nie miał pomysłu na przezwyciężenie kryzysu i sięgnął po prostu po sprawdzone przez historię rozwiązania. Jeszcze raz powtórzmy więc, że świat ekonomiczny nie był na kryzys przygotowany

      Jest jeszcze za wcześnie, aby oceniać skutki pakietu stymulacyjnego prezydenta Obamy. Z pewnością jednak można podnieść przeciwko niemu podobny zarzut, jaki wysunęliśmy wobec planu Paulsona. Polega on na dość chaotycznym wydawaniu pieniędzy, których wcale rządowi USA nie zbywa, nie ma w nim natomiast próby refleksji nad panującym systemem prawnych sankcjonującym złe praktyki w świecie finansowym. Na razie, choć przecież kryzys jeszcze się nie skończył, można zaryzykować stwierdzenie, że amerykańska elita polityczna nie jest zainteresowana w zmianie praktyk opisanych w rozdziale III.  
 

3. Reszta świata 

      Wypada jeszcze wspomnieć o działaniach, jakie przeciwko kryzysowi podjęły inne państwa świata. Ciekawe są tutaj przede wszystkim rozwiązania europejskie oraz chiński pakiet stymulacyjny.

      Najbardziej spektakularną interwencją w europejski system finansowy było koło ratunkowe rzucone przez Belgię, Holandię i Luksemburg bankowi Fortis. Interwencja była spowodowana gwałtownym spadkiem wartości akcji Fortisu, kiedy pojawiły się pogłoski, że bank ma problemy z płynnością finansową. Mimo powszechnych komentarzy, że Europa podąża śladami USA i stosuje podobny mechanizm do ratowania zagrożonych instytucji finansowych, akcja krajów Beneluksu istotnie różniła się od działań rządu USA. Belgia, Holandia i Luksemburg też wydały spore pieniądze45. Nie przeznaczyły ich jednak na wykup toksycznych aktywów. Postąpiły one tak, jak radził Paulsonowi Soros – dokapitalizowały Fortis kupując od niego akcje – w każdym z trzech przypadków po 49% papierów krajowych oddziałów. Pomoc została też obwarowana specjalnymi warunkami – między innymi nakazem sprzedaży akcji banku ABM Amro za 10 miliardów euro46. Na podkreślenie i pochwałę zasługuje fakt, że uratowanie Fortisu nastąpiło na poziomie międzynarodowym, przy porozumieniu trzech odrębnych państw.

      Jeszcze inaczej wyglądało ratowanie Hypo Real Estate. Niemieckie gigantyczne konsorcjum banków działających w sektorze nieruchomości bardzo szybko zaczęło mieć problemy z płynnością. HRE i jej spółki-córki nie stroniło od udzielania kredytów sub-prime. Po kilkudniowych negocjacjach wielostronnych, do których rząd Niemiec zaprosił prywatnych inwestorów, udało się uzgodnić plan ratunkowy. W założeniu miał on w jak najmniejszym stopniu obciążyć niemieckich podatników. Bundesbank, bank centralny Niemiec, przekazał 20 mld euro kredytu, inwestorzy prywatni zgodzili się wyłożyć 30 mld euro, a rząd niemiecki udzielił gwarancji na 26,5 mld euro. W ten sposób budżet federalny nadmiernie nie ucierpiał a ryzyko ratowania kredytowego giganta zostało rozproszone.

      Doniosłe konsekwencje dla historii kryzysu mają działania rządu chińskiego. Nie tylko dlatego, że Chiny to dziś jeden z najważniejszych elementów światowej układanki gospodarczej. Również dlatego, że w tym kraju, jako pierwszym, stymulacja rządowa przyniosła namacalne efekty. W listopadzie 2008 roku rząd Chin przedstawił plan stymulacyjny wartości 4 bilionów juanów (586 mld dolarów). Porównując go z planami administracji rządowej USA, bliżej mu do planu Obamy – głównym jego celem jest ożywienie konsumpcji i ratowanie przyrostu PKB wskutek inwestycji bezpośrednich. Jako kluczowe wskazano inwestycje infrastrukturalne – budowy i remonty dróg, lotnisk, inwestycji komunikacyjnych. Druga część planu polega na programie tanich i łatwo dostępnych pożyczek dla przedsiębiorców47.

      Przemysł  Chin48 nie doznał bezpośrednich obrażeń wskutek kryzysu finansowego. Jego problemem był drastyczny spadek popytu zewnętrznego. Chiński pakiet stymulacyjny  został więc zorientowany na zmniejszenie wagi eksportu na rzecz popytu wewnętrznego49. Zaletą tego rozwiązania jest jego dalekowzroczność – Chiny muszą się uporać z uzależnieniem jakie łączy ich wzrost gospodarczy z popytem na chińskie produkty na całym świecie.

      Warto też zauważyć, że na walkę z kryzysem, w przeciwieństwie do państw zachodnich, Chiny nie musiały pożyczać. Co więcej, pakiet stymulacyjny nie uszczuplił znacznie rezerw zgromadzonych w Ludowym Banku Chin. W jego sejfie znajduje się wciąż 1100 ton złota (30 mld dolarów) a w aktywach zagranicznych (głównie papierach dłużnych państw) gigantyczna kwota 1,95 biliona dolarów, w tym 1,2 biliona ulokowana w amerykańskich obligacjach.

      Chiński pakiet stymulacyjny zaczął też bardzo szybko działać. O ile w IV kwartale 2008 roku chińska gospodarka zwiększyła się zaledwie o 6,8% rok do roku (w 2007 roku wzrost wyniósł 13%), w pierwszym kwartale roku 2009 o 6,1%, to już w II kwartale wzrost wyniósł przyzwoite 7,9%. Chińczycy oczekują wzrostu o 8% w całym 2009 roku. Chcą to osiągnąć przez kontynuowanie rządowej stymulacji gospodarki. Rozsądnie brzmią słowa premiera Wen Jiabao, który mówi:  

      Te słowa rozwagi pozytywnie kontrastują z przekonaniem prezydenta Obamy, który zaraz po tym, jak stopa bezrobocia spadła o 0,1 punktu procentowego51 mówił o „początku końca recesji”. 
 
 
 

Rozdział  V

Reakcja ekonomistów 

      Jeśli mędrcy zawodzą, to nie znaczy, że głupcy zbawią  świat.

Jan Czarny 

      Trudno opisać na kilku stronach reakcję czołowych ekonomistów  świata na kryzys gospodarczy. Praktycznie każdy z nich ma własny, interesujący i znaczący punkt widzenia. Opisanie i omówienie choćby kilku z nich byłoby zajęciem pracochłonnym i, jak się wydaje, mało przydatnym dla niniejszej pracy. Znacznie bardziej interesujące wydaje się dostrzeżenie pewnych cech wspólnych łączących ekonomistów w ich refleksjach na temat kryzysu.

      Najbardziej charakterystyczne wydaje się jeszcze wyraźniejsze uwypuklenie zasadniczych różnic dzielących ekonomistów. I tak – zwolennicy interwencjonizmu państwowego bardzo chętnie przypisują winę za kryzys zbytniej deregulacji i swobodzie, jaką cieszyły się wielkie instytucje finansowe w prowadzeniu swojej polityki kredytowej i finansowej. Z kolei wolnorynkowcy skłonni są uważać, że kryzys to skutek odejścia od wolnorynkowych ideałów i zbytniej ingerencji państwa i instytucji regulujących w gospodarkę.

      Dobrym przykładem mogą być tutaj polityka niskich stóp procentowych prowadzona przez System Rezerwy Federalnej USA (FED). Od maja 2000 roku Rezerwa Federalna rozluźniała politykę monetarną, wskutek czego główna stopa procentowa USA – stopa funduszy federalnych spadła do zaledwie 1% w 2002 roku. Później zaczęła rosnąć, na początku 2007 roku wynosiła 5,25%. W odpowiedzi na problemy na rynku nieruchomości, począwszy od sierpnia 2007 roku znów zaczęła jednak gwałtownie spadać. W grudniu 2008 roku FED obniżył ją do nieprawdopodobnego wręcz poziomu 0-0,25%52.  Realna stopa procentowa53 znalazła się więc poniżej zera. Ostrej krytyce został poddany cykl rozluźniający politykę monetarną w latach 2000-2002, kiedy nastąpił najbardziej gwałtowny wzrost koniunktury na rynku nieruchomości54. Okazuje się jednak że ten sam fakt był przedmiotem ataku ze strony zwolenników interwencjonizmu, jak i propagatorów wolnego rynku. Ci pierwsi uważali, że zerowe, czy nawet ujemne stopy procentowe były ukłonem w stronę banków komercyjnych, a więc prywatnych, i dobrowolnym pozbawieniem państwa narzędzi polityki monetarnej. Tymczasem ci drudzy uważali, że sztuczne utrzymywanie stóp na tak niskim poziomie było niczym innym jak ingerencją w siły wolnorynkowe –gdyby nie działania FED niewidzialna ręka rynku ustanowiłaby stopy wyższe, a więc bardziej bezpieczne.

      Ten prosty przykład pokazuje, jak bardzo ekonomiści bronią się  przed zmianą myślenia. Wstrząs, jakim był kryzys, był dla nich szokiem, ale reakcje na niego są jak najbardziej „przedkryzysowe”. Spór jest toczony przy użyciu takich samych argumentów.

      Pewien wyłom w tym schemacie uczynił wieloletni przewodniczący FED Alan Greenspan. W połowie października 2008 roku został on przesłuchany przez komisję Izby Reprezentantów USA w sprawie kryzysu. To właśnie Greenspan kierował Rezerwą Federalną podczas rozluźniania polityki monetarnej. Przesłuchanie to, nazwane przez media „spowiedzią Greenspana”, stało się symbolem „końca neoliberalizmu” który ochoczo obwołała lewicowa prasa światowa. W istocie Greenspan, który przez wiele lat był ikoną wolnorynkowej polityki gospodarczej, przyznał podczas przesłuchania, że kryzys zachwiał jego wiarą w rynek i uczynił „dziury” w jego ideologii. Powiedział między innymi: 

      Ten kryzys okazał się większy, niż  mogłem to sobie wyobrazić. Jak pisałem w marcu, ci z nas, którzy oczekiwali od banków dbania o interesy własne i swoich akcjonariuszy, w tym zwłaszcza ja, są w stanie niedowierzania i szoku. Biorąc pod uwagę ostatnie straty finansowe, nie wiem, jak możemy uniknąć znaczącego wzrostu liczby zwolnień i bezrobocia. (…)

      Pracowałem w banku centralnym i bankach prywatnych dziesiątki lat. I zawsze ludzie udzielający kredytów wiedzieli wiele więcej o ryzyku oraz o tych, którym kredytu udzielają, niż nawet najlepsi urzędnicy Fed. W tym właśnie tkwi mój problem: coś, co wydawało się fundamentem systemu rynkowego, nawaliło. I to naprawdę był dla mnie szok. Wciąż nie do końca rozumiem, dlaczego tak się stało. I nie wykluczam, że gdy poznam, jak do tego wszystkiego doszło, zmienię swoje poglądy. (…)

      Każdy ma jakąś ideologię. Musi mieć. Pytanie tylko, czy ta ideologia przystaje do rzeczywistości. Przyznaję  dzisiaj: tak, odkryłem dziurę w mojej ideologii. Nie wiem jeszcze, jak jest ona duża i trwała, ale czuję się z tym fatalnie. (…) Odkryłem błąd w modelu, który uważałem za kluczowy w opisie tego, jak funkcjonuje świat.

     Na pytanie: Czyli odkrył pan, że pana poglądy, ideologia okazały się błędne? Że nie sprawdzają się? Odpowiedział: Dokładnie tak. I to jest właśnie powód tego, że byłem tak zdruzgotany. Bo przez 40 lat albo dłużej byłem przekonany, że działają wyjątkowo dobrze.55 

      Brzmi to rzeczywiście dramatycznie. Nie ma jednak sensu wtrącać się w tym momencie w dyskusję o „śmierci kapitalizmu”, jako sporu raczej medialnego niż naukowego. W słowach tych najważniejsze jest potwierdzenie, jak bardzo kryzys zaskoczył świat ekonomii. System Rezerwy Federalnej USA posiada bodaj najlepszy zespół analityków na świecie – zatrudnia prawie pół tysiąca wybitnych specjalistów. Prawdopodobnie posiadał on dane, które wskazywały na zbliżający się kryzys na rynku nieruchomości. Faktem jest jednak to, że FED nie docenił wagi zbliżającej się korekty. Greenspan i jego zespół nie miał zbyt mało informacji opisujących aktualną rzeczywistość. Oni po prostu nie potrafili poprawnie opisać przyszłości.

      Znów powraca problem ryzyka i możliwości jego kwantyfikowania. Nie wiemy, tak jak nie wiedział tego Greenspan, jaki wpływ na całość gospodarki ma rynek nieruchomości. Nie wiemy, co oznacza dla gospodarki 20%-owy spadek cen domów. Możemy powiedzieć, że drożność sektora finansowego ma „wielkie” albo „ogromne” znaczenie dla funkcjonowania pozostałych sektorów. Możemy tez przypuszczać, że spadek cen oscypka w Zakopanem ma „znikomy” wpływ na sytuacje rolnictwa w Polsce. Ale co oznaczają słowa „wielkie” lub „znikome” w języku nauki? Podane tu skrajne przypadki nie zdarzają się często. Zazwyczaj pewien sektor, branża, gałąź ma „spory”, „duży” lub „znaczący” udział w funkcjonowaniu gospodarki. Niektóre mogą też na przykład „wytwarzać 20% PKB danego kraju”. Ale co oznacza, powiedzmy, 20%-owy spadek obrotów w tej hipotetycznej gałęzi? To, że z pewnym prawdopodobieństwem, może to spowodować pewne ryzyko wystąpienia pewnych zaburzeń w innych gałęziach. Zbyt dużo niewiadomych, w dodatku trudno definiowalnych. A gdzie jeszcze uwzględnić ludzką psychikę, która jest obecna w każdej transakcji zawieranej na rynku?

      Greenspan wierzył, że każde zaburzenie, choć może na pewien czas wprowadzić zamieszanie na poziomie gospodarki, zostanie szybko i w miarę możliwości bezboleśnie zdławione, głównie przy pomocy sił rynkowych. Kryzys zachwiał wiarę w tą ideologię, gdyż w październiku 2008 roku nikt nie miał pojęcia kiedy gospodarka światowa wróci do normy. Nikt nie mógł się też spodziewać, że nawet tak duża anomalia, jaka zdarzyła się na rynku nieruchomości w USA okaże się tak niebezpieczna, że powstrzymanie wywołanego przez nią kryzysu będzie kosztowało rząd amerykański kilka bilionów dolarów, a na przykład Ukrainę czy Łotwę utratę piątej części PKB w przeciągu roku. Gdyby zespół FED choćby dopuszczał taką możliwość, to przedsięwziąłby kroki przedziwdziałające pęcznieniu bańki nieruchomościowe…

      Co to znaczy przewidzieć kryzys? Zajrzyjmy na chwile na nasze polskie podwórko. Dwukrotny minister finansów i wicepremier, profesor Grzegorz Kołodko chwali się, że przewidział kryzys. Powiedział dla „Gazety Finansowej”:  

     To tylko impuls, lont, który odpalił całą zakumulowaną już wcześniej masę krytyczną wybuchu kryzysu. Jeśli nie byłoby tąpnięcia na rynku subprime, to kryzys zapoczątkowałby jakiś inny impuls.(…) Kapitalizm trzeba budować na przedsiębiorczości, a nie na interesach spekulantów. 

      Można się zgodzić z tą wypowiedzią. Świadczy ona jednak o tym, że „przewidzenie” kryzysu równało się  potępieniu złych praktyk neoliberalnej finansjery. To nie o takie przewidywanie nam chodzi. Ekonomia musi nauczyć się precyzyjnie wskazywać zagrożenia, definiować je i w miarę szybko eliminować. Przewidywanie, że w bliżej nieokreślonym czasie, bliżej nieokreślony czynnik wywoła bliżej nieokreślony kryzys jest jak przepowiednia wróżki o zbliżającej się „wielkiej podróży”.

      To dlatego rzadko słyszymy, aby ekonomiści chwalili się przewidzeniem kryzysu. Znacznie powszechniejsza jest postawa samokrytyki. 

      Wszyscy zdawali się wykonywać swą  pracę jak należało. Nie zauważono, że po kolei tworzyła się seria zdarzeń  pozbawionych równowagi, połączonych ze sobą, nad którymi żadna władza nie miała nadzoru.

      (…) niepowodzenie w przewidzeniu chwili, zasięgu i powagi kryzysu oraz niepowodzenie w zapobieżeniu temu zjawisku (…) miały  źródło przede wszystkim w braku wyobraźni wielu sławnych osób, zarówno w kraju jak i na poziomie międzynarodowym, co do możliwości zrozumienia ryzyka systemu dotkniętego w skali globalnej.56 

      To fragmenty listu profesorów Londol School of Economics zaadresowanego do królowej brytyjskiej Elżbiety II. Co ważne, pochodzi on z lipca 2009 roku, a więc już rok po najsilniejszych objawach kryzysu. Tyle czasu nie pozwoliło jednak ekonomistom zapomnieć, jak wielkim zaskoczeniem był dla nich kryzys.

      Zastanawiający jest fakt, że ekonomiści bardzo rzadko podejmują próby zdefiniowania wytycznych polityki gospodarczej w najbliższych miesiącach i latach. Ograniczają się zwykle do recenzowania, często krytycznego, posunięć polityków. Nie proponują zwykle niczego w zamian. Bailout Paulsona spotkał się z niemal jednogłośną krytyką środowiska akademickiego. 24 września do Kongresu został wysłany list potępiający plan Paulsona i wzywający do jego odrzucenia. Oto jego fragmenty: 

      As economists, we want to express to Congress our great concern for the plan proposed by Treasury Secretary Paulson to deal with the financial crisis. We are well aware of the difficulty of the current financial situation and we agree with the need for bold action to ensure that the financial system continues to function. We see three fatal pitfalls in the currently proposed plan:

1) Its fairness. (…)

2) Its ambiguity. (…)

3) Its long-term effects.(…)

     For these reasons we ask Congress not to rush, to hold appropriate hearings, and to carefully consider the right course of action, and to wisely determine the future of the financial industry and the U.S. economy for years to come.  

      Sygnatariuszami listu zostało 166 naukowców. List bardzo krótki i wyrażający trafną  krytykę. Nie przedstawia natomiast żadnej alternatywy, choć  podpisani niżej ekonomiści zgadzają się z potrzebą  szybkiej reakcji i trudnością sytuacji.

      Jako wyjątek od tej bierności środowiska naukowego podamy konferencję  The European Colloquia Series, która odbyła się 25 Listopada 2008 roku. Na zaproszenie Pioneer Investments do Wenecji przyjechało grono wybitnych ekonomistów, wśród nich nobliści: Robert Solow, George Akerlof i Michael Spencer.

      Solow podkreślił, że priorytetowe jest zahamowanie spadku wydajności realnej gospodarki, a nie uzdrowienie finansów, na którym koncentrują  się media i politycy. Według noblisty kluczem do wyjścia z kryzysu będzie ochrona zdrowej części gospodarki – podczas gdy system finansowy będzie potrzebował czasu, aby się oczyścić, należy wspierać i inwestować środki w sektory gospodarki, które mogą się rozwijać mimo kryzysu finansowego: turystyka, transport, komunikacja…

      Kto wie, czy Solow nie miał racji, i czy w połowie listopada można było jeszcze przekierować olbrzymie środki z planu Paulsona w stronę realnej gospodarki kosztem ratowania instytucji finansowych? Podjęto inne decyzje polityczne, ale propozycję Solowa należy ocenić pozytywnie jako wkład środowiska akademickiego w dyskusję na temat nie kryzysu, lecz środków jego przezwyciężania.

      Ciekawa była również wypowiedź Michaela Spencera, noblisty z 2001 roku. Główną tezą jego wystąpienia brzmiała: długookresowy model wzrostu wciąż działa, a kryzys to tylko większa niż można się było spodziewać anomalia. Spencer, jako priorytety walki z kryzysem wskazał: dalsze otwarcie się gospodarek, podniesienie stopy inwestycji i oszczędności, decentralizację gospodarek oraz usprawnienie instytucji rządowych które mają skonstruować jasny i drożny system finansowy.

      Optymizm Spencera jest nieźle uzasadniony. Według niego spadek wyceny aktywów na całym świecie o około 25 bilionów dolarów jest równie przeszacowany, jak wcześniej nadmierny wzrost ich wartości. Realna gospodarka wcale nie skurczyła się tak mocno. Spencer podkreślił, że kryzys ma podłoże psychologiczne i naturalne wydają się działania które mają przywrócić zaufanie inwestorów i skłonić ich do ponownego podejmowania ryzyka inwestycyjnego.

      Najciekawsza jednak dla naszej pracy wypowiedź padła z ust George’a Akerlofa. Wskazał on na zasadniczy błąd teorii ekonomicznej, fundament myśli neoklasycznej, a mianowicie założenie o racjonalności podmiotów ekonomicznych. Kryzys i wydarzenia go poprzedzające, zdaniem Akerlofa, zadają śmiertelny cios temu założeniu. Okazuje się, że inwestorzy darzą swoje aktywa nieuzasadnionym zaufaniem w czasach prosperity, jednocześnie wykazując zbyt dużą awersję do ryzyka w czasach kryzysu, który powinien być najlepszym momentem na dokonanie inwestycji. Nie można mówić o racjonalności, twierdzi Akerlof, kiedy ludzie kupują domy po niewiarygodnie wysokich cenach przekonani, że będą one jeszcze bardziej rosły, podczas gdy różnica między cenami a kosztami budowy domów stała się nieracjonalnie wysoka. Ludzkie zachowania ekonomiczne są systematycznie nieracjonalne. Akerlof wysunął więc postulat gruntownego przebudowania teorii ekonomicznej. 
 
 
 

Rozdział  VI

Jak będzie się  zmieniała ekonomia? 

      Gdyby ludzie robili tylko to, co wyglądało na możliwe, do dzisiaj siedzieliby w jaskiniach.

Stanisław Lem 

     Postawmy na początku tego rozdziału mocną tezę: kryzys finansowy, a później gospodarczy końcówki pierwszej dekady XXI wieku nie zmieni znacząco biegu historii ekonomii. O podobnym przełomie, jaki dokonał się w nauce ekonomii po Wielkim Kryzysie nie ma nawet co mówić. Wynika to z faktów przedstawionych w poprzednich rozdziałach: reakcje ekonomiczne na kryzys, czy to mówimy o świecie politycznym, czy naukowym, są dość typowe, to znaczy odnoszące się precyzyjnie do istniejącego już zasobu wiedzy ekonomicznej. Wszystko wskazuje na to, że kryzys zostanie zażegnany tradycyjnymi metodami stymulacyjnymi, opartymi w dużej mierze na dorobku myśli keynesowskiej. Najwidoczniej wszyscy są zainteresowani w zachowaniu istniejącego, ekonomicznego status quo. Może brakuje nam umysłu na miarę Keynesa, może ekonomia rozwinęła się już na tyle, że szaleństwem byłoby całkowite zaprzeczanie jej dorobkowi, a może po prostu nie ma dobrej alternatywy dla ekonomii głównego nurtu? Wszyscy przecież zgadzają się co do tego, że wiele z jej założeń stanowi daleko idące uproszczenie. Być może prawdą jest jednak to, że uwzględniając wady ludzkiego poznania empirycznego, uproszczenia takie są nie tylko potrzebne, ale wręcz niezbędne. Inaczej mówiąc, nie możemy analizować kompleksowo nieracjonalnego zachowania jednostek. Takiego zachowania nie da się kwantyfikować. Bo o ile możemy określić co w danym momencie jest zachowaniem racjonalnym, to ciężko jest pozytywnie zdefiniować zachowanie nieracjonalne. Więc może jesteśmy skazani na założenie o racjonalności?

     Nie jest prawdą, że ekonomia nie próbuje walczyć ze swoimi słabościami. Ale nie jest też prawdą, że zmusił  ją do tego kryzys. Od wielu lat toczy się przecież dyskusja na ten temat. I ta dyskusja przynosi rezultaty w postaci coraz większego zainteresowania chociażby ekonomią behawioralną kwestionującą ową racjonalność podmiotów ekonomicznych. Rozwój tak zwanej „ekonomii złożoności” atakuje kolejny fundament dotychczasowej analizy makroekonomicznej – naturalne dążenie do równowagi. Faktem jest jednak, że te nowe nurty są jeszcze w powijakach, walczą na razie o uznanie ze strony mainstream’u, a ich osiągnięcia znajdują się wciąż w sferze postulatywnej. Większość dziś zgadza się, że główny nurt musi bardziej przyjrzeć się ekonomii behawioralnej a tym samym poszerzyć zakres przedmiotu swoich badań. Ale od zgody do działania jeszcze daleka droga. Poza tym, nie mamy do czynienia z rewolucją podobną do marginalistycznej57 czy keynesowskiej, lecz z ewolucyjnym procesem zmiany nauki ekonomicznej. Dla większości ekonomistów jest jasne, że rozwój ekonomii behawioralnej nastąpi w momencie zaakceptowania jej aparatu analitycznego i wchłonięcia przez ekonomię głównego nurtu.

     Można było oczekiwać, że kryzys drastycznie przyspieszy ten proces, że zmusi świat do podjęcia radykalnych kroków i rewolucji na miarę reaganowskiego zwrotu. Myślę, że minęło już dostatecznie dużo czasu aby móc powiedzieć, że tak się nie stało. Nie można oczywiście stwierdzić, że to co się stało, nie będzie miało żadnego wpływu na stan ekonomii za lat piętnaście, dwadzieścia czy pięćdziesiąt. Zgadywanie, jak będzie ona wówczas wyglądała, jest obarczone dużym ryzykiem błędu. Wydaje mi się jednak, że można pokusić się o sformułowanie pewnych ogólnych wniosków.

     Przede wszystkim należy spodziewać się rozwoju raczej liniowego, ukierunkowanego na rozbudowę istniejącej bazy w oparciu o nowe instrumenty badawcze. Postęp technologiczny pozwoli na lepsze gromadzenie i przetwarzanie informacji. To właśnie znaczenie informacji nie pozwoli na zmniejszenie znaczenia matematyki w ekonomii. Fakt, że będzie ona coraz częściej korzystała z osiągnięć nauk społecznych będzie spowodowane „rozrośnięciem” na boki, „twardym rdzeniem” ekonomii pozostaną liczby. Nie ma jednak wątpliwości, że modele matematyczne, ze swej istoty oparte na pewnych założeniach, a więc uproszczeniach, wciąż będą zawodziły. Właśnie aby wypełnić tą lukę ekonomia wchłonie analizę behawioralną. Profesor Andrzej Wojtyna na początku 2008 roku pisał: 

     (…) reakcja ta (t.j. zmiany dokonywane w teorii ekonomii – przyp. B.W) przebiega dwutorowo: z jednej strony, przede wszystkim za sprawą ekonomii behawioralnej, dokonuje się  daleko idąca rekonstrukcja założeń koncepcji homo oeconomicus; z drugiej strony, za sprawą badań składających się na umowne pojęcie „ekonomia złożoności”, kwestionowany jest tradycyjny sposób rozumienia równowagi i dynamiki systemów gospodarczych. (…) Ekonomia głównego nurtu bardzo znacząco poszerza zakres przedmiotu badań, ale jednocześnie bardzo twardo broni swojej metody badawczej. Oznacza to, że w najbliższych latach należy oczekiwać dosyć szybkiego otwierania się jej na te wątki ekonomi behawioralnej, które stosują podobną metodologię. Ze względu na dużą złożoność „ekonomii złożoności” i jej transdyscyplinarny charakter, wczesny etap zmiany paradygmatu okaże się prawdopodobnie okresem dosyć długim. Procesy zmian będą się wzmacniać, ponieważ program badawczy ekonomii behawioralnej jest jednocześnie częścią składową „ekonomii złożoności”58. 

     Myślę  również, że zmiany pójdą w kierunku decentralizacji ekonomii. Rozumiem przez to skoncentrowanie się na większej liczbie bardziej szczegółowych przypadków. Oznacza to odejście od poszukiwania równowagi, jako stanu idealnego i, w związku z nieubłaganą zmienną czasu, krótkotrwałego. Ekonomia skoncentruje się raczej na szukaniu względnej stabilności, neutralizowaniu zbyt dużych wahań i szybkiemu reagowaniu antykryzysowemu. Dla osiągnięcia tych celów potrzeba podejścia bardziej szczegółowego, choć skoordynowanego. Coraz częściej Nagrodę Nobla będą otrzymywały zespoły badawcze, a nie pojedynczy ekonomiści.

     Prawda, że ewolucyjny sposów zmiany paradygmatu może spowodować wydłużenie tego procesu w czasie. Ale można też przekonywać, że odejście od rewolucyjnych zmian w ekonomii jest cechą jej dojrzałości. Ostatni z wielkich klasyków ekonomii John Stuart Mill był przekonany, że jego Zasady ekonomii politycznej, to dzieło kompletne. Uważał, zgodnie z oświeceniową ideą doskonałości ludzkiego umysłu, że niczego więcej w ekonomii wymyśleć się nie da. Fakt dzisiejszej powolnej akceptacji i wchłaniania nowych nurtów ekonomicznych przez ortodoksję jest świadectwem giętkości współczesnej nauki, jej otwarcia i interdyscyplinarności, a więc, ośmielę się napisać, pewnej wyższości nad umysłami naszych przodków. To dobrze rokuje na przyszłość.

 

 

 

Bibliografia 

Blaug M., Metodologia Ekonomii, Warszawa 1995.

Friedman D., Cały ten kredytowy bałagan, „Wprost” 10.10.2008 (tłumaczenie Jan M. Fijor www.fijor.com).

Fukuyama F., Ostatni człowiek, Wydawnictwo Zysk i S-ka, Poznań 1997.

Fukuyama F., Budowanie państwa, Wydawnictwo Remis, Warszawa 2005.

Giddens A., Trzecia droga. Odnowa socjaldemokracji, Wydawnictwo Książka i Wiedza, Warszawa 1999.

Haliżak E., Polityka i strategia Chin w kształtowaniu międzynarodowego bezpieczeństwa, Żurawia Papers, Warszawa  2008.

von Hayek F. A., Konstytucja wolności, Wydawnictwo Naukowe PWN, Warszawa 2007.

Hume D., Badania dotyczące rozumu ludzkiego,  Wydawnictwo Zielona Sowa, Warszawa 2000.

Keynes J. M., Ogólna teoria zatrudnienia, procentu i pieniądza, Państwowe Wydawnictwo Naukowe, Warszawa 1985

Klein N., No logo, Świat Literacki, Warszawa 2004.

Kołodko G., Wędrujący świat, Prószyński i S-ka, Warszawa 2008.

Kornai J., Niedobór w ekonomii, Państwowe Wydawnictwo Ekonomiczne, Warszawa 1985.

Kuhn T., Struktura rewolucji naukowych, Warszawa 1968.

Landreth H., Colander D., Historia myśli ekonomicznej, Wydawnictwo Naukowe PWN, Warszawa 2005.

Lange O,. Maszyna licząca i rynek. [w:] Dzieła. Warszawa 1973, t. 2.

Nasiłowski M., Historia myśli ekonomicznej – dlaczego studiujemy?, Wydawnictwo Key Text, Warszawa 1998

Popper K., Logika odkrycia naukowego, Wydawnictwo Naukowe PWN, Warszawa 1977.

Reagan R., Moja wizja Ameryki, Wydawnictwo Arwil, Warszawa 2004

Rothbard M., America’s Great Depression, The Ludwig von Mises Institute, Auburn 1963

Stankiewicz W., Historia myśli ekonomicznej, Polskie Wydawnictwo Ekonomiczne, Warszawa 2007.

Veblen T. B., Teoria klasy próżniaczej, Wydawnictwo Muza, Warszawa 2008.

Wojtyna A., Współczesna ekonomia – kontynuacja czy poszukiwanie paradygmatu, „Ekonomista” nr. 1/2008

 

Brak głosów

Komentarze

Niezły elaborat.

Jednym zdaniem: kryzys jest wynikiem nieracjonalnych decyzji podmiotów.

Np. poprzez słomiane inwestycje.

Vote up!
0
Vote down!
0
#34548

o, k...wa. Pomyśleć, że nie tak dawno Wójcicki zarzucał mi, że piszę zbyt długie notki...

A tak na serio - myślę, że ekonomia powinna zbliżyć się na powrót do dóbr materialnych - ziemia, kruszec itp. Jak kryzys - to do złota (ceny rosną!). Źródłem kryzysu było tworzenie coraz to nowych i coraz bardziej oderwanych od jakiejkolwiek materialnej podstawy narzędzi finansowych. (Udzielamy kredytu, pod zastaw spłat tegoż kredytu emitujemy papiery wartościowe, następnie zaś kolejne, których zabezpieczeniem są poprzednie wymiksowane z jakąś cząstką akcji, obligacji, do tego spodziewane zyski z opcji itp.)Kompletna fikcja - niczym piramidki finansowe. To się musiało tak skończyć.

Dla odprężenia polecam "Świat finansjery" Terry'ego Pratchetta. Nie ze wszystkim się zgadzam, ale mechanizm Chluperta - przedni ;)

pozdrowienia

Gadający Grzyb

Vote up!
0
Vote down!
0

pozdrowienia

Gadający Grzyb

#34555

Krzysztof J. Wojtas
Niedawno zamieściłem wpis "Wojna cywilizacji (20). Pieniądz".
Nie tak rozbudowane, ale wnioski podobne.

Tu jak byłem w środku to już zapomniałem początku; to praca doktorska, czy habilitacja?

Vote up!
0
Vote down!
0

Krzysztof J. Wojtas

#34577

Za wielkim Adamem Mickiewiczem
"martwe znasz prawdy,nieznane dla ludu
widzisz świat w proszku , w każdej gwiazd iskierce
nie znasz prawd żywych , nie obaczysz cudu."
Drukne sobie - ciekawe.

Vote up!
0
Vote down!
0
#34578