ToZależy no.6

48
str. 34 Kamil Prządka Koniec wojen patentowych? str. 24 Ewa Koślacz Reklamacja bez paragonu str. 44 Przemysław Pryszcz Macroprudential Policy – a reborn of the new policy tools five years after the financial crisis str. 14 Mateusz Niewiński Underemployment. Normalne zjawisko czy nowa dysfunkcja rynku pracy? To Zalezy . Niezale ny Magazyn Studencki Nr 3/20 13 (6) ISSN 2084-7874 STR. 4 HIGH FREQUENCY TRADING czyli spodziewany gość na polskiej giełdzie

description

Szósty numer magazynu ToZależy!

Transcript of ToZależy no.6

Page 1: ToZależy no.6

str. 34Kamil Prządka Koniec wojen patentowych?

str. 24Ewa KoślaczReklamacja bez paragonu

str. 44Przemysław PryszczMacroprudential Policy – a reborn of the new policy tools five years after the financial crisis

str. 14Mateusz Niewiński Underemployment. Normalne zjawisko czy nowa dysfunkcja rynku pracy?

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

3/20

13 (

6)

ISSN 2084-7874

STR. 4

HIGH FREQUENCY TRADINGczyli spodziewany gość na polskiej giełdzie

Page 2: ToZależy no.6

HIGH FREQUENCY TRADING POD LUPĄ

W ubiegłym semestrze, na zajęciach z prawa finansowego na Uniwersytecie Warszawskim, Pani doktor pokazała slajd z najważniejszymi informacjami dotyczącymi naszej Giełdy Papierów Wartościowych w Warszawie.

Było tam wszystko. Historia powstania, prezesi, liczba spółek, informacje o rodzajach instrumentów i najważniejsze indeksy. Ten slajd wbił mi się jednak szczególnie w pamięć, bowiem na dole ostatni punkt stanowił informację o systemie informatycznym używanym na GPW. „System Warset” – tak też widniało na prezentacji w maju 2013 r. Jeden ze studentów podniósł rękę i zwrócił Pani doktor uwagę, że

od ponad miesiąca giełda funkcjonuje na nowej platformie UTP, na wzór giełd z grupy NYSE. Na następnych zajęciach slajd został poprawiony...

Po pierwsze, abstrahując już od wszelkiej oceny powyższej sytuacji, uzmysławia ona, iż wymiana systemu UTP chyba nie była rewolucją medialną. Po drugie, jak sama GPW przyznała, dla przeciętnego inwestora giełdowego system nie stał się przełomową rewolucją technologiczną. Aczkolwiek jest ścisły obszar dla którego UTP tą rewolucją już jest. Jest nim handel wysokiej częstotliwości, powszechnie znany jako High Frequency Trading. Nasz redaktor, Wojtek Milewski, postanowił przyjrzeć się bliżej ostatnim trendom na świecie z zakresu wykorzystywania algorytmów i komputerów w tradingu. W temacie znajdzie się również całościowa ocena HFT i jego wpływu na wszystkich uczestników rynku. Szczerze polecamy niezwykle interesującą lekturę, zarówno osobom, które o systemach już dotychczas pogłębiły swoją wiedzę, jak i czytelnikom spotykającym się z pojęciem po raz pierwszy.

Przyjemnej lektury!

Redaktor Naczelna

Page 3: ToZależy no.6

Redaktor Naczelna – Agnieszka Żurawska Redaktorzy Prowadzący – Przemysław Pryszcz,

Wojciech Milewski

Projekt graficzny – Agnieszka Żurawska, Kamil Prządka, Jakub Pawlik

Korekta – Izabela Wiśniewska, Agnieszka Żurawska

Strona internetowa tozalezy.pl – Kamil Prządka, Ewa Dębska

Okładka wykonana z wykorzystaniem grafik: nanex.net , altingfest.deviantart.com

Wydawca:

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Kontakt: [email protected]

SPIS TREŚCI TEMAT NUMERU High Frequency Trading, czyli spodziewany gość na polskiej giełdzie WOJCIECH MILEWSKI 4

RYNKI KAPITAŁOWE Kapitał własny jako forma finansowania transakcji fuzji i przejęć KATARZYNA OKOŃ 10

MAKROEKONOMIA Underemployment. Normalne zjawisko czy nowa dysfunkcja rynku pracy? MATEUSZ NIEWIŃSKI 14 Czy mamy się czego bać, czyli o ryzyku finansowym w Chinach BARTOSZ WASILWESKI 20 PRAWO Reklamacja bez paragonu EWA KOŚLACZ 24

TO ZALEŻY Minister Finansów Jacek Rostowski – dobry czy zły? MATEUSZ NIEWIŃSKI,

MARCIN SENDERSKI 26

EDUKACJA Ekseprymenty naturalne mogą odmienić oblicze nauk ekonomicznych. Wydobyte z natury MARCIN SENDERSKI 30

TECHNOLOGIE Koniec wojen patentowych? KAMIL PRZĄDKA 34

OPINIE Idea placement czy CSR? Czyli co warunkuje istnienie organizacji non-profit JOANNA CHLEBIEJ 36 Co z tymi emeryturami? TOMASZ HAŁAJ 38

RECENZJE Tim Clissold, Mr China, czyli Amerykanin w Pekinie JAN JĘCZMYK 40

SYLWETKI Marissa Mayer JOANNA CHLEBIEJ 42

ENGLISH SECTION Macroprudential Policy – a reborn of the new policy tools five years after the financial crisis PRZEMYSŁAW PRYSZCZ 44

N11Is it the time to redefine

emerging markets?

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

3/20

12

ISSN 2084-7874

str. 58Koniec z rajami podatkowymi – o planach Ministerstwa Finansów

str. 40Bańki spekulacyjne kiedyś i dziś - jak niewiele uczy nas historia

str. 68Korespondencja z Sankt Gallen: Ryzyko wraca do łask

str. 28Cezary Stypułkowski - wywiad specjalnie dla To Zależy

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

2/20

12

ISSN 2084-7874

Japonia – kraj „więdnącej” wiśni?

O tym, jak Japończycy stracili dwie dekady...Czy Japonii uda się utrzymać rekordowo niskie koszty obsługi długu?Czym jest balance sheet recession?

To Zalezy

.

Niezale¿ny Magazyn StudenckiNr 1/

2012

str. 16Czy czeka nas stracona

dekada?

str. 10Portugalia w świetle jupiterów

str. 52Eurocrisis and

Slovakia - glimpse into how the

country’s public, politicians

and experts view the situation

Eurostrefa jednak bez

Grecji?

str. 5Czy makroekonomia

ma jeszcze znaczenie?

Szklane sufity w biznesieczyli o kobietach, parytecie, zdrowym rozsądku oraz kontrowersyjnych regulacjach Komisji Europejskiej

str. 28Marcin Senderski Z dużej chmury mały deszcz

str. 24Bartosz Wasilewski Smok kontra orzeł. Renminbi jako waluta światowa?

str. 62Halil Yasin Keklik Neurofinance: How does the brain of an investor work?

str. 14Mateusz Niewiński Gdzie jesteś zielona, polska wyspo?

To Zalezy

.

Niezale¿ny Magazyn Studencki

Nr

1/20

13 (

4)

ISSN 2084-7874

str. 4

Page 4: ToZależy no.6

Temat numeru4

W kwietniu tego roku GPW wprowadziła, używany także na giełdach z grupy NYSE, system notujący UTP (Universal Trading Platform). Szybkość oraz ilość przesyłanych przez niego informacji umożliwia stosowanie technologii High Frequency Trading. Co prawda, obroty niezbędne do swobodnego wykorzystania strategii z nią związanych generowane są jedynie na pojedynczych spółkach i kontraktach, jednak wraz z systemem WARSET zniknęły techniczne ograniczenia. Polski rynek kapitałowy wchodzi w erę, gdzie człowiek tworzy i kontroluje algorytmy, resztą zajmuje się komputer.

HIGH FREQUENCY TRADING, czyli spodziewany gość na polskiej giełdzie.

Rys. 1 Średnie opóźnienie realizacji zleceń - NYSE

źródło: opracowanie własne na podstawie www.utpplan.com

0,13

0,90

6,48

46,66

335,92

2007 2008 2009 2010 2011 2012 2013

MILISEKUNDY

Rosnące od lat 90-tych zainteresowanie wykorzystaniem na rynku możliwości komputerów, rozpoczęło trwający do dziś wyścig technologiczny pomiędzy bankami, funduszami i innymi instytucjami. Przyśpieszyło to rozwój handlu algorytmicznego, w którym zaprojektowany przez człowieka program jest instalowany na komputerze, gdzie stanowi instrukcje postępowania dla maszyny dokonującej transakcji.

emisoft.pl

Page 5: ToZależy no.6

Temat numeru 5

Wojciech MilewskiStudent III roku Wydziału Nauk

Ekonomicznych, laureat dziewiątej edycji Międzyuczelnianego Forum Dealerów Bankowych, stypendysta rektora UW, aktywny członek KNSG UW.

Dla przeciętnego czytelnika zaskakujący może wydać się fakt, że podstawową działalnością algorytmów jest dzielenie dużych zleceń złożonych przez człowieka na mniejsze i realizacji tych drugich. Transakcja przeprowadzana jest tak, aby całkowity wpływ na rynek był możliwie najmniej widoczny, a ceny wykonania jak najlepsze. Jest to postępowanie nastawione raczej na minimalizowanie kosztów, niż zysk sam w sobie. Programy te nie podejmują decyzji co do alokacji kapitału, a jedynie realizują zlecenia, stąd często, dla odróżnienia od bardziej zaawansowanych algorytmów decyzyjnych, nazywane są algorytmami egzekucyjnymi. Algorytmy decyzyjne natomiast, potrafią samodzielnie podjąć decyzję kiedy i jaki walor ma zostać zakupiony lub sprzedany, uwzględniając również rynkowe nastroje czy zarządzanie ryzykiem portfela. Swoje działania opierają nie tylko na analizie technicznej czy fundamentalnej, lecz często główną rolę gra tam pozbawiona jakiejkolwiek uznaniowości analiza ilościowa. Szczególnym rodzajem handlu algorytmicznego jest handel wysokich częstotliwości (High

Frequency Trading, HFT).

Czas to pieniądz – to aktualne od setek lat powiedzenie, obecnie staje się coraz bardziej dosłowne. Jego autor zapewne nawet nie był w stanie zmierzyć tego, co współcześni traderzy rozumieją pod słowem ‘czas’. W dobie coraz szybszych algorytmów, szybszych komputerów oraz szybszych łączy, prędkość przesyłania informacji stała się kluczową sprawą w uzyskaniu przewagi nad pozostałymi graczami. Na największych światowych parkietach gra w obszarze HFT nie toczy się o sekundy czy jej

setne części – obecnie czas liczy się w mili- lub mikrosekundach. Taka technologia umożliwia pełne wykorzystanie możliwości handlu algorytmicznego. Zysk w transakcjach HFT generowany jest dzięki minimalnym zwrotom z poszczególnych inwestycji (z reguły pojedyncze bp, co oznacza ułamki centa na akcje), jednak przy bardzo dużej ilości transakcji – w ciągu dnia pojedynczy algorytm przeprowadza ich nawet do kilku tysięcy. Dzięki temu rynki, na których obserwujemy działanie HFT, charakteryzują się wysoką płynnością i dużym wolumenem

Page 6: ToZależy no.6

Temat numeru6

obrotu. Zajmowana przez komputer pozycja zamykana jest w ciągu kilku minut, choć najczęściej jej czas nie przekracza paru sekund. Dlatego też, w tej grze nie biorą udziału długoterminowi inwestorzy, patrzący na transakcje z punktu widzenia tygodnia, miesiąca czy roku. Jednak, aby powyższe działania przyniosły oczekiwany zysk, konieczne jest wystąpienie kilku przedstawionych poniżej czynników.

Pierwszym elementem

niezbędnym do sprawnego funkcjonowania systemów HFT jest wysokiej jakości technologia. Im większe opóźnienia w przesyle informacji, tym większe prawdopodobieństwo, że zlecenie już w momencie przyjmowania do systemu znajdzie się poza rynkiem. Powoduje to, że zarówno giełdy jak i inwestorzy podejmują inwestycję w celu rozwoju technologii. Te pierwsze chcąc przyciągnąć do siebie graczy, rynkową płynność oraz pieniądze z tym związane,

starają się wyprzedzić konkurencję wprowadzając coraz nowocześniejsze systemy notujące. Mają one umożliwić szybszą obsługę większej ilości zleceń. Obecnie NYSE i NASDAQ realizują dziennie średnio odpowiednio 20 i 7 mln transakcji przy średnich opóźnieniach 0,37 i 1,3ms1 – dla porównania czasy reakcji monitorów LCD wynoszą od 1 do 5 milisekund. Gwałtowny rozwój techniki w tym względzie jest potwierdzany przez fakt, że 3 lata temu opóźnienia były kilkunastokrotnie większe. Mając świadomość skali, nie dziwi w tym momencie usługa kolokacji2. Jest to odpłatnie oferowana przez giełdy możliwość umieszczenia komputerów generujących zlecenia bezpośrednio w jej budynku. Oznacza to, że droga jaką będzie musiała pokonać informacja pomiędzy serwerem giełdowym, a systemem gracza, zostaje skrócona do minimum. Kolokacja powiązana jest z usługą DMA (Direct Market Access), która pozwala bankowi czy funduszowi mieć bezpośredni dostęp do rynku, z pominięciem brokera. W sferze prywatnych przedsięwzięć, możemy usłyszeć o światłowodach mających na celu bezpośrednie połączenie odległych rynków finansowych – przykładowo kosztem 300 mln dolarów połączono Chicago i New Jersey. Dysponując wystarczającą technologią, kolejnym krokiem jest zaprojektowanie odpowiedniego algorytmu. Jest to miejsce, w którym każdy komputer będzie 1 UTP SIP PLAN, 2013 Q2 U.S. Consolidated Tape Data2 W trakcie pisanie tego arty- W trakcie pisanie tego arty-kułu GPW opublikowało cennik usługi kolokacji – za kilkadziesiąt tysięcy zło-tych (20 tys. jednorazowo + 8 tys. co miesiąc) możemy stać się właściciela-mi jednej z nowych 18 szafek na nasz własny serwer postawiony tuż przy serwerze giełdy.

Page 7: ToZależy no.6

Temat numeru 7

zależny od człowieka. Wybory, jakie podejmie komputer, o ile nie zostaną błędnie przekazane, w rzeczywistości będą wyborami programisty. Najczęściej, programy tworzone są w powszechnie stosowanych, wydajnych językach programowania, tj. C++ lub Java. Jednak elementem HFT, który najbardziej różnicuje poszczególnych inwestorów, jest strategia uwzględniona w danym algorytmie.

Podstawową strategią jest market making, z tą tylko różnicą w stosunku do tradycyjnego, że nacisk kładziony jest na minimalne opóźnienie przekazywanego zlecenia. Dzięki szybkości przesyłanych informacji komputery nie musza się obawiać zmienności, mogącej spowodować, że nagle ich kwotowania znajdą się poza rynkiem. Powoduje to możliwość wystawienia oferty zawężającej spread. Co prawda, zlecenia te z reguły charakteryzują się mniejszym wolumenem niż tradycyjne, jednak z punktu widzenia rynku i tak prowadzą do ograniczenia kosztów transakcyjnych, a także zwiększają jego efektywność. Prawdopodobnie właśnie dzięki HFT, na przestrzeni ostatnich 5 lat rozwinięte rynki odnotowały skurczenie się spreadów od 2 do 5 razy3. Niewątpliwym wabikiem tej strategii są również pewne profity, które proponują giełdy w zamian za zapewnianie płynności. Szacuje się, że to niebudzące zastrzeżeń zastosowanie HFT, stanowi około 70 proc. wszystkich transakcji realizowanych z użyciem tej technologii4. Kolejną strategią jest arbitraż statystyczny. Polega on na zebraniu, analizie i 3 Analizy Credit Suisse AES4 The Diversity of High-Fre- The Diversity of High-Fre-quency Traders, Björn Hagströmer , Lars L. Norden, May 18, 2013

prognozowaniu cen powiązanych ze sobą instrumentów w celu wychwycenia odchyleń na poszczególnych rynkach. Jeśli owa różnica przekracza koszty transakcyjne, transakcja zostaje zawarta ze statystycznym zyskiem. Oczywiście człowiek nie byłby w stanie tak szybko wyliczyć odpowiedniej ceny i zaobserwować różnicy. Niewątpliwie, strategia ta stabilizuje rynek, sprzyjając ograniczeniu krótkookresowej zmienności. Spotkać się również możemy z arbitrażem wydarzeniowym, kiedy to komputery wykorzystują przewagę w szybkości uzyskania informacji nad innymi graczami. Pojawiająca się informacja często jest przyczyną nagłego ruchu ceny danego instrumentu. Algorytmy starają się więc jako pierwsze ustawić swoje zlecenia na rynku i w ten sposób wyprzedzić konkurencję. Szybkość transmisji danych niezbędna jest na każdym z etapów: zdobycia nowej informacji, przełożeniu jej na nowe ceny oraz aktualizacji cen. Podobnie jak w arbitrażu statystycznym, człowiek nie jest w stanie rywalizować z komputerem. Żadna z dotychczas omówionych strategii nie wykorzystuje jednak niejawnych informacji oraz nie powoduje utrudnień dla pozostałych graczy.

Istnieje też druga strona medalu, której negatywne oddziaływanie tak często rzutuje na całość. Brak regulacji prawnych powoduje, że możemy napotkać wiele programów mających na celu opóźnienie przekazu informacji dla innych graczy i wykorzystywanie zaawansowanej technologii w sposób etycznie wątpliwy. Najbardziej powszechną strategią wśród tych budzących wątpliwości, jest detekcja

płynności. Pozwala ona wykryć spodziewane ruchy rynku poprzez odszukiwanie ofert z limitem, obecnie niewidocznych w książce zleceń. Na rynek wysyłana jest duża ilość zleceń mająca na celu odkrycie limitów cen dla większych zleceń. Gdy tylko limit zostanie odkryty, komputer anuluje pozostałe wysłane przez siebie zlecenia, a następnie dzięki podłączeniu do innych giełd szybko wykupuje dany walor i odsprzedaje po wyższej cenie. Kolejną kontrowersyjną strategią jest flash trading, dający kilkudziesięcio milisekundowy podgląd oczekującego na przyjęcie do systemu zlecenia (co przy obecnych opóźnieniach, a raczej ich braku, daje szansę na jego wyprzedzenie). Praktyka ta na niektórych giełdach jest zabroniona, natomiast brak jest odgórnego jej zakazu. Ostatnim z istotnych, jednak chyba najmocniej krytykowanym zagrożeniem związanym z HFT, jest quote stuffing. Polega on na zapychaniu łączy ogromną ilością zleceń tak, aby opóźnić dostęp do informacji dla innych inwestorów. Jedynym sposobem na uniknięcie opóźnień z niego wynikających jest bezpośredni dostęp do systemu giełdy, dlatego też każda instytucja działająca w obszarze HFT taki dostęp posiada. Pozostali otrzymują bieżące kwotowania dopiero, gdy zostaną one przesłane przez giełdowy system. Giełdy w USA połączone są systemem CQS (Consolidated Quotation System), posiadającym wydajność 750 notowań na każda milisekundę. Za przyczyną powyższej strategii, bywają momenty, kiedy liczba ta, okazuje się niewystarczająca. Powoduje to, że cześć z inwestorów może otrzymywać informacje z rynku, które już nie są aktualne. Praktyka ta ograniczona jest przez nadzory

Page 8: ToZależy no.6

Temat numeru8

finansowe większości krajów. Prym, jeśli chodzi o regulację całego zagadnienia HFT, wiodą Niemcy oraz Kanada.

Największą zaletą, a jednocześnie wadą maszyny, jest to, że nie myśli. Zrobi to, co polecił jej wykonany przez człowieka algorytm, bez emocji, bez dopominania się o dodatkowe informacje, których nie zawierała instrukcja. Jak się okazuje, może to być drogą do ponadprzeciętnej rentowności. Wykazano, że transakcje bazujące na HFT posiadają wskaźnik Sharpe’a (miara nagrody na jednostkę ryzyka) kilkadziesiąt razy wyższy (9,2) niż tradycyjne strategie (0,31)5. Im krótszy okres, tym zyskowność jest większa, a wskaźnik Sharpe’a może sięgać wartości liczonych w tysiącach. Następnym czynnikiem zwiększającym atrakcyjność inwestycyjną, jest krótki czas testowania zaproponowanych rozwiązań – do wiarygodnej oceny zastosowanej techniki potrzeba zaledwie miesiąca lub dwóch miesięcy danych. Kolejną z cech charakterystycznych wszystkich strategii HFT jest fakt, że nie przewidują przetrzymywania walorów przez noc, co wiąże się z brakiem opłat z tym związanych. Nie bez znaczenia jest również nikła korelacja krótkookresowych 5 The Trading Profits of High Frequency Traders; Matthew Baron, Jonathan Brogaard, Andrei Kirilenko; sierpień 2012

wahań cen (stanowiących źródło zysku) z realną wartości firmy. Dzięki temu, skuteczność działania algorytmów HFT nie jest powiązana z panującą koniunkturą, co umożliwia dywersyfikację portfela. Wszystkie, wymienione teraz, jak i wcześniej czynniki, przyczyniają się do pokaźnego procentowego udziału HFT w giełdowych transakcjach – sięga on 51 proc. w USA i 39 proc. w UK.6 Warte zauważenia jest, że pomimo wysokiej skali udziałów i medialnego rozgłosu jakiego nabrały, zyski netto nie są imponujące w stosunku do dużych, tradycyjnych funduszy inwestycyjnych. Dużym obciążeniem finansowym są niezbędne ciągłe wydatki na 6 szacunki TABB Group

oprogramowanie i technologię. Szacuje się, że zyski całego sektora spadły do 1,25 mld w 2012 roku, w stosunku do 5 mld w roku 2009 roku.7 Przyczyną takiego stanu rzeczy może być rosnąca konkurencja w tym obszarze oraz niektóre regulacje, zabraniające stosowania części kontrowersyjnych praktyk.

Przeglądając internetowe artykuły, trudno nie zauważyć istnienia wielu głosów uznających HFT za kolejne niebezpieczne narzędzie stosowane przez dużych graczy w celu wyzyskania drobnego inwestora. W historii niejednokrotnie obserwowaliśmy już akcje, indeksy czy kontrakty, których 7 szacunki Rosenblatt Securi- szacunki Rosenblatt Securi-ties

Page 9: ToZależy no.6

Temat numeru 9

notowania za sprawą działania algorytmów bazujących na HFT, potrafiły w ciągu kilkudziesięciu sekund zanotować wahania rzędu kilkudziesięciu procent. Popularnym przykładem są wydarzenia z 6 maja 2010 roku zwane flash crash. Tego dnia na rynkach, w związku z sytuacją w Grecji, panowała duża niepewność. O godzinie 2:32, w momencie, kiedy rynek tracił już ponad 300 punktów (otwarcie na poziomie 10862) pewien fundusz (właściwie jego algorytm, jednak nie działający w technologii HFT) rozpoczął sprzedaż dużego pakietu kontraktów E-mini S&P500. Spowodowało to przeszacowanie przez algorytmy HFT wartości innych aktywów, co z kolei zaowocowało wzrostem podaży na rynku akcji. Podążające za trendem automaty, mocno go przyśpieszyły. Na domiar złego, z powodu zbyt dużej zmienności, części komputerów została wyłączona, co spowodowało zmniejszenie płynności i dalsze spadki. Od godziny 14:41, w ciągu 5 minut, DJIA spadł o 600 punktów, przez co łącznie tego dnia sięgnął poziomu -9,2 proc.8, jednak po kilkunastu kolejnych minutach indeks wrócił do poziomów sprzed 2:30. Wydarzenia te pokazują jak wielką siłę mogą mieć połączone algorytmy HFT, jeśli zostaną im przekazane jednoznaczne sygnały. Warto jednak zauważyć, że podążały one jedynie za rynkowym trendem, same nie stanowiąc impulsu. Kolejnym przykładem, według mnie lepiej oddającym ewentualne zagrożenia, jakie niesie ze sobą HFT, jest mający miejsce w sierpniu 2012 roku, niekontrolowany zakup aktywów przez fundusz Knight Capital. W związku z nieostrożnymi 8 raport SEC : http://www.sec.gov/news/studies/2010/markete-vents-report.pdf

testami nowo zainstalowanego oprogramowania, w ciągu niecałej godziny komputer realizował transakcje które ostatecznie zaowocowały dla funduszu łączną stratą w wysokości 460 milionów dolarów. Uświadamia to jak istotną częścią pracy w tej technologii powinna być kontrola algorytmów.

Podsumowując, HFT staje się kolejną gałęzią w rozwoju rynków kapitałowych. Należy podkreślić, że konieczne jest rozróżnienie na poszczególne strategie, które są od siebie znacząco odmienne. Zarówno sama technologia HFT, jak i zdecydowania większość jej zastosowań, moim zdaniem sprzyjają rynkom kapitałowym i popycha je do dalszego rozwoju. Z punktu widzenia długoterminowego inwestora nie wywierają one negatywnego wpływu na jego zysk, natomiast płynność, jaka jest zapewniona, pozwala mu go w każdej chwili zrealizować. Dzięki szybkości przesyłanych informacji, proces odkrywania ceny następuje szybciej, zwiększana jest stabilność rynku oraz niwelowane są międzygiełdowe wahania cen. Również węższe spready przyczyniają się do wzrostu efektywności rynku. Przeważająca część zastosowań HFT może być tłumaczona jako przyśpieszenie myśli programisty czy palców tradera. Gdyby tylko człowiek był w stanie analizować informacje tak samo szybko, prawdopodobnie nikt nie miałby mu za złe, że wykorzystując swoje doświadczenie kupuje taniej i sprzedaje drożej mimo, że obie transakcje wykonał w ciągu 1 sekundy. Problemem rzutującym na zagadnienie HFT są jednak strategie ukierunkowane bezpośrednio na utrudnianie działania innym inwestorom

oraz celowe wprowadzanie ich w błąd. Zysk osiągany dzięki informacjom niejawnym także jest mocno kontrowersyjny. Działania te nie zwiększają efektywności rynku, a jedynie przyczyniają się do powiększenia zasobności portfela najbardziej zaawansowanych technologicznie graczy oraz negatywnego postrzegania całej technologii. Niektóre fundusze, działając według zasady „duży może więcej”, ulegają pokusie i wykorzystują luki w ciągle nieusystematyzowanym w tym względzie prawie. Ustawodawcy powinni pamiętać, że to właśnie wobec tych „złych” zastosowań HFT powinny być ukierunkowane ich działania. Wzrosnąć powinny też obostrzenia dotyczące kontroli nowowprowadzanych algorytmów oraz nagłej zmienności na rynkach tak, aby w przyszłości nie powtórzyły się sytuacje z 1 sierpnia czy 6 maja.

Page 10: ToZależy no.6

Rynki kapitałowe10

Kapitał własny jako forma finansowania

transakcji fuzji i przejęć

Popularność fuzji i przejęć wzrasta z roku na rok. Początki tego typu transakcji w Polsce zauważa się w latach dziewięćdziesiątych XX wieku, czyli okresie po transformacji gospodarczej w naszym kraju. Wiązały się one z procesem prywatyzacji przedsiębiorstw państwowych, a następnie przejmowaniu ich przez podmioty zagraniczne. Z upływem czasu nastąpił wzrost znaczenia krajowych inwestorów, a co za tym idzie – zwiększyła się popularność transakcji fuzji i przejęć w Polsce. Dekoniunktura na rynku oraz światowy kryzys gospodarczy spowodowały, że liczba transakcji oraz ich wartość zmniejszyła się analogicznie do sytuacji na świecie. Obecnie rynek M&A w Polsce jest rynkiem stosukowo stabilnym. Zauważalne ożywienie gospodarcze pociąga za sobą wzrost ilości transakcji fuzji i przejęć.

Sposób finansowania odgrywa w przedsiębiorstwie istotną rolę, jest równie ważny w transakcjach fuzji bądź przejęcia. Wybór źródła finansowana transakcji powinien być poprzedzony dogłębnymi analizami sytuacji finansowej spółki, ponieważ wybrana forma finansowania może wpływać między innymi na wartość transakcji, postępowanie nabywców oraz przyszłe zyski, które przedsiębiorstwo planuje osiągnąć. Rodzaj oferty, motyw fuzji czy przejęcia, dostępność źródeł finansowania w danym otoczeniu, znajomość przepisów podatkowych, stopień

płynności finansowej podmiotu będącego nabywcą oraz poziom dźwigni finansowej podmiotu przejmującego i przejmowanego powinny być uwzględniane przy wyborze źródła finansowania transakcji M&A.W tym artykule analizie poddano kapitał własny jako jedno ze źródeł zdobycia gotówki na sfinansowanie transakcji fuzji bądź przejęcia. Kapitał własny (ang. equity) uznawany jest za jedną z tradycyjnych form finansowania. Powyższy rodzaj kapitału może być uzyskiwany ze źródeł wewnętrznych oraz zewnętrznych. Wśród źródeł wewnętrznych wyróżnia się

wypracowane i zatrzymane przez przedsiębiorstwo zyski. Opierają się one głównie na wykorzystaniu zgromadzonej przez przedsiębiorstwo gotówki. Natomiast wśród źródeł zewnętrznych wymienia się między innymi wpływy z emisji akcji lub udziałów. W literaturze kapitał własny prezentowany jest jako stosunkowo bezpieczne źródło pozyskania kapitału. W procesie finansowania fuzji i przejęć jako źródło kapitału własnego wykorzystać można gotówkę przedsiębiorstwa pochodzącą głównie z wypracowanych zysków. Ponadto wymienia się

capitalcampaignmagic.com

Page 11: ToZależy no.6

Rynki kapitałowe 11

możliwość pozyskania funduszy poprzez emisję akcji z prawem poboru dla dotychczasowych akcjonariuszy, czy finansowanie private equity oraz venture capital.Posiadana gotówka to najbardziej płynna forma oszczędności. Służy ona finansowaniu bieżących inwestycji, ale jej nagromadzenie można wykorzystać przy finansowaniu większych inwestycji. W literaturze spotyka się pojęcie kosztu utraconej wartości, który wiąże się z utratą pewnych korzyści w związku z realizacją innej inwestycji.Emisja akcji jest kolejną formą wykorzystującą kapitał własny. Ta forma pozyskania kapitału dotyczy spółek kapitałowych. Można dokonać jej na przykład w ofercie prywatnej. Wtedy skierowana jest ona do ograniczonej liczby inwestorów. Można również przeprowadzić emisję w ramach oferty publicznej. W emisji akcji, spółka akcyjna uznawana jest za stronę krótką transakcji, natomiast stroną długą jest inwestor. Istnieje możliwość sprzedaży akcji innym inwestorom na rynku wtórnym. Wspomniane prawo poboru (ang. subscription right) daje posiadaczowi akcji spółki możliwość zakupu akcji z nowej emisji po ustalonej wcześniej cenie emisyjnej. Kapitał private equity/venture capital zaliczany jest do kapitału o charakterze średnio lub długoterminowym. Najczęściej ten rodzaj finansowania występuje w przedsiębiorstwach, które nie są notowane na rynku giełdowym. Głównym celem inwestora jest wzrost wartości przedsiębiorstwa. Inwestor dostarcza niezbędnego kapitału, ale także udziela wsparcia menedżerskiego. Ten rodzaj

uznawany jest za stosunkowo ryzykowny.Trudno jest określić wielkość zysku, którą można osiągnąć wykorzystując kapitał własny. Każda forma finansowanie wiąże się z ponoszeniem kosztu. Wśród metod służących do oszacowania kosztu kapitału własnego w przedsiębiorstwie wyróżnia się model Gordona służący do oceniania kapitału akcyjnego zarówno zwykłego, jak i uprzywilejowanego, model wyceny aktywów kapitałowych CAPM, który określa koszt pozyskanego kapitału akcyjnego, model Bond plus, nazywany metodą stopy dochodu z obligacji z premią za ryzyko oraz metodę składania poszczególnych elementów ryzyka. Kapitał własny to jedna z form finansowania. Posiada ona zarówno zalety i wady. Do głównych zalet zalicza się łatwość oraz niski koszt pozyskania kapitału własnego. Jest to kapitał bezterminowy, a podlega on spłaceniu jedynie w przypadku likwidacji spółki czy podjęciu uchwały walnego zgromadzenia o umorzeniu akcji. Kolejną zaletą jest możliwość zachowania kontroli nad firmą, o ile w ramach emisji akcje lub udziały obejmują dotychczasowi akcjonariusze.

Udział akcjonariuszy w zyskach pozostaje bez zmian. Pozytywną stroną jest również fakt, że emitent może sam decydować o terminie spłaty, warunkach emisji, cenie, oprocentowaniu obligacji. Znaczącą zaletą jest małe ryzyko uzyskiwania środków z kapitału własnego. Finansowanie kapitałem własnym ma również wady. Jedną z nich są formalności niezbędne przy emisji akcji. W przypadku emisji akcji wadą jest również zmniejszenie udziału dotychczasowych właścicieli w zyskach przedsiębiorstwa, jednak może to być wyeliminowane poprzez nabywanie akcji przez dotychczasowych właścicieli. Analizując wybór źródła finansowania w procesie fuzji i przejęć, należy odwołać się do popularnych modeli rynkowych. Wybór kapitału własnego jako rodzaju finansowania odnosi się do modelu anglosaskiego, w którym dominuje powyższa forma. Model ten nazywany jest również modelem rynkowo zorientowanym (ang. market-based system). Model anglosaski opiera się na rynku finansowym, a dokładniej – na rynku kapitałowym. Funkcjonuje w krajach takich jak Stany Zjednoczone, Kanada, Australia, Wielka Brytania.

KATARZYNA OKOŃ

Studentka Uniwersytetu Ekonomicznego w Poznaniu,

kierunku Inwestycje Kapitałowe i Strategie Finansowe Przedsiębiorstw na Wydziale Zarządzania oraz kierunku Finanse, Audyt i Podatki na Wydziale Ekonomii. Interesuje się fuzjami i przejęciami, rynkami kapitałowymi oraz metodami finansowania przedsięwzięć.

Page 12: ToZależy no.6

Rynki kapitałowe12

strategicehs.com

Polega na poszukiwaniu źródeł finansowania na rynkach kapitałowych poprzez wykorzystanie obecnych na nim form finansowania powiązanych z giełdą i emisją papierów wartościowych. Pozyskiwanie kapitałów opiera się na emisji zbywalnych instrumentów finansowych za pośrednictwem giełdy i rynku kapitałowego. W powyższym systemie rola banków jest minimalna i ogranicza się do udzielana

kredytów krótkoterminowych na pokrycie bieżącej działalności. Nieco większą rolę w modelu anglosaskim mają fundusze oraz banki inwestycyjne, ponieważ są one powiązane z działalnością rynku kapitałowego.Podsumowując, nie ma jednej idealnej formy finansowania, która zapewnia o powodzeniu transakcji, dlatego kapitał własny może stanowić źródło finansowania wybierane w procesie fuzji i przejęć.

Omówiona forma posiada zarówno wady jak i zalety, jednak decyzja o jej wyborze zależy od wielu czynników, między innymi od specyfiki podmiotu i rynku, branży, w której prowadzona jest działalność oraz zysków, jakie przedsiębiorstwo chce osiągnąć. Źródło finansowania określa sposób zdobycia środków niezbędnych do opłacenia transakcji, dlatego nie należy go utożsamiać z formą zapłaty.

GLOBAL MANAGEMENT CHALLENGEPoland 2013

po raz 14 w Polsce!

NOWY SYMULATOR!Rozbudowany zakres decyzyjny

Patron honorowy

Patroni mediani:

Sponsorzy:

Organizator:

www.gmcpoland.pl

Rejestracja zespołów studenckich jest możliwa do 30 października.

GMC posiada akredytację Europejskiej Fundacji Rozwoju Zarządzania.

»pół miliona

uczestników na świecie!

»25 tysięcy

absolwentów w Polsce!

Zapraszamy drużyny studenckie (3-5 osób) do rywalizacji w wirtualnym świecie biznesu!

» pierwsze praktyki zarządzania » weryfikacja i uzupełnienie wiedzy akademickiej » rozwój umiejętności: pracy w zespole,

planowania strategicznego, myślenia analitycznego

» rywalizacja z profesjonalistami i praktykami biznesu

» nawiązanie kontaktów z potencjalnymi pracodawcami

» promocja finalistów w prasie i Internecie » możliwość udziału w Finałowej Gali » dla zwycięzców – reprezentowanie naszego

kraju na Finałach Światowych, studia podyplomowe w Akademii Koźmińskiego

Korzyści dla studentów:

GMC to największa na świecie symulacja biznesowa - interaktywna gra strategiczna, w której zespoły wcielają się w role zarządów wirtualnych przedsiębiorstw. Projekt jest przeznaczony dla studentów i menedżerów, którzy chcą rozwijać twarde, biznesowe umiejętności, jak i miękkie, związane ze współdziałaniem, wzajemną motywacją.

Współpraca Patron internetowy

WARSAW

short logotype

horizontal logotype

vertical logotype

Page 13: ToZależy no.6

Rynki kapitałowe 13

GLOBAL MANAGEMENT CHALLENGEPoland 2013

po raz 14 w Polsce!

NOWY SYMULATOR!Rozbudowany zakres decyzyjny

Patron honorowy

Patroni mediani:

Sponsorzy:

Organizator:

www.gmcpoland.pl

Rejestracja zespołów studenckich jest możliwa do 30 października.

GMC posiada akredytację Europejskiej Fundacji Rozwoju Zarządzania.

»pół miliona

uczestników na świecie!

»25 tysięcy

absolwentów w Polsce!

Zapraszamy drużyny studenckie (3-5 osób) do rywalizacji w wirtualnym świecie biznesu!

» pierwsze praktyki zarządzania » weryfikacja i uzupełnienie wiedzy akademickiej » rozwój umiejętności: pracy w zespole,

planowania strategicznego, myślenia analitycznego

» rywalizacja z profesjonalistami i praktykami biznesu

» nawiązanie kontaktów z potencjalnymi pracodawcami

» promocja finalistów w prasie i Internecie » możliwość udziału w Finałowej Gali » dla zwycięzców – reprezentowanie naszego

kraju na Finałach Światowych, studia podyplomowe w Akademii Koźmińskiego

Korzyści dla studentów:

GMC to największa na świecie symulacja biznesowa - interaktywna gra strategiczna, w której zespoły wcielają się w role zarządów wirtualnych przedsiębiorstw. Projekt jest przeznaczony dla studentów i menedżerów, którzy chcą rozwijać twarde, biznesowe umiejętności, jak i miękkie, związane ze współdziałaniem, wzajemną motywacją.

Współpraca Patron internetowy

WARSAW

short logotype

horizontal logotype

vertical logotype

Page 14: ToZależy no.6

Makroekonomia14

Underemployment sprawia wiele problemów statystykom i ekonomistom, zaczynając od polskiego tłumaczenia – „zatrudnienie poniżej kwalifikacji”, które jest nieco karkołomne, lecz moim zdaniem najodpowiedniejsze1. Inny problem to sprecyzowanie, co konkretnie ten wskaźnik ma mierzyć. Obecnie odnosi się on do trzech rozłącznych zjawisk:

− nadmierne wykwalifikowanie (ang. overqualification), czyli osoba, która posiada specjalistyczne wyszkolenie (np. wyższe wykształcenie kierunkowe, specjalne licencje, względnie duże doświadczenie) pracuje na stanowisku, które nie wymaga tych umiejętności, np. lekarz pracujący jako

1 Alternatywne tłumaczenie to „niepełne wykorzystanie siły roboczej”, które przedstawia problem z punktu widzenia makroekonomii. Angielski termin jest częściej stosowany w odniesieniu do człowieka, który jest “underemployed”, tzn. zatrudniony poniżej kwalifikacji.

dostawca, inżynier będący sprzedawcą, itd. Jest to jednocześnie najtrudniejsza kategoria do zmierzenia, gdyż tak ostre przypadki jak wyżej wymienione zdarzają sie dość rzadko, a statystycy częściej mają do czynienia z zatrudnieniem poniżej kwalifikacji na poziomie stanowisk w ramach jednej branży;

− mimowolna praca w niepełnym wymiarze godzin (ang. involuntary part-time), osoba, która ma możliwość i chęć pracować w pełnym wymiarze godzin, lecz znajduje tylko możliwość zatrudnienia na niepełny etat. To dość „łatwa” do zmierzenia kategoria, wystarczą badania ankietowe. Warto zauważyć, że część pracowników z tej grupy nadal poszukuje pracy, tj. innej w pełnym wymiarze godzin lub dodatkowej na niepełnym etacie;

Zatrudnienie poniżej kwalifikacji to zjawisko, które bada się od kilku-kilkunastu lat, lecz jednocześnie nie mówi się o nim prawie wcale. Łatwiej jest skomentować stopę bezrobocia, gdyż ten atrybut gospodarki jest względnie łatwo mierzalny, zrozumiały i ważny dla przeciętnego przedstawiciela nowoczesnego społeczeństwa. Jednak do określania sytuacji gospodarczej, samo zjawisko bezrobocia nie wystarczy. Ekonomiści, w myśl zasady: «pokaż mi swój rynek pracy, a powiem ci jaką gospodarką jesteś», badają charakterystyki tego rynku. Jedną z najważniejszych cech rynku pracy, poza bezrobociem, jest właśnie zjawisko underemployment.

Normalne zjawisko czy nowa dysfunkcja rynku pracy? UNDEREMPLOYMENT. tr

ippy

4u.d

evia

ntar

t.com

bqw

.dev

iant

art.c

om

Page 15: ToZależy no.6

Makroekonomia 15

− przerost zatrudnienia (ang. overstaffing), co oznacza zatrudnianie nadmiernej liczby pracowników, których możliwości nie są w pełni wykorzystywane. Nie należy tego mylić (choć jest to powiązane) z przetrzymywaniem pracowników przez okres recesji (aby oszczędzić na kosztach ponownej rekrutacji), bo przerost zatrudnienia ma miejsce niezależnie od cyklu koniunkturalnego. Niestety, na poziomie całej gospodarki, nie da się zmierzyć tej grupy pracowników, choć można próbować szacować ukryte bezrobocie2;

Z punktu widzenia makroekonomisty, underemployment jest szacunkową, dodatkową miarą oddalenia produkcji bieżącej od produkcji potencjalnej, którą należy uwzględnić w zależności poziom bezrobocia-wzrost gospodarczy. W tym wypadku pożądaną wartością jest wskazanie 2 Jest to inna nazwa przerostu zatrudnienia.

bliskie zera przy naturalnej stopie bezrobocia. Innymi słowy, prawie wszyscy pracownicy w gospodarce są wykorzystywani adekwatnie do swoich możliwości i nie zasilają grupy bezrobotnych.

Społeczny punkt widzenia jest nieco inny. Zatrudnienie poniżej kwalifikacji w krótkim terminie zawsze będzie lepsze niż brak pracy. Jednak im dłużej osoba pracuje na stanowisku, które uważa za wymagające umiejętności poniżej jego kwalifikacji, a także nie jest w stanie znaleźć nowej, bardziej adekwatnej pracy, tym większa jej frustracja, co może powodować szereg różnego rodzaju chorób lub zachowań społecznych, podobnie jak u osób bezrobotnych. Jednak w tym przypadku te zachowania zwykle są nierozumiane, bo te osoby mają w końcu źródło utrzymania.

Teoria teorią, ale jak to się liczy?

Statystyczna miara underemployment zależy od kraju przeprowadzającego badanie, lecz żadna

MATEUSZ NIEWIŃSKI

Trader, analityk, publicysta, blogger. Student II roku studiów II stopnia na kierunku Finanse i Rachunkowość w SGH. Na rynku Forex od grudnia 2006. Ulubione tematy to opcje walutowe i midterm trading. Ciągle doskonali swoje umiejętności, chętnie poznaje nowe dziedziny finansów. Aktywnie działa na rzecz polskiej społeczności traderów Forex.

blad

eren

nard

.dev

iant

art.c

om

Page 16: ToZależy no.6

Makroekonomia16

z nich nie oddaje w pełni skali zjawiska. W USA, Bureau of Labor Statistics, przedstawia kilka miar stopy bezrobocia, a zjawisko zatrudnienia poniżej kwalifikacji całkiem nieźle, choć bardzo umownie, określa różnica między stopą bezrobocia U-6 i U-3 lub różnicy między U-6 i U-4. Miarą oficjalną jest stopa U-3, a wszystkie z wyższą cyfrą zawierają informacje o dodatkowych osobach, które nie są „oficjalnie bezrobotne”. To całkiem dobre przybliżenie poziomu underemployment. Stopa U-6 zawiera oprócz oficjalnie bezrobotnych także tzw. discouraged workers3, inne osoby, które z różnych przyczyn nie poszukiwały ostatnio pracy oraz osoby zatrudnione w niepełnym wymiarze godzin, które mogą pracować na pełny etat4. Te kategorie można różnie traktować, ostatnia doskonale pokrywa jedną ze składowych omawianego zjawiska, a pozostałe odnoszą się do niego w pewnej części.

W Unii Europejskiej badania są nieco dokładniejsze, bo publikowane są oddzielne wskaźniki określające jako procent siły roboczej: zatrudnionych poniżej kwalifikacji w niepełnym wymiarze godzin, osób poszukujących pracy, lecz niedostępnych natychmiastowo (bezrobotnych lub zatrudnionych, którzy szukają nowej pracy, lecz w najbliższym czasie nie mogą jej wykonywać) oraz osób mogących pracować, lecz nieposzukujących

3 To osoby niewliczane do siły roboczej, ponieważ nie poszukiwały zatrudnienia w ciągu ostatnich czterech tygodni, lecz są zdolne i chętne do znalezienia pracy w przyszłości. 4 Więcej informacji jest dostępne na oficjalnej stronie BLS: www.bls.gov/lau/stalt.htm

pracy5.

Te miary nie odzwierciedlają w całości, ani nawet w większej części, definicji underemployment przedstawionej na początku artykułu, lecz są powszechnie stosowane przez statystyków i ekonomistów. Nie bez podstaw. Osoby zdolne do pracy, lecz jej nieposzukujące w ciągu ostatnich kilku tygodni, to tylko miara statystyczna i trzeba pamiętać, że nawet jeśli nie są wliczane do siły roboczej, pracować mogą. Z pewnych powodów nie znalazły pracy, być może jej nie było, ale całkiem prawdopodobnie nie znaleźli odpowiedniej pracy do swoich kwalifikacji. Można więc nadać tej grupie etykietę «niezatrudnieni z powodu braku odpowiedniej pracy”. W jakimś stopniu oddaje to zjawisko zatrudnienia poniżej kwalifikacji – co więcej, jest stosowane w większości opracowań, stąd te same wskaźniki będą omówione w dalszej części artykułu.

A w jaki sposób powinno się odpowiednio mierzyć tę grupę społeczną? Ciekawą koncepcją jest badanie bezrobocia wśród młodych, gdyż ta grupa jest najbardziej narażona na zatrudnienie poniżej kwalifikacji. Szczególnie ciekawe jest monitorowanie losu absolwentów szkół zawodowych, techników i uczelni wyższych, aby sprawdzić, czy pracują w wyuczonym zawodzie i na stanowiskach umożliwiających im wykorzystanie nabytej wiedzy i umiejętności. Bardziej odważną 5 Informacje o tych wskaźnikach są dostępne na stronie internetowej Eurostatu i obejmują szczegółowe statystyki: http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/Underemployment_and_potential_additional_labour_force_statistics

Rys. 1 Suma wskaźników dot. underemployment w UE na przykładzie UE (27 krajów), strefy euro (17 krajów) i Polski.

źródło: Eurostat

Page 17: ToZależy no.6

Makroekonomia 17

koncepcją byłoby zadanie kilku dodatkowych pytań podczas spisów powszechnych, które odnosiłyby się do problemu zatrudnienia poniżej oczekiwań. Z pewnością byłaby to najdokładniejsza dostępna miara tego zjawiska.

Underemployment na świecie

Obserwując poziom zatrudnienia poniżej oczekiwań (w wersji statystycznej) i wykorzystując dostępne informacje, można wyciągnąć kilka ciekawych wniosków. Niestety, nawet te dane należy przyjąć z dystansem, gdyż okres ich zbierania nie jest jeszcze dostatecznie długi. Obejmują około dwóch cykli gospodarczych w USA i jeden niepełny w Europie. Na stronie internetowej International Labour Organistation możemy znaleźć komunikat: The ILO does not have a program of statistical compilation of underemployment series6. Problem nie jest nowy, wcześniej nie zwracano na niego uwagi, a dopiero w 1994 roku, w Stanach Zjednoczonych, spróbowano wstępnie oszacować zjawisko. W Europie pełne dane są dostępne dopiero od 2008 roku (część z nich od 2005 roku). Ale mimo tych braków można wyciągnąć sensowne wnioski.

6 “ILO nie posiada statystycznego zbioru danych dotyczącego zatrudnienia poniżej kwalifikacji”, źródło: www.ilo.org/global/statistics-and-databases/statistics-overview-and-topics/underemployment/national-statistics-and-ilo-compilation-activities/lang--en/index.htm

Wcześniej, kilka statystyk dla Stanów Zjednoczonych, opartych na różnicy między wskaźnikami U-6 i U-3: przeciętna wartość spreadu to 4,6 punktu procentowego, minimalna 2,9 (2000r.), maksymalna 7,3 (2010r.). Średnia wartość jest zawyżona przez ostatni kryzys, gdyż w czasie poprzedniej recesji wartość różnicy była zbliżona do 4 p.p. W Europie wielkość underemployment jest mierzona poprzez zsumowanie trzech wymienionych wcześniej w artykule wskaźników, i w badanym okresie wynosi ok. 5 proc. dla krajów Unii Europejskiej (EU27) i ok. 3,6 proc. dla Polski. Wyjaśnienie znacznie niższego odczytu może być poparte przez szereg hipotez:

− Eurostat i GUS mają nieco inne metodologie liczenia stopy bezrobocia, dlatego dla Polski jest ona średnio niższa o kilka p.p. według Eurostatu. Te same zjawisko może występować w przypadku innych miar związanych z rynkiem pracy;

− przeciętnie Polacy mają niższe kwalifikacje zawodowe (mimo rosnącego odsetka osób z wyższym wykształceniem), dlatego szybciej znajdują pacę odpowiadającą ich kwalifikacjom (mniejszy problem nadmiernego wykwalifikowania) lub stają się bezrobotni;

− dobrze wykształceni młodzi Polacy mają większe szanse na zatrudnienie

Rys. 2 Porównanie stóp bezrobocia w Stanach zjednoczonych: U-3 i U-6, kolorem szarym zaznaczono okresy recesji.

źródło: BLS, Macrotrends

Page 18: ToZależy no.6

Makroekonomia18

w dowolnym kraju Unii Europejskiej, w zawiązku z czym pracują na stanowisku odpowiadającym ich kwalifikacjom poza granicami Polski;

− Polska jest zaliczana do krajów emerging markets i cechuje się średnio wyższym wzrostem gospodarczym, a więc większymi możliwościami do tworzenia nowych miejsc pracy, które wymagają wysokich kwalifikacji7.

Niezależnie od tego, która z hipotez wyjaśnia sytuację, można zauważyć, że w Polsce, przynajmniej statystycznie, problem ten jest mniejszy w porównaniu z krajami bardziej rozwiniętymi. Jednak aby wyznaczyć bardziej ogólne trendy, trzeba spojrzeć na dane opisujące amerykański rynek pracy i na ich podstawie można stwierdzić, że:

− zatrudnienie poniżej kwalifikacji jest cykliczne podobnie do zjawiska bezrobocia8;

− w czasie recesji stopa underemployment rośnie szybciej niż stopa bezrobocia, a w czasie ożywienia spada szybciej niż stopa

7 Ta hipoteza jest poparta założeniem, że zjawisko underemployment zachowuje się podobnie jak zjawisko bezrobocia, co wymaga nieco bardziej zaawansowanego dowodu. W tym przypadku to założenie zostało sformułowane na podstawie nieekonometrycznej analizy danych statystycznych z USA i Europy. 8 Wniosek wyciągnięty w oparciu o oficjalne wskaźniki, jednak raport Measuring Underemployment at the County Level przedstawia badania, które dowodzą, że nie istnieje związek statystyczny między bezrobociem i underemployment (str. 11).

bezrobocia (spread się zwęża), a więc jest bardziej zmienna;

− stan zatrudnienia poniżej kwalifikacji jest swoistym buforem między zatrudnieniem oczekiwanym a pozostaniem bez pracy, co jest szczególnie ważne podczas recesji (pozwala zachować obywatelom źródło dochodu);

− (hipoteza) stopa underemployment jest średnio niższa w krajach rozwijających się (o średnim wyższym wzroście gospodarczym) niż w krajach rozwiniętych9;

− (ciekawostka) wzrostu stopy zatrudnionych poniżej kwalifikacji można się spodziewać między grudniem a styczniem, a spadku między lutym a marcem, najbardziej stabilnym miesiącem jest grudzień10 (dotyczy tylko USA).

Powyższe wnioski nie są przełomowe i sprowadzają się do zastosowania analizy zbliżonej do analizy bezrobocia. Zresztą, teoria ekonomii sugeruje, aby traktować zjawiska bardzo podobnie, gdyż są 9 Wymaga to badań i odpowiedniego dowodu, sam przykład Polski i innych rozwijających się członków UE nie jest wystarczający. Dlatego podaną hipotezę należy na razie traktować jako luźne spostrzeżenie. 10 Technicznie: odczyty spreadu wyższego w styczniu niż w grudniu (11 przypadków wzrostu i 4 utrzymania na próbie 20) i niższego w marcu niż w lutym (13 przypadków spadku i 3 utrzymania na próbie 20). W grudniu wielkość spreadu była taka sama jak w lutym 9 razy na 19 przypadków (przy trzech możliwych wynikach: wzrost, spadek, utrzymanie). Próba jest zbyt mała, a te wnioski nie mogą być potwierdzone w danych Eurostatu (odczyt kwartalny), więc należy to traktować jako statystyczną ciekawostkę.

CIEKAWE PUBLIKACJE:

1. Under-employment crisis. A TUC analysis of under-employment across the UK, http://bit.ly/N82hoD

2. Measuring Underemployment at the County Level by Christopher R. Bollinger, Paul Coomes and Mark Berger, August 2003, http://www.ukcpr.org/Publications/Bollinger_DP2003-08.pdf

3. Unemployment and inactivity in the 2008–2009 recession, Paul Gregg and Jonathan Wadsworth, http://tinyurl.com/napm35w

4. An econometric analysis of underemployment and overemployment in the UK, Jose Luis Iparraguirre and Hui-Yu Tseng, http://tinyurl.com/npmahe9

5. Psychological Effects of Unemployment and Underemployment, Kerry Bolger, PhD, www.apa.org/about/gr/issues/socioeconomic/unemployment.aspx

6. Underemployment and potential additional labour force statistics, Eurostat, http://tinyurl.com/nfpk6cj

Page 19: ToZależy no.6

Makroekonomia 19

silnie powiązane. Pozostaje mieć nadzieję, że w przyszłości jakiś sławny ekonomista obierze za temat swoich badań ilościową zależność między wzrostem gospodarczym, stopą bezrobocia i stopą underemployment oraz dostarczy nowych ciekawych wniosków w tej dziedzinie.

Skutki ekonomiczne i społeczne

We wcześniejszych akapitach wykazano, że zatrudnienie poniżej kwalifikacji jest podobne do bezrobocia. Można pomyśleć, że ich skutki są takie same. To fakt, są one podobne, lecz pojawiają się w innym czasie i z pewnego punktu widzenia, skutki underemployment są „łagodniejsze”. Z prawie każdego punktu widzenia, lepiej być zatrudnionym11 niż bezrobotnym, jednak te dwa różne stany wywołują różne implikacje ekonomiczne. Zatrudnieni nie są uwzględniani w oficjalnej stopie bezrobocia, bo albo pracują w niepełnym wymiarze godzin albo są wyłączeni z siły roboczej. Poza tym, coś produkują, świadczą usługi itp., tylko w stopniu o wiele niższym niż ich możliwości. W związku z tym mają swój udział w tworzeniu PKB, choć nie tak duży, jaki potencjalnie mogliby mieć. To ma znaczenie głównie w rozważaniach teoretycznych, szczególnie, że oficjalnie ta grupa nie jest zbyt liczna (wyżej pokazano, że przeciętny poziom underemployment to ok. 4-5% siły roboczej), więc na realny wzrost PKB wpływ ma niewielki. Poza tym, nie trzeba subsydiować tej grupy (np. zasiłek dla bezrobotnych), płaci ona świadczenia (podatek dochodowy i inne, np. ubezpieczenie zdrowotne), a także stanowi bardziej aktywnych konsumentów w porównaniu do bezrobotnych. Grupa zatrudnionych poniżej kwalifikacji powoduje 11 Od tego momentu zatrudniony i zatrudniony poniżej kwalifikacji będą używane wymiennie.

mniejsze skutki ekonomiczne niż bezrobotni, przez co jest najczęściej ignorowana.

Pod względem oddziaływania na społeczeństwo, grupa underemployed także nie wpływa na nie tak negatywnie jak grupa bezrobotnych. Głównie dlatego, że ciągle mają źródło dochodów i mogą zaspokoić przynajmniej podstawowe potrzeby swoje i swoich rodzin. Jednak osoby zatrudnione na mniej ważnych, mniej płatnych lub mało prestiżowych stanowiskach, mogą się spotkać z wykluczeniem społecznym i negatywnymi reakcjami innych ludzi. Mogą

też czuć się pozbawione pomocy instytucji państwowych, jako osoby, które ostatecznie mają pracę, i nie otrzymać np. darmowych świadczeń, które otrzymują bezrobotni. Najpoważniejszym skutkiem społecznym może być emigracja do krajów, w których łatwiej znaleźć zatrudnienie w danej dziedzinie, co można zaobserwować obecnie w Unii Europejskiej, poprzez np. wchłanianie specjalistów z południa i wschodu Europy przez kraje Europy Zachodniej.

Podsumowanie

Problem underemployment nie jest zjawiskiem nowym, lecz w poprzednich dekadach nie przywiązywano do niego jakiejkolwiek wagi. Dopiero niedawno podjęto próby sprecyzowania zjawiska, zmierzenia go i wyciagnięcia konstruktywnych wniosków. Niestety, oficjalne miary, choć przybliżają wielkość grupy zatrudnionych poniżej kwalifikacji, nie oddają w pełni obrazu zjawiska. Można by wiele dyskutować o dysproporcjach ze względu na pochodzenie, płeć i wiek, ale to nie ma znaczenia, dopóki nie pojawią się odpowiednie badania tej grupy. Nie do końca wiadomo, czy underemplyment to tylko dodatek do bezrobocia i podlega tym samym prawom, czy to zupełnie inne zjawisko, które należy dopiero opisać teoretycznie. Zwłaszcza, że badania BLSu wskazują na występowanie tej zależności, a inne badania, np. raport Measuring Underemployment at the County Level i dane Eurostatu (które jednak są zbyt mała próbą aby wyciągnąć istotne wnioski) – już nie. Pozostaje tylko mieć nadzieję, że ten problem zostanie zbadany i rozstrzygnięty, do czego zachęcam czytelników, zwłaszcza, ze to bardzo dobry temat na prace magisterską, jeśli nie nawet na rozprawę doktorską.

12m

ilebr

.wor

dpre

ss.co

m

Page 20: ToZależy no.6

Makroekonomia20

Pod koniec XVIII wieku Wielka Brytania, która po wojnie siedmioletniej była już wówczas największą potęgą świata, podjęła kompletnie nieudaną próbę nawiązania stosunków handlowych z Chinami. Szefem poselstwa Jerzego III do Państwa Środka był George Macartney, który zupełnie nie potrafił odnaleźć się w chińskiej rzeczywistości – choć teza ta jest kontrowersyjna wśród historyków, to uważa się, że fiasko rozmów brytyjsko-chińskich wynikało ze zbyt butnej postawy dyplomaty w stosunku do cesarza Qianlong. Jakkolwiek było naprawdę, niewątpliwe jest, że wizyta Macartneya doprowadziła do zderzenia dwóch zupełnie innych światów, które dotychczas niczego o sobie nawzajem nie wiedziały. Plonem tej wizyty były również słynne słowa: „nic bardziej mylnego niż ocenianie Chin według norm europejskich”, znane obecnie szeroko jako tzw. „aksjomat Macartneya”. Truizm – mógłby ktoś rzec. Zaskakujące jest jednak, jak często trzeba go przypominać i jak wiele „europejscy” (według realiów XXI wieku po prostu zachodni) obserwatorzy tracą, gdy o nim zapominają.

Czy mamy się czego bać, czyli o ryzyku finansowym w Chinach

panoramio.com

Page 21: ToZależy no.6

Makroekonomia 21

Świetnym przykładem takiego postępowania jest przerażenie z jakim wiele analityków opisuje czerwcowe wydarzenia na chińskim rynku międzybankowym nazwane chińskim „credit crunch” (co dosadnie pokazuje, że o „banalnym” aksjomacie Macartneya kolejny raz zapomniano). 20 czerwca stopa jednodniowych (overnight) pożyczek międzybankowych w Chinach wyniosła rekordowe 13,85%, a najistotniejsza stopa tego rynku – 7-dniowa stawka repo – 12,06% (obie stopy oczywiście w skali roku). Niedługo

później indeksy chińskich akcji znalazły się na poziomach najniższych od czterech lat. W większości komentarzy mogliśmy przeczytać o niespodziewanym wzroście ryzyka kryzysu finansowego w Chinach i niedoborze płynności na tamtejszym rynku międzybankowym. Prawdziwe nie jest ani jedno, ani drugie, a sytuacja podczas „credit crunch” z czerwca i następujących po nim tygodniach każe raczej postawić tezę, że chiński sektor finansowy jest bezpieczniejszy i stabilniejszy niż wcześniej.

BARTOSZ WASILEWSKI

Student Wydziału Prawa i Administracji UW oraz Szkoły

Głównej Handlowej. Na rynku akcji GPW od lipca 2009 roku, na rynku CATALYST od sierpnia 2011. Zwycięzca VII edycji Akademii Giełdowej. Makler papierów wartościowych z uprawnieniami do wykonywania czynności doradztwa inwestycyjnego. Obecnie pracuje w firmie doradztwa compliance.

Wykres 1. Struktura terminowa stawek lokat na rynku międzybankowym Chin z 28 czerwca 2013. Opadający kształt krzywej świadczy o chwilowym braku podaży pieniądza krótkoterminowego, a nie o utracie "zaufania" między uczestnikami rynku.

źródło: shibor.org za: cpInvestments.pl

panoramio.com

Page 22: ToZależy no.6

Makroekonomia22

Kiedy podobny „credit cruch”, czyli nagły wzrost kosztu finansowania wskutek niedoboru płynności na rynku międzybankowym, będący zazwyczaj wynikiem braku zaufania między uczestnikami tego rynku, zdarza się w państwach zachodnich, stanowi to poważne zagrożenia dla ich systemu finansowego. Brak płynności może doprowadzić do szybkiego bankructwa mniejszych banków uzależnionych od finansowania na rynku międzybankowym. Podmioty te operują zwykle na tak wysokim poziomie dźwigni finansowej, że nawet kilkudniowy brak dostępu do rynku może doprowadzić do ich bankructwa. W takim wypadku konieczne jest albo bankructwo, albo dokapitalizowanie banku przez dotychczasowych lub nowych właścicieli. Aby tego uniknąć, bank centralny zwykle „wstrzykuje” do systemu dodatkową płynność w postaci taniej gotówki dla każdego – scenariusz doskonale znany z amerykańskiego kryzysu zaufania po upadku Lehman Brothers we wrześniu 2008 roku. Ogromne rozmiary zachodnich rynków finansowych powodują, że takie działania są kosztowne, a czasem również nieskuteczne (szczególnie gdy kryzys zaufania trwa dłużej niż kilka dni).Warto zauważyć, że żadne z opisanych wyżej ryzyk nie ma szans na materializację w Państwie Środka. Chiński system finansowy jest bowiem diametralnie odmienny od zachodnich odpowiedników i nie powinien być „oceniany według ich norm”. Podział na bank centralny i banki komercyjne w Chinach jest całkowicie fikcyjny (przyjęty wyłącznie w celu porównania systemu chińskiego i zachodniego) z jednego prostego powodu: chiński sektor bankowy jest ściśle kontrolowany przez państwo. To nie bank centralny pełni rolę regulatora w swobodnym, co do zasady, handlu pieniądzem między bankami komercyjnymi. Nie jest też pożyczkodawcą ostatniej instancji, jak banki centralne na Zachodzie. Chiński system finansowy należy traktować raczej jako jedno wielkie przedsiębiorstwo w ramach którego dystrybuowane są środki należące do tego samego właściciela – państwa. Ten prosty i powszechnie przecież znany fakt implikuje kilka równie prostych wniosków. Po pierwsze, na chińskim rynku międzybankowym nie jest możliwy kryzys zaufania (państwo nie może przestać ufać samemu sobie). Po drugie, nie jest możliwe bankructwo żadnego z uczestników „rynku” bez wiedzy i woli państwa, gdyż państwo może zawsze nakazać pożyczenie pieniędzy przez jeden bank drugiemu bankowi

lub po prostu dokapitalizować podmiot mający kłopoty – i może to uczynić z dnia na dzień, nie martwiąc się o procedury demokratyczne czy protesty obywateli (jak w przypadku bailoutu amerykańskiego AIG). Pamiętajmy, że to chińska partia komunistyczna kontroluje, nie tylko banki „komercyjne”, ale i bank centralny, a przez to podaż pieniądza. Li Keqiang może drukować juany znacznie szybciej i znacznie bardziej efektywnie niż Ben Bernanke dolary!Podsumowując, należy stwierdzić, że chiński czerwcowy „credit crunch” nie spowodował wzrostu ryzyka kryzysu w sektorze finansowym w Chinach. Dlaczego twierdzę, że spowodował jego spadek? Źródłem tego ryzyka jest przede wszystkim brak wystarczających informacji o poszczególnych uczestnikach rynku. Po pierwsze, system bankowy w Chinach rozrasta się w tempie geometrycznym i Ludowy Bank Chin po prostu nie jest w stanie analizować, przetwarzać i interpretować wszystkich informacji o nim. Po drugie, chińskie banki, które były zmuszone do finansowania wskazanych przez partię komunistyczną inwestycji, nierzadko całkowicie chybionych, mają bardzo duży portfel złych kredytów, których rozmiary trudno nawet oszacować. Po trzecie wreszcie, dane przekazywane przez banki są zwykle fałszowane. Znamy ten mechanizm z polskiego systemu centralnie sterowanego – papier wszystko przyjmie, normy trzeba wyrabiać, premie dostawać, stanowiska zachowywać. O ryzyku systemowym nikt na niższych szczeblach władzy partyjnej nie myśli. Szeroko znany (zarówno wśród samych Chińczyków jak i analityków z Zachodu) jest fakt fałszowania danych o wzroście PKB przez władze lokalne. Gdyby dodać do siebie raportowane przez poszczególne prowincje dane o wytworzonym produkcie, chiński wzrost PKB byłby znacznie wyższy niż podawany przez Pekin. Podobnie jest z danymi z banków, szczególnie mniejszych operujących w niszach określanych (znów na modłę zachodnią) jako shadow banking. Jak bank centralny może zasypać tą dziurę informacyjną? Na przykład wywołując „credit crunch”. Zachowanie Ludowego Banku Chin przed, w trakcie i po wydarzeniach z czerwca wskazuje jednoznacznie, że stanowiły one kontrolowany eksperyment banku centralnego, który w ten sposób zidentyfikował podmioty narażone na zwiększone ryzyko płynności. Analitycy JP Morgan kilka dni po „credit crunch” przedstawili przekonujące wytłumaczenie jego przyczyn. Wzrost stawek pożyczek międzybankowych

Page 23: ToZależy no.6

Makroekonomia 23

zbiegł się w czasie z wprowadzeniem przez państwo zakazem fikcyjnych transakcji typu Sell-Buy-Back (S-B-B), wykorzystywanych przez mniejsze, lokalne chińskie banki do finansowania produktów inwestycyjnych typu Wealth Management Products (WMP). Oto jak wygląda ten mechanizm: najpierw bank pozyskuje bazę depozytową oferując WMP charakteryzujące się bardzo atrakcyjnym oprocentowaniem i bliskim terminem zapadalności. Aby sfinansować kosztowny produkt bank kupuje ryzykowne, wysoko rentowne obligacje korporacyjne o znacznie dłuższej zapadalności od WMP. W celu zlikwidowania powstającej w ten sposób luki płynności, bezpośrednio przez zapadalnością WMP bank sprzedawał obligację w ramach transakcji S-B-B innemu „zaprzyjaźnionemu” bankowi, wypłacał należną sumę posiadaczom WMP, sprzedawał nowy produkt tego typu i natychmiast odkupował rentowną i ryzykowną obligację. Po wprowadzeniu zakazu tego typu praktyk, banki,

które najsilniej angażowały się w ryzykowne produkty typu WMP, znalazły się pod wysoką presją płynnościową i musiały akceptować rosnące stawki pożyczek międzybankowych. Ludowy Bank Chin ma więc dobre informacje na temat podmiotów, w których koncentruje się ryzyko systemowe związane z WMP. Całą operację można rozumieć jako przeprowadzenie stress testów, podobnie jak czyni się to na Zachodzie, jednak nie w Excelu, lecz w praktyce. Stawki na rynku międzybankowym wróciły zaś do normy – w chwili pisania tego artykułu stopa overnight wynosiła 3%, a stopa tygodniowa 3,5%. Struktura terminowa również wróciła do normalności – krzywa dochodowości uwzględnia koszt płynności i jest rosnąca. Dwa miesiące po „credit crunch”, które wzbudziło przerażenie wśród zachodnich inwestorów, chiński rynek międzybankowy działa normalnie i płynnie, a bank centralny zdobył całą masę cennych informacji o uczestnikach tego rynku, jego głębokości i drożności.

Wykres 2. Uproszczony schemat finansowania tzw. Wealth Management Products przez banki chińskie.

źródło: Reuters za: zerohedge.com

Page 24: ToZależy no.6

Prawo24

REKLAMACJA BEZ PARAGONU

„Jeżeli towar konsumpcyjny jest niezgodny z umową, kupujący może żądać doprowadzenia go do stanu zgodnego z umową przez nieodpłatną naprawę albo wymianę na nowy, chyba że naprawa albo wymiana są niemożliwe lub wymagają nadmiernych kosztów.” Tak stanowi § 8 Ustawy z dnia 27 lipca 2002 r. o szczególnych warunkach sprzedaży konsumenckiej oraz o zmianie Kodeksu cywilnego (Dz. U. z dnia 5 września 2002 r.)Co jednak zrobić, gdy sprzedawca żąda od nas dowodu zakupu w formie paragonu?Zwrot towaru bez dokumentu fiskalnego sprzedawcy w Polsce nadal jest mało rozpowszechniony. Część z nas nie zabiera ich ze sklepu, inni gubią je w natłoku dokumentów, a ci, którzy je sumiennie przechowują najczęściej spotykają się z sytuacją, że po kilku miesiącach są całkowicie wypłowiałe i nieczytelne. Znane większości stwierdzenie „podstawą reklamacji jest paragon” zniechęca klientów do walczenia o swoje prawa. Warto jednak zauważyć, że stanowisko sprzedawców nie ma żadnego poparcia w przepisach prawa. Co więcej stwierdzenia „Do reklamowanego lub zwracanego produktu konieczne jest dołączenie paragonu” czy też „Podstawą przyjęcia reklamacji jest dowód

zakupu towaru (paragon fiskalny lub faktura)” zostały zawarte w rejestrze klauzul niedozwolonych prowadzonym przez Prezesa UOKiK. Na przedsiębiorcę posługującego się ww. stwierdzeniami może zostać nałożona kara pieniężna w kwocie do 10 % przychodu osiągniętego w roku poprzedzającym datę nałożenia na niego kary. Udając się z reklamacją musimy jedynie udowodnić fakt daty nabycia oraz miejsca zakupu przedmiotu. Potwierdzeniami zakupu są nie tylko paragony i faktury. Mogą nimi być wyciągi bankowe, umowy, wyciągi z kart płatniczych czy też kredytowych, a także oświadczenia: zarówno kupującego, jak i świadków będących z nami podczas zakupów. Wiele przedsiębiorstw odnotowuje sprzedaż za pomocą dodatkowych systemów

komputerowych. Często można spotkać się również z sytuacją, gdy przedsiębiorstwa przechowują nagrania z kamer monitorujących obiekt. Sprzedawca znając konkretną datę i godzinę – w ramach dobrej woli i w razie wątpliwości co do sprzedaży w jego przedsiębiorstwie towaru – może odnaleźć na rolkach kasowych kopię zagubionego przez nas paragonu. Wszystkie powyższe sytuacje mogą pomóc w udowodnieniu czasu oraz miejsca zakupu trefnego towaru.Sytuacja udowodnienia zakupu sprzedawcy wydaje się być jeszcze prostsza w przypadku zakupów internetowych. W takim przypadku warto posłużyć się: potwierdzeniem zamówienia towaru, korespondencją ze sprzedawcą, czy też przedstawieniem listu przewozowego. Każda z powyższych dokumentacji

weaponsman.com

Page 25: ToZależy no.6

Prawo 25

może wspomóc nasze starania o uznanie naszej reklamacji.Jeśli sklep nadal będzie kwestionował nasze prawa należy udać się z zaistniałą sytuacją do powiatowego lub odpowiednio miejskiego rzecznika konsumentów.Należy jednak pamiętać o drugiej stronie medalu. Sprzedawca, który udzielił nam reklamacji, musi fakt ten udokumentować na gruncie podatkowym. Ciężar jej uzasadnienia znajduje się po stronie przedsiębiorcy, który w prowadzonej przez siebie księgowości powinien posiadać dowody potwierdzające stan rzeczywisty. Takimi też dokumentami musiałby się okazać w przypadku kontroli skarbowej.W interpretacji indywidualnej, nr IBPP2/443-121/08/ICz z 12 maja 2008 r., dyrektor Izby Skarbowej w Katowicach stwierdził jednak, iż „zgromadzenie przez przedsiębiorcę dowodów (...) stanowiących dowód przeciwny do dowodu, jakim jest zapis z kasy

rejestrującej, przy uwzględnieniu wyjątkowego charakteru zdarzeń, może stanowić podstawę do skorygowania obrotu i kwot podatku należnego (...)”.Wydawane przez sprzedawców paragony są nietrwałe. Ich całkowita nieczytelność następuje średnio po 7-8 miesiącach. Znane większości są legendarne i zarazem śmieszne formy wydłużania ich przydatności (przetrzymywanie zafoliowanych w lodówce, obklejanie taśmą bezbarwną, czy

też prasowanie już nieczytelnego dokumentu, które powoduje efekt negatywu).Jeżeli chcemy ułatwić zarówno sobie jak i sprzedawcy życie, niezwłocznie po otrzymaniu towaru – kserujmy paragon, lub prośmy sprzedawcę o wystawienie faktury (mamy do tego prawo w ciągu 7 dniu) czy też w przypadku przedsiębiorcy niebędącego czynnym podatnikiem podatku VAT – rachunku (możemy się ubiegać o jego wystawienie w ciągu 3 miesięcy).

EWA KOŚLACZ

Studentka Szkoły Głównej Handlowej. Absolwentka i stypendystka rektora UW na kierunku Finanse i Rachunkowość. Specjalista d.s. księgowości w biurze rachunkowym ProPIT. Autorka publikacji podatkowych oraz ubezpieczeniowych w dzienniku Rzeczpospolita.

info.milestoneadvisors.net

Page 26: ToZależy no.6

To Zależy26

Ministrowie finansów w każdym kraju na świecie są poddawani nieustannej krytyce przez obywateli, ekonomistów i opozycję. Są „winni” wysokich podatków, deficytu budżetowego, zbyt małych wydatków, zmian w systemach emerytalnych bądź ich braku, a czasem nawet wini się ich za zbyt dobrą koniunkturę. Nie inaczej jest w Polsce. Przez ostatnich kilka miesięcy minister Rostowski jest krytykowany za każdą z wyżej wymienionych sytuacji. Ale czy to zasłużona krytyka, czy tylko opozycyjna paplanina? Mateusz Niewiński

Minister Finansów Jacek Rostowski – dobry czy zły?

W tym numerze Rubryka “To Zależy” była jeszcze trudniejsza do zredagowania niż kiedykolwiek wcześniej. O ile w poprzednich pozycjach oceniane były zjawiska i przedsięwzięcia ekonomiczne, o tyle obecnie na warsztat poszła ocena osoby publicznej. I to jakiej – Minister Finansów Jacek Rostowski wyzwala w ostatnim czasie emocje u wszystkich ekonomistów zaangażowanych w dyskusje publiczną. Warto zwrócić również uwagę, iż w tejże dyskusji sami ekonomiści są niezwykle podzieleni. Wydawać by się też mogło, iż tak fundamentalne kwestie jak kierunek(!) reformy emerytalnej czy też sama polityka budżetowa, nie powinny być powodem do gorących, kilkumiesięcznych sporów, jednak jak rzeczywistość pokazała, w ostatnim czasie byliśmy świadkami niezwykłej polaryzacji środowiska ekonomicznego.

W takim razie jak to jest - czy Jacek Rostowski jest dobrym ministrem czy też nie? Dwa przeciwne stanowiska zajmują nasi redaktorzy, i obaj przedstawiają solidne argumenty w poruszanym obszarze. Zapraszamy do lektury!

Nie taki Minister straszny jak go malują

Jak sprawdzić, czy minister finansów w Polsce działa skutecznie? Można przytoczyć nagłówki z gazet, które udowodnią nam, że obecny wicepremier jest najgorszym ministrem wszechczasów. Ja wolę sprawdzić, jak minister i jego podwładni realizują cele postawione im przez prawo. Tak, przez prawo, a nie przez program partii. Nie interesują nas przecież cele polityczne, te minister wypełnia doskonale.

W Polsce zadania ministra finansów reguluje wiele aktów prawnych, m.in. Konstytucja RP, „Ustawa o Radzie Ministrów”, „Ustawa o działach administracji rządowej”, dwa zarządzenia i jedno rozporządzenie Prezesa Rady Ministrów1. Najpełniejsze wyjaśnienie znajdziemy w artykule 7., 8. i 12. z „Ustawy o działach...”, które mówią, że podstawowymi zadaniami ministra finansów są:

− opracowanie i wykonanie budżetu państwa,1 Na podstawie http://www.mf.gov.pl/ministerstwo-finansow/minister-finansow/zadania-ministra-finansow

− zarządzanie systemem finansowania sektora publicznego,

− zarządzanie długiem publicznym,

− realizowanie przychodów i wydatków budżetu państwa,

− inne zadania dotyczące przepisów celnych, gier losowych, rachunkowości, prawa dewizowego, kontroli skarbowej i funkcjonowania rynku finansowego w Polsce.

Z wymienionych wyżej zadań minister zdaje sprawozdanie, szczególnie dotyczące wykonania budżetu państwa, które musi zostać przyjęte przez Sejm. Nawet jeśli obowiązuje dyscyplina partyjna, to w przypadku rażących nieprawidłowości, Sejm nie przyjmie sprawozdania z wykonania budżetu.

Pojawiają się i inne zarzuty, m.in. o błędne założenia (a dokładniej prognozy) przyjęte w ustawach

Page 27: ToZależy no.6

To Zależy 27

budżetowych na dany rok. Przypomnę tylko, że sam minister nie liczy wzrostu PKB w Excelu (ani na wielkim kalkulatorze), a robią to ekonomiści zatrudnieni w ministerstwie. I jak każda prognoza, te ministerialne także są obarczone błędem. Nie można wymagać od ministra bezbłędności, a jedynie racjonalności. Tę cechę Jacek Rostowski niewątpliwie posiada. Poprawki budżetu w czasach recesji są częste, a te ostatnie wydają się bardziej przemyślane, niż uważają ich krytycy – mogą poprawić sytuację budżetu w 2014 roku.

Kolejnym zarzutem jest oskarżenie wicepremiera o próbę demontażu systemu emerytalnego. Fakty są takie, że ministerstwo przygotowało raport, minister go przedstawił i zaproponował różne opcje. Nie wszystkie możliwe, ale większość z nich. Nadal są to tylko propozycje, choć w fazie zaawansowanej. Co więcej, gdyby się nie pojawiły, można by uznać zachowanie ministra za niekompetentne! Wszystkim krytykom przypominam, że to nie minister zdecyduje o przyszłości systemu emerytalnego w Polsce, ale parlament i prezydent (ma prawo weta) rozważą propozycje rządu (wcześniej musi je zaakceptować premier). Choć nie każda wypowiedź ministra w tym temacie jest fortunna, to trzeba pamiętać, że jest on politykiem i musi wkomponować się w linię polityczną partii rządzącej.

Także wzrost gospodarczy jest silnie powiązany z wypowiedziami o ministrze finansów. Zwykle jemu przypisuje się winę za złą koniunkturę, lecz w czasach prosperity zapomina się o nim. Jednak przecież zawsze może powiedzieć, że „nie przeszkadzał swoimi

działaniami” w fazie wzrostowej cyklu gospodarczego. Niestety, albo na szczęście, cykl koniunkturalny nie jest zależny od ministra finansów. Może on jedynie podjąć działania stymulacyjne, stosując odpowiednią politykę fiskalną. Jednak warto zauważyć, że w zakresie oficjalnych obowiązków nie zostało ujęte dbanie o wzrost gospodarczy. Jest to zadanie bardziej odpowiednie dla ministra gospodarki, choć to ministra finansów wyposażono w narzędzia umożliwiające jego wykonanie. Oczywiście, minister finansów „to robi”, lecz zawsze przed tym zadaniem priorytet będą miały zadania ustawowe. Te „niedopatrzenie” prawne zmienia nieco rolę ministra finansów, czego krytycy nie zauważają.

Wreszcie najpoważniejszy zarzut – nadmierne zadłużanie państwa. Mało kto pamięta o tym, że minister ma niewielki realny wpływ na wydatki i przychody budżetu państwa. Mniej więcej trzy czwarte wydatków to wydatki prawnie zdeterminowane (tzw. wydatki sztywne)2, których zmiana wymaga zmian odpowiednich ustaw, do czego nie zawsze znajdzie się poparcie polityczne. Poza tym, minister może tylko stanowczo poprosić swoich kolegów z innych resortów, aby ograniczyli wydatki, lecz nie zawsze osiągnie kwoty, jakich potrzebuje. Także strona przychodowa nie jest pod pełną kontrolą ministra finansów – nie zmusi on Polaków, aby poszli do sklepów, zrobili zakupy i zwiększyli wpływy z podatków pośrednich (największa pozycja przychodów budżetu). Może on 2 Na podstawie http://orka2.sejm.gov.pl/BASleksykon.nsf/dokument.xsp?id=856882A0D5E71D55C1257A5C0045B693&SessionID=DAYOMRDVIK

Page 28: ToZależy no.6

To Zależy28

Zdaje się, że jako pierwszy Rostowskiego przejrzał jego były zastępca, prof. Stanisław Gomułka, który

z bycia wiceministrem zrezygnował w 2008 roku zaledwie po trzech miesiącach wspólnej pracy. Dlaczego? „Dziennikowi” zwierzał się, że czuł brak poparcia politycznego dla swoich działań reformatorskich. To powinien być sygnał ostrzegawczy, że szumnie zapowiadane reformy w dziedzinie finansów publicznych okażą się

tylko przysłowiową dużą chmurą. Nie był.

Rację ma Leszek Balcerowicz mówiący o „fałszerstwie intelektualnym” Rostowskiego,

w kontekście demontażu filara kapitałowego w systemie zabezpieczenia emerytalnego. To fałszerstwo dotyka wielu płaszczyzn. Po pierwsze, minister bez mrugnięcia okiem

dowodzi, że stopy zwrotu w ZUS-ie są wyższe niż w OFE, zupełnie ignorując fakt, że ZUS jest

jedynie projekcją politycznych pobożnych życzeń, a nie skarbcem z pieniędzmi. Po

drugie, krytykuje rentowność OFE, doskonale wiedząc

Gdy w 2007 roku Jacek Rostowski zostawał ministrem finansów, rynki odetchnęły z ulgą. Był przedstawiany przez media jako profesor i wybitny ekonomista. Koledzy po fachu

wypowiadali się o nim w samych superlatywach.

Dziś minister kompromituje się na każdym polu. Jego dawni poplecznicy mogą tylko czerwienić się z zażenowania słysząc wypowiedzi, które po prostu nie przystoją

osobie z wykształceniem ekonomicznym. Nawet magistrowi, którym minister jest, choć prasa i inni politycy często z rozpędu

tytułują go profesorem. Marcin Senderski

podnieść stawki podatku lub wprowadzić nowe, lecz może to zmniejszyć wpływy do budżetu (odsyłam do teorii Laffera). Jedyną opcją pozostaje więc zadłużenie, które w racjonalnej wielkości i otrzymane od krajowych wierzycieli, nie jest bardzo szkodliwe.

Na problem zarządzania finansami publicznymi trzeba też spojrzeć z punktu widzenia samego ministra. Musi on przede wszystkim spełnić wymagania swojego bezpośredniego zwierzchnika, czyli premiera. To premier powołuje go na stanowisko i dopóki nie będzie miał on powodów do odwołania (np. zaniedbanie obowiązków ustawowych), pozycja ministra finansów będzie silna. Minister nie tworzy samodzielnie polityki państwa, więc nawet jeśli ma pomysły dotyczące reform gospodarczych, to musi się liczyć ze zdaniem koalicyjnych kolegów.

Wicepremier Jacek Rostowski jest ministrem finansów najdłużej piastującym ten urząd. Ponowny wybór (na drugą kadencję) oraz nagrody uznanego

serwisu „Emerging Markets3” – „minister finansów roku” – stanowią dobrą rekomendację dla naczelnika polskich finansów. Pan wicepremier nie jest ministrem idealnym, wszak odrobina krytyki jeszcze nikomu nie zaszkodziła, lecz większość zarzutów jest sformułowanych bez zrozumienia sytuacji, a także po prostu źle zaadresowanych. Warto o tym pamiętać, krytykując każdego z urzędujących ministrów, bez względu na opcję polityczną...

3 http://www.bankier.pl/wiadomosc/ Jacek-Rostowski-najlepszym-ministrem- finansow-2012-roku-2656553.html

Gdziekolwiek jesteś, Panie Ministrze

Page 29: ToZależy no.6

To Zależy 29

jednak, ż e

ich portfel inwestycyjny jest mało

urozmaicony, a możliwości dywersyfikacji niewielkie, w praktyce

ograniczone do dychotomii akcje vs. obligacje. Tym samym, trzeci podnoszony zarzut, jakoby

OFE w złej wierze skupowały dług generowany przez państwo, jest bezpodstawny, bo de facto fundusze nie mają innej alternatywy.

Popularny stał się również pogląd przypisujący OFE sprawstwo bardzo wysokiego długu publicznego w Polsce. „Nie ma żadnej wątpliwości, że stworzenie filara kapitałowego znacznie zwiększyło dług publiczny” – powiedział Rostowski na konferencji prasowej 26 czerwca. Rzekome wytłumaczenie? Gdyby część naszych składek nie płynęła do prywatnych funduszy, rząd nie musiałby drukować obligacji. To również niedorzeczność, bo każdy, kto śledzi poczynania rządów wie, że są to instytucje będące w stanie zaabsorbować i przejeść każde pieniądze. Nawet gdyby część składki emerytalnej, obecnie przekazywanej sektorowi prywatnemu, trafiała do ZUS-u, nie powstrzymałoby to rządu przed parciem do jeszcze większego zadłużenia. Ostatnio okazało się, że nawet dość mocno umocowany w polskim prawodawstwie 50-proc. próg ostrożnościowy (tj. relacja długu publicznego do PKB) to żadna przeszkoda dla nienasyconego rządowego apetytu.

Minister Rostowski żeruje na niewiedzy społeczeństwa. Owszem, świadomość zawiłości ekonomicznych jest dziś dużo większa niż przed wybuchem kryzysu gospodarczego. Słowa takie jak spread, konsolidacja fiskalna czy wzrost gospodarczy nie są już czarną magią dla gospodarczego „laikatu”. Wielu pojęło nawet różnicę między procentem a punktem procentowym. Jednak sprawa OFE jest złożona i właściwy osąd wymaga również znajomości kontekstu, a tego od Polaków trudno wymagać. Minister rozgrywa prymitywne instynkty społeczeństwa, z reguły wrogo nastawionego do świata wielkiej finansjery. Przeciętny obywatel nie powinien mieć jednak żadnych podstaw, by bardziej ufać państwu niż rynkowi.

Rostowski krytykuje reformę emerytalną rządu Jerzego Buzka, która miała swoje niedociągnięcia, ale którą kolejne gabinety pozostawiały nietkniętą niczym trędowatego. On sam też przez kilka lat nie robił nic w celu obniżenia prowizji pobieranych przez OFE czy zliberalizowania możliwości inwestycyjnych funduszy. Ministrowi nie przeszkadza to jednak w wyrażaniu dosadnej krytyki funkcjonowania II filara.

Schizofrenia tej sytuacji polega na tym,

że minister krytykuje samego siebie. Tymczasem, nie ma żadnego

pola do krytyki OFE, gdyż fundusze reagują wyłącznie na bodźce jakich dostarcza im regulator.

Maksymalizują swój zysk w sposób często niemoralny, bo mogą to robić – i to jest ekonomiczny sens, jaki można by nadać popularnym prawom Murphy’ego.

Jest jedna cecha, za którą Rostowski powinien zostać potępiony w sposób szczególny. Tą przypadłością jest krótkowzroczność – występująca u wielu polityków, ale w ministerstwie finansów szczególnie niebezpieczna. Minister zdaje się nie przejmować, w jaki sposób przyszłe rządy wyczarują fundusze na wypłatę emerytur. Zachowuje się tak, jakby tabele z danymi demograficznymi oglądał ostatni raz kilka dekad temu, a obecny, alarmująco niski przyrost naturalny nie przemawia do jego wyobraźni. Rozbiórka części kapitałowej systemu jest potęgowana przez zaniechanie bolesnych, ale koniecznych reform w dziedzinie finansów publicznych, pomocy społecznej, systemu podatkowego, a także… systemu emerytalnego (który składa się jednak z czegoś więcej niż ciągłe wałkowanie tematu wysokości składki przekazywanej do OFE). Także kwestia rychłej akcesji do strefy euro zawisła w próżni. Te odważne kroki rekompensowane są zabiegami księgowymi, które skutecznie poprawiają wizerunek bilansu, ale zwalczają tylko objawy, a nie przyczyny zapaści. Ponadto, minister zamraża progi podatku PIT, zawiesza próg ostrożnościowy i regułę wydatkową, do tego krytykując tych posłów, którzy nie godzą się na te fatalne w skutkach kroki. Publicznie wyśmiewa na przykład Jarosława Gowina, dezawuując jego poglądy ekonomiczne i dając jasny sygnał, że dla niego wolnorynkowe korzenie ideowe Platformy Obywatelskiej to mitologia.

Minister Rostowski obniżył loty niemal do poziomu wicepremiera Pawlaka, który na przełomie 2008 i 2009 roku rzucił propozycję, by unieważnić niekorzystne dla polskich przedsiębiorców umowy na opcje walutowe. Niewiedza premiera Pawlaka nie raziła jednak aż tak bardzo. Dysonans poznawczy w przypadku Rostowskiego polega na tym, że kreuje się na odpowiedzialnego ekonomistę, fachowca w każdym calu. Tymczasem już dawno temu przekroczył Rubikon dzielący sferę ekonomii i polityki. Nawet w swojej krytyce Leszka Balcerowicza bardziej skupia się na wytykaniu jego porażek politycznych niż na dyskusji o meritum. Niezależnie od tego, czy minister zupełnie stracił kontakt z rzeczywistością, czy tylko udaje, fakty są bezlitosne. Wypowiedzi Rostowskiego (także te z sejmowej mównicy, na której prezentuje się bardzo elegancko, z pobłażaniem i wyższością traktując swoich adwersarzy) są schizofreniczne, populistyczne i przykre. Co się stało z człowiekiem, który w 2007 roku niósł nadzieję na odważne reformy?

To Zależy 29

Page 30: ToZależy no.6

Edukacja30

Eksperymenty naturalne mogą odmienić oblicze nauk ekonomicznych. Wydobyte z natury.

Zawsze mówi się studentom, że w ekonomii trudno o przeprowadzenie dobrego eksperymentu. To nie biologia ani chemia, gdzie można wytworzyć sztuczną, wyizolowaną rzeczywistość i swobodnie poddawać ją manipulacjom, badając zachowanie ulokowanych w niej organizmów albo substancji. Jaki rwetes by się podniósł, gdyby minister finansów – dla dobra nauki – stwierdził, że ukróci fundusze na edukację i służbę zdrowia o 50 proc., obserwując co stanie się z obywatelami? Niewykonalne.

elliseenchanted.deviantart.com

Page 31: ToZależy no.6

Edukacja 31

Nie znaczy to, że ekonomiści, szczególnie ci zajmujący się aspektami behawioralnymi, nie próbują stosować eksperymentów w swojej pracy, czego dowodem jest na przykład istniejące przy Uniwersytecie Warszawskim Centrum Ekonomii Eksperymentalnej oraz wydany w zeszłym roku pod redakcją dr. Michała Krawczyka podręcznik „Ekonomia eksperymentalna”. Ekonomiście jednak nie zawsze do twarzy w laboratoryjnym kitlu. Tego typu sztucznie zaprojektowane eksperymenty, choć niewątpliwie pożyteczne, są narażone na liczne problemy. Przede wszystkim, uczestnicy badania są świadomi tego, że znajdują się pod obserwacją (choć najczęściej nie znają jej celu). Ponadto, odtworzenie w warunkach laboratoryjnych wszystkich „smaczków” i bodźców występujących w „realu” jest niemożliwe. Rozwiązaniem tej bolączki jest identyfikacja tzw. eksperymentów naturalnych. Znamy liczne przykłady, kiedy to samo życie dostarczyło materiału na świetną pracę badawczą. Wielu z nas kojarzy z pewnością liczne studia poświęcone paradoksowi zmniejszonej śmiertelności w czasie strajku pracowników służby zdrowia. Dziesiątki prac na ten temat podsumowali w 2008 roku S.A. Cunningham, K. Mitchell, K.M.V. Narayan i S. Yusuf w artykule „Doctors’ strike and mortality: A review” dla pisma „Social Science & Medicine”. Podczas gdy w klasycznych badaniach decyzja o podziale próbki na grupę eksperymentalną i grupę kontrolną należy do laboranta, w eksperymentach naturalnych to sama natura, w sposób naturalnie obiektywny, „decyduje”

komu jaka przypadnie rola. Ponadto, zasadniczą zaletą eksperymentów naturalnych jest ograniczenie wpływu tzw. „unobservables”, czyli cech, których badacz najczęściej nie jest w stanie kontrolować, nie tylko w środowisku laboratoryjnym, ale i w ogóle w żadnym innym środowisku. Przykładowo, chcąc zbadać wpływ liczby lat spędzonych w szkole na późniejszy dochód

osobisty, jesteśmy narażeni na przeoczenie licznych „omitted variables”, tj. wykształcenia czy dochodów rodziców, dostępu do biblioteki czy faktu, że obiekt lubił w dzieciństwie puszczać bańki mydlane. Wyobraźmy sobie natomiast sytuację, w której rząd wprowadza regulację nakazującą ukończenie studiów wszystkim osobom urodzonym… w lutym. Trudno przypuszczać, by urodzeni w lutym różnili się

Marcin SenderskiSpecjalista ds. strategii w

CEMEX Polska, absolwent Szkoły Głównej Handlowej i Wydziału Nauk Ekonomicznych Uniwersytetu Warszawskiego, doktorant Akademii Leona Koźmińskiego.

Rys. 1 Sprzedaż papierosów per-capita w Kalifornii

Źródło: Abadie, A., Diamond, A. & Hainmueller, J. (2010) Synthetic Control Methods for Comparative Case Studies: Estimating the Effect of California’s Tobacco Control Program, Journal of the American Statistical Association, 105(490), s. 499.

Page 32: ToZależy no.6

Edukacja32

czymś strukturalnie od reszty społeczeństwa (np. częstszym puszczaniem baniek mydlanych w dzieciństwie). Mając tak losowo dobraną grupę magistrów można byłoby wiarygodnie ocenić, czy na tle reszty społeczeństwa ich dochody rzeczywiście zwiększyły się.Jak „rodzą się” eksperymenty naturalne? Najczęściej, jak w naszym hipotetycznym przykładzie powyżej, wynikają one z wybiórczej regulacji władz, odnoszącej się tylko do jakiejś części populacji, co jest częstym przypadkiem w krajach o ustroju federalnym. Ale nie tylko. Analizując dostępne publikacje można natrafić na różnorakie inne, obiektywne zjawiska, które sprawiły, że część pewnej populacji w sposób zupełnie losowy znalazła się pod działaniem bodźca, niedostępnego dla innej części populacji. I tak analizowano matki, które urodziły bliźniaki (przecież żadne szczególne cechy nie odróżniają ich od innych matek) albo pierwszorocznych studentów w akademikach,

przydzielanych losowo do pokojów, badając, jaki wpływ na ich oceny ma to, z kim dzielą pokój.Nie jest sztuką ani wartością zmierzyć ekonometrycznie, co było „przed” i „po” wprowadzeniu jakiejś regulacji. Sztuką jest natomiast pokazać, „co by było gdyby”, czyli dobrać tzw. „counterfactual”. Znaleźć subpopulację, która podlega pod dany bodziec i odpowiadającą jej subpopulację, której dany bodziec nie dotknął. Ważne, by mieć przekonanie, że obydwie subpopulacje są podobne pod wszystkimi innymi względami. Gdy A. Abadie, A. Diamond i J. Hainmueller chcieli zbadać skutki wprowadzonego w 1988 roku w Kalifornii surowego programu kontroli papierosów (tzw. Proposition 99), stanęli przed problemem, z czym porównać ten dość wyjątkowy jak na Stany Zjednoczone obszar. Wydawało się, że sprzedaż papierosów na głowę spadła dramatycznie, ale ekonomiści poszukiwali silnego dowodu. W celu dokonania rzetelnego porównania z

Kalifornią stworzyli stan… syntetyczny. Na podstawie szeregu parametrów obliczyli, że Kalifornijczycy są w 33,4 proc. podobni do mieszkańców stanu Utah, w 23,4 proc. do Nevady, w 19,9 proc. do Montany, w 16,4 proc. do Kolorado i w 6,9 proc. do Connecticut. Dopiero wtedy mogli z czystym sumieniem stwierdzić, że rzeczywiście efekt kalifornijski znacząco różnił się od efektu zaobserwowanego w stanie syntetycznym.Różnicę w jakości między eksperymentami sztucznymi a naturalnymi najlepiej obrazuje przykład stanu Tennessee. Kilka lat temu, władze stanowe sfinansowały (i w sumie chwała im za to) eksperyment, w którym dzieci losowo przydzielano w szkołach do małych lub dużych pod względem liczebności klas. Wydawać by się mogło, że wreszcie ludzkość uzyska nieobciążoną błędami metodologicznymi odpowiedź na pytanie, czy nauka w małych klasach rzeczywiście procentuje. Niestety, okazało się, że to nie takie proste. Bardziej zamożni rodzice lub ci, którzy większą wagę przykładali do edukacji swoich dzieci, wymuszali na dyrektorach, by przydzielali ich dzieci „poza konkursem” do mniej liczebnych klas, wbrew wynikom losowania. Nieuczciwość rodziców, którzy najwyraźniej i bez eksperymentu wiedzieli, że mniejsze klasy są lepsze, zrujnowała całą ideę i nie pozwoliła na rzetelne wyciągnięcie wniosków.Aby rozwiązać ten problem, naukowcy musieli cofnąć się aż do XII wieku. Właśnie wtedy jeden z czołowych żydowskich filozofów, Mojżesz Majmonides zaproponował (zapewne w efekcie jakiegoś mistycznego objawienia – bo na pewno nie

Źródło: Klick, J. & Wright, J.D. (2012) Grocery Bag Bans and Foodborne Illness, University of Pennsylvania Law School – Institute for Law and Economics, Research Paper No. 13-2, s. 10.

Rys. 2 Zgłoszenia na ostry dyżur związane z zatruciem pałeczkami E. Coli

Page 33: ToZależy no.6

Edukacja 33

w wyniku naukowej analizy), by klasy w szkole nie liczyły więcej niż 40 osób. Nic byśmy sobie z tego nie robili, ale historia chciała, że ten zapis wszedł na stałe do izraelskiego porządku prawnego. Minister edukacji Izraela nie odpuszcza żadnej szkole i nawet jeśli we wsi zabitej deskami znajdzie się 41 uczniów, trzeba stworzyć dwie klasy. Jak łatwo zauważyć, taka regulacja w sposób zupełnie losowy i sztuczny tworzy małe klasy. Była to woda na młyn dla J. Angrista i V. Lavy’ego, których artykuł ukazał się w 1999 roku w jednym z czołowych periodyków ekonomicznych, „Quarterly Journal of Economics”. Naukowcy nie odrzucili hipotezy, że dzieci uczące się w mniej licznych klasach osiągają lepsze wyniki w testach, ale ta konkluzja dotyczyła tylko starszych roczników.Prof. Jonathan Klick z University of Pennsylvania twierdzi, że oryginalny, często ręcznie zebrany zestaw danych źródłowych to klucz do sukcesu w dzisiejszym, wysoce konkurencyjnym świecie nauki. Rzeczywiście, wiele artykułów opublikowanych w ostatnich latach w najbardziej liczących się czasopismach z dziedziny ekonomii ma tę wspólną cechę, że ich autorzy poświęcili czas na zdobycie nieznanych dotychczas danych pierwotnych. Według prof. Klicka, deficyt nauk ekonomicznych nie polega na braku interesujących pytań badawczych, bo tych jest zawsze zatrzęsienie. To co wyróżnia czołowych ekonomistów, to umiejętność zidentyfikowania ciekawych eksperymentów naturalnych i pomysłowe zaprojektowanie badania.Profesor sam daje przykład. Wraz z J.D. Wrightem napisał

artykuł „Grocery bag bans and foodborne illness”. Jednym z naturalnych zastosowań eksperymentów naturalnych są bowiem różnego rodzaju zakazy, w tym przypadku – zakaz używania torebek foliowych w niektórych częściach Stanów Zjednoczonych (m.in. w kilku miastach w Kalifornii) i Kanady. Jak się okazało, taka niewinna i pozornie proekologiczna regulacja może być niezwykle śmiercionośna. Problem polega na tym, że alternatywą dla torebek plastikowych bywają najczęściej wielorazowe torby zakupowe, których co do zasady nikomu nie chce się prać (a nawet jeśli mielibyśmy to robić – do usunięcia niebezpiecznych dla zdrowia bakterii potrzeba temperatury 140 st. Celsjusza, której większość pralek nie osiąga). Po wprowadzeniu zakazu odnotowano statystycznie istotny przyrost hospitalizacji, a nawet zgonów, związanych z zatruciami układu pokarmowego. Przedstawiony obok wykres liczby nagłych wizyt lekarskich w San Francisco w wyniku zatruć wywołanych bakterią E. coli pokazuje wyraźną nieciągłość między okresami sprzed wprowadzenia regulacji a okresami jej obowiązywania. Jednocześnie, podobny wykres sporządzony dla innych miejscowości w Kalifornii nie wskazywał na żadne gwałtowne zmiany w liczbie zachorowań.Nie lada okazją do eksperymentu naturalnego było także losowanie obywateli wyznaczonych do służby wojskowej w Wietnamie. Jak pamiętamy z wielu amerykańskich filmów, rekrutom były przydzielane numerki, które następnie losowano w czasie transmisji telewizyjnej. Nieszczęśliwi

rekruci musieli stawić się przed komisją. Nie ma żadnego powodu, by podejrzewać, że numerki były przydzielane wedle jakiegokolwiek klucza, co zapewniało losowy dobór próby rekrutów. Skorzystał z tego ponownie J. Angrist, który zamierzał zbadać efekty odbycia służby wojskowej na dochody obywateli. Dla ciekawości czytelników podaję, że zarobki wietnamskich weteranów okazały się ok. 15 proc. niższe niż ich niewylosowanych kolegów.To zaledwie kilka z licznych, ciekawych i wiarygodnych pod względem naukowym przykładów na to, że eksperymenty naturalne mogą stać się mocną stroną nauk ekonomicznych i otwierają szerokie pole dla zastosowań ekonometrycznych. Nie znaczy to, że laboratoria są zupełnie bezużyteczne – mogą służyć ekonomistom do mikroanaliz behawioralnych, ale jak mówi najnowsza reklama jednego z browarów… najlepsze jest to, co z natury.

novatech-usa.com

Page 34: ToZależy no.6

Technologie34

Koniec wojen patentowych?Ponad 11000 – tyle patentów dotyczących technik telekomunikacyjnych przyznano koncernowi Samsung w latach 1993-2011. Pod względem wielkości dochodów otrzymanych z tytułu opłat licencyjnych palma pierszeństwa należy jednak, najprawdopodobniej, do koncernu Nokia. Na podstawie sprawozdania finansowego firmy można stwierdzić, że fiński koncern zarobił na nich w samym 2012 roku 1,28 mld €. W chwili obecnej nie ma na świecie producenta urządzeń mobilnych, który nie płaciłby Nokii opłat licencyjnych. Zwracając uwagę na dużą wartość rynku nie może dziwić zatem fakt, iż olbrzymia konkurencja popchnęła największe koncerny do walki o dominację, również na drodze rozpraw sądowych. Wszystko wskazuje jednak na to, że wojny patentowe dobiegają końca.Najlepiej świadczy o tym fakt, iż ostatnia wielka transakcja, której celem było nabycie patentów, miała miejsce w 2011 roku. Ponad 6 000 patentów należących do spółki Nortel Networks zostało nabytych za niebagatelną kwotę 4,5 mld $. Nabywcą zostało konsorcjum złożone z kilku największych spółek w branży: Apple, EMC, Ericsson,

Microsoft, Research In Motion i Sony. Rok 2012 przedstawia się pod tym względem dość ubogo – największą transakcją była sprzedaż części własnych patentów przez koncern AOL za 1,06 mld $. Była to ostatnia tak duża transakcja tego typu i, jak dotąd, nic nie wskazuje na to, by w najbliższej przyszłości miało się to zmienić. Niewiele

zmienia w tej materii głośna transakcja przejęcia oddziału Urządzeń i Usług koncernu Nokia przez Microsoft za 7,17 mld $ we wrześniu tego roku. Jej celem nie było bowiem przejęcie patentowego portfolio fińskiej spółki. Dlaczego jednak pościg za zdobywaniem jak największej liczby patentów tak szykbo

azfarrizvi.com

Page 35: ToZależy no.6

Technologie 35

stracił na tempie? Można w tym miejscu wyróżnić kilka przyczyn. Jedną z najważniejszych jest fakt, iż, jak się okazało, przychody z opłat licencynyjnych okazały się znacznie niższe niż przewidywano. Francuski koncern Alcatel-Lucent, posiadający łącznie około 30 000 patentów, jak dotąd nie osiągnął znaczących przychodów z tytułu opłat licencyjnych. Oczywiście wiele zależy również od jakości patentowego portfolio, jednak nawet znaczący zysk koncernu Nokia osiągnięty dzięki patentom wynoszący 1,28 mld € wydaje się niewielki w porównaniu z nakładami na badania i rozwój, które wyniosły w ciągu ostatnich 20 lat około 50 mld €.Poważnym problemem jest również kwestia dochodzenia swoich praw w sądzie. Dobrym przykładem mogą być tu sądowe zmagania pomiędzy koncernami Apple i Samsung. Procesy są bardzo kosztowne, a ich wynik trudny do przewidzenia. Najistotniejszy jest tutaj jednak fakt, iż ciągną się one latami. Rozstrzygnięcie dwóch niedawno zakończonych procesów pomiędzy koncernami Apple i Samsung trwało 2 lata, co stanowi całą epokę w świecie nowoczesnych technologii mobilnych. W momencie wydawania wyroku urządzenia, których dotyczyła rozprawa, były już przestarzałe, a ich produkcja w zasadzie się kończyła. Okazało się, że patenty można naruszać praktycznie bezkarnie – rozwiązania były praktycznie niechronione, a nakładane kary finansowe – za niskie, by pokryć poniesione straty. Co więcej, okazało się, że są one prawie niemożliwe do wyegzekwowania.Nie bez znaczenia jest też samo nastawienie sądów w kwestii

patentów. Dominujący staje się pogląd, iż oprogramowanie jest tak naprawdę jedynie implementacją matematycznych algorytmów, które nie podlegają ochronie patentowej. Wykres 1 przedstawia ilość przypadków, kiedy sądy w USA powoływały się na precedens prawny dotyczący sprawy Parker vs. Flook z 1978 roku, podczas którego tego typu interpretacja została po raz pierwszy zastosowana. W związku z tym, że dochodzenie swych praw w sądzie okazało się zupełnie niepraktyczne, a zyski z opłat licencyjnych rozczarowująco niskie, koncerny zmieniają swoją politykę dotyczącą patentów. Coraz

mniejszy nacisk jest kładziony na wzmacnianie patentowego portfolio – zmniejsza się liczba zgłaszeń oraz ilość transakcji mająca na celu ich nabycie. Nie oznacza to jednak, że wielcy producenci urządzeń mobilnych zrezygnowali z opracowywania innowacyjnych rozwiązań. Jest wręcz przeciwnie – zawodność ochrony patentowej zmusza koncerny do zwiększenia wysiłków w celu wprowadzania nowych, oryginalnych rozwiązań tak, by być o krok dalej niż konkurencja. Jak się okazuje, tylko w ten sposób mogą one wywalczyć sobie przewagę rynkową.

Kamil Prządka

Student III roku studiów licencjackich Wydziału Nauk

Ekonomicznych na Uniwersytecie Warszawskim oraz I roku studiów magisterskich Wydziału Mechatroniki na Politechnice Warszawskiej. Aktywny członek koła naukowego KNSG UW. Do jego zainteresowań należy rynek nowoczesnych technologii.

źródło www.chip.pl

Wykres 1. Ilość odwołań do precedensu dot. sprawy Parker vs. Flook przez sądy w USA

Page 36: ToZależy no.6

Opinie36

Przeanalizujmy najprostszy przykład zabiegu zwanego w literaturze fachowej idea placement (lokowanie idei) – „M jak miłość”. Brzmi znajomo, prawda? Oczywiście. Dlaczego więc nie wykorzystać tego, chyba od wielu już lat, najbardziej popularnego serialu w Polsce, aby wypromować organizację? Niemal każdy, kto na bieżąco oglądał ten serial przez jakiś czas, doskonale wie, że Hanka pracowała w fundacji, a Magda wyjechała na misje z Polskiej Akcji Humanitarnej, po czym namówiła jeszcze przyjaciół do uczestnictwa w słynnym, organizowanym przez PAH biegu charytatywnym. No właśnie. Biorąc pod uwagę, że każdy z niemal 1 000 odcinków tego serialu, ogląda ponad 9 mln widzów, a seriale są ulubionym programami telewizyjnym osób starszych i ludzi o niezbyt wysokim statusie majątkowym, a co za tym idzie – nie zawsze zdających sobie sprawę z tego, co się wokół nich dzieje, można zauważyć, że świadomość społeczeństwa na temat akcji organizowanych przez PAH, zdecydowanie wzrosła. Warto też zauważyć, że ten właśnie profil odbiorcy, jaki prezentują widzowie seriali, jest zdecydowanie bardziej podatny na wpływy zabiegów marketingowych, niż ludzie bardziej wykształceni, o lepszym statusie majątkowym. A podatki płacą wszyscy, prawda? Do kogo, więc trafi 1% podatku większości widzów „M jak miłość”? Jak można przypuszczać będzie to właśnie PAH, bo widzowie przecież chętniej „pomogą Magdzie”, niż komuś, kogo w ogóle nie znają. Sami producenci serialu także na tym zyskają na oglądalności, bo

grają w nim „tacy dobrzy ludzie…, to i warto ich oglądać”.A teraz spójrzmy na to z innej strony. Jaki jest najlepszy sposób, aby p o p r a w i ć w i z e r u n e k firmy w oczach potencjalnego k l i e n t a , p r a c o w n i k a czy partnera b i z n e s o w e g o ? Po prostu pokazać, że się jest człowiekiem. W jaki sposób to uczynić? Najprościej zachować się jak człowiek. Najbardziej znaczące na rynku przedsiębiorstwa znalazły na to sposób, a za ich przykładem podążają i mniejsze organizacje. Otóż korporacje postanowiły być odpowiedzialne społecznie. W tym właśnie celu większość z nich postanowiła wyodrębnić część swojego kapitału finansowego na tak zwany CSR (Corporate Social Responsibility). Zadaniami

Idea placement czy CSR? Czyli co warunkuje istnienie organizacji non-profit

Jak najskuteczniej wypromować organizacje non profit? Co zrobić, żeby otrzymać fundusze na jej działanie? W jaki sposób pozyskać wolontariuszy, sympatyków i sponsorów? Jak zwiększyć świadomość społeczeństwa na temat funkcjonowania tego typu organizacji?

Współczesny człowiek jest już zdenerwowany ilością otaczających go reklam, o czym doskonale wiedzą osoby odpowiedzialne za marketing. Jednak specjaliści zauważyli, że skuteczną formą promocji produktów bądź działań, jest reklama, której odbiorca nie jest świadomy.

Opinie36

Page 37: ToZależy no.6

Opinie 37

typowymi dla CSR jest pokazanie, że firma korzysta z odnawialnych

źródeł energii czy wspiera organizacje pożytku

publicznego. Przykład? My studenci

nie musimy długo szukać. W y s t a r c z y popatrzeć, kto s p o n s o r u j e organizacje studenckie. W i d a ć tu spore z n a c z e n i e

tzw. „wielkiej czwórki”, ale też banków i innych

k o r p o r a c j i . Tak, te firmy

mają w tym także inny cel. Żeby więc

nie było wątpliwości, co do tego czy to już

CSR, czy nie, przyjrzyjmy się zatem pierwszej z

brzegu korporacji należącej do wspomnianej „wielkiej

czwórki”. Oprócz partnerstwa w Forum Odpowiedzialnego

Biznesu, czy wspieranie Ecco Walkhatonu, firma może poszczycić się także mniej

znanymi społeczeństwu akcjami

charytatywnymi, jak na przykład wspieraniu dwóch domów dziecka, współpracą z Fundacją św. Brata Alberta oraz Fundacją Wspierania Równych Szans, uczestnictwem w akcji Eko-Biuro, wspieraniem akcji „Warto być za”, „Złote Skrzydła” oraz „Zostań dawcą szpiku kostnego”. Brzmi interesująco, prawda? Z pewnością nie jeden potencjalny klient tej firmy, poczułby do niej sympatię, bo w końcu firma jest taka uczynna. Działa? Działa. I o to chodzi. A korzysta nie tylko firma, ale i organizacje non profit. Można powiedzieć, że dla wielkich korporacji, jest to nic nie znaczący wydatek, a dla organizacji non-profit złoty interes.Zatem, jaki sposób jest najlepszy, by podkreślić znaczenie organizacji non-profit we współczesnym świecie, a jednocześnie zdobyć fundusze na ich funkcjonowanie? Jak to już bywa w gospodarce – „to zależy…”. Trzeba przeanalizować co dla takiej organizacji jest najważniejsze. Czy to, że chce ona podkreślić swoje znaczenie dla społeczeństwa, wypromować swój wizerunek i w ten sposób zyskać poparcie społeczeństwa, czy to, że chce otrzymać, znaczącej wysokości, fundusze na swe działania bezpośrednio od firmy. Pewnie wielu specjalistów zajmujących się marketingiem zgodzi się, że najlepiej byłoby znaleźć równowagę między takimi działaniami, bo tylko osiągając oba te cele, organizacje pożytku publicznego mogą z powodzeniem realizować swoje, zapisane w statucie, działania. A przecież właśnie po to one istnieją.

JOANNA CHLEBIEJ

Studentka III roku Zarządzania Szkoły Głównej Gospodarstwa

Wiejskiego, członkini Koła Naukowego Ekonomistów SGGW. W

zeszłym roku akademickim pełniła funkcję Ambasadora Grupy PZU oraz Koordynatora konkursu Global Management Challange. Interesuje się tematyką HR, marketingiem, dziennikarstwem oraz nieruchomościami.

ssandiiee.deviantart.com/

Opinie 37

Page 38: ToZależy no.6

Opinie38

Co z tymi emeryturami?– od końca czerwca, bo wtedy zostały zaprezentowane możliwe warianty zmian systemu emerytalnego, wielu Polaków zadaje sobie to pytanie. W mediach popularne stały się hasła takie jak: OFErta, OFEracja czy OFEnsywa. Od tego czasu możliwe do zauważenia są także wahania decyzji inwestorów na warszawskim parkiecie. Ale w końcu decyzja zapadła. Decyzja, którą oceniło wielu ekonomistów jako najbardziej prawdopodobną i chyba najlepszą z możliwych. Chyba, bo inwestorzy zinterpretowali tę decyzję bardzo pesymistycznie, patrząc na wykres blue chipów, a także małych i średnich spółek na Giełdzie Papierów Wartościowych w Warszawie. Jak zmiany wpłyną na naszą gospodarkę?

Pewne jest to, iż dotychczasowa forma systemu emerytalnego jest bardzo kosztowna dla długu. Co więcej, w obecnym kształcie funkcjonowania systemu emerytalnego nietrudno zauważyć patologiczną sytuację. Rząd musi pożyczać pieniądze poprzez emisję obligacji, aby wpłacić składkę do OFE, a te z kolei za otrzymane środki kupują właśnie obligacje. Aby wyeliminować to błędne koło, rząd postanowił przenieść cały portfel obligacji skarbowych z OFE do ZUS. Aktualnie w skład aktywów OFE wchodzą: blisko 122 mld zł obligacji skarbowych (co stanowi 44,9 proc. portfela); pozostałe obligacje o wartości 31,5 mld zł (11,6 proc.); 93,8 mld zł w akcjach (34,5 proc.); w depozytach bankowych 22,1

mld zł (0,1 proc.); zagraniczne inwestycje w kwocie 2,3 mld zł (0,08 proc.). Transfer 122 mld zł pozwoli przede wszystkim zredukować zadłużenie kraju liczone w relacji do PKB o ok. 8 proc. (z 55 proc. PKB do 47 proc. PKB) w ujęciu unijnym. Jak zapowiada Jacek Rostowski, wraz z tym, obniżeniu ulegną także obecne progi ostrożnościowe. Umorzenie obligacji obniży także koszty obsługi długu. Jest i druga strona medalu. Obligacje skarbowe w portfelu OFE stanowią zabezpieczenie na wypadek niekorzystnych i nieoczekiwanych zmian pozostałych aktywów - głównie akcji. Po zmianach Otwarte Fundusze Emerytalne byłyby dużo bardziej podatne na wahania giełdowe. To

oznacza, iż w przypadku giełdowej bessy obywatel może ponieść większe straty, a taka sytuacja byłaby kolejnym argumentem przemawiającym za demontażem systemu kapitałowego i ukierunkowaniu społeczeństwa do ZUS. Propozycja ta może wzbudzać wiele kontrowersji, ale na tle prawnym może narazić państwo na roszczenia sądowe. Obligacje, które już znajdują się w posiadaniu OFE, są przecież także w posiadaniu obywateli, więc jakim sposobem można je tak po prostu umorzyć? Fundusze nie będą miały już benchmarku, co może niestety odbić się negatywnie na polskim rynku kapitałowym. Aby zdywersyfikować ryzyko w portfelu, fundusze będą

pensionriskmatters.com

Page 39: ToZależy no.6

Opinie 39

prawdopodobnie zwiększały zaangażowanie w obligacje korporacyjne oraz aktywa zagraniczne, a to przełoży się na wyprzedaż części polskich akcji, które dotychczas wchodziły w skład portfeli funduszy. Strona rządowa tłumaczy zniesienie limitów inwestycyjnych jako okazję do zwiększenia konkurencyjności na rynku funduszy, co finalnie będzie miało spory wpływ na wzrost jakości ich inwestycji. Kolejna zmiana to dobrowolność. Obywatele będą mieli 3 miesiące na wybór, gdzie składać pieniądze na przyszłą emeryturę – do ZUS czy do OFE. Jednak wybór ten to nic innego jak „one way ticket”. Osoby, które wybiorą ZUS nie mają już odwrotu, a z kolei ci, którzy zdecydują się na OFE, będą mieli tylko jedną szansę powrócić do ZUS. Chęć pozostania w OFE trzeba będzie jednak wyrazić na specjalnym piśmie z oświadczeniem, w którym funduszu będą lokowane nasze oszczędności. Brak wyboru równa się z nieodwracalnym przejściem do ZUS. Większość obywateli z pewnością wybiorze samodzielnie, lub też nie, ZUS. Dlaczego? Po pierwsze, rząd rekomenduje ZUS tłumacząc, iż tu oszczędności nie będą narażone na wahania giełdowe, jak ma to miejsce w OFE, które zostaną

z portfelem z większościowym udziałem samych akcji. Po drugie, dla sporej części społeczeństwa sprawa może okazać się skomplikowana, bądź osoby te nie są zainteresowane potencjalnymi zmianami i, krótko mówiąc, pozostaną bierne, nie decydując się na żaden ruch. To także jest równorzędne z wyborem ZUS.Rząd w propozycjach zmian systemu emerytalnego zwrócił także uwagę na zabezpieczenie obywateli przed ryzykiem tzw. złej daty, dlatego też na 10 lat przed emeryturą OFE będą stopniowo transferowały w każdym roku jedną dziesiątą oszczędności na subkonta w ZUS. Ma to na celu uchronić przyszłe emerytury obywateli, którzy zdecydowali się pozostać w OFE, przed nieoczekiwaną dekoniunkturą na giełdzie. Oznacza to, iż tak czy inaczej wszyscy spotkamy się w ZUS. Tym samym OFE już w następnym roku będą zmuszone znaleźć blisko 10 mld zł (oszczędności osób, którym zostało 10 lat lub mniej do przejścia na emeryturę), aby przekazać je do ZUS. „Spodziewamy się neutralnego, a nawet stymulującego efektu dla giełdy” – stwierdził na konferencji premier Donald Tusk. Niestety, to jedynie kompletnie

nietrafiona prognoza, gdyż już w dniu decyzji, indeks WIG20 zamknął się na poziomie -2,49 proc. Fala wyprzedaży przetoczyła się przez warszawski parkiet dopiero w następnym dniu, bowiem indeks blue chipów znalazł się 4,63 proc. „pod kreską”, a minima sesji znajdowały się w okolicach -8 proc. Estymuje się, że kapitalizacja polskich spółek w ciągu tych 2 sesji spadła o 72 mld zł. Z drugiej strony, po takiej burzy pesymizmu inwestorów, może to być dobry okres do zakupu akcji, i tak się właśnie dzieje. GPW co prawda wolno, ale jednak odrabia straty. Emerytalne modyfikacje wpłynęły także na spadek cen papierów wartościowych gwarantowanych przez Skarb Państwa – rentowność 10-letnich obligacji wzrosła z 4,66 proc. do 4,86 proc., co w konsekwencji zmusi resort finansów do płacenia więcej niż dotychczas za pożyczanie pieniędzy. Krwioobiegiem gospodarki są pieniądze, a krwioobiegiem pieniądza jest informacja – te słowa potwierdził warszawski parkiet, który tak pejoratywnie zareagował na decyzje w sprawie przyszłych emerytur. Co przyniosą te zmiany dla gospodarki? To pokaże czas. Otwarte Fundusze

TOMASZ HAŁAJ

Absolwent Wyższej Szkoły Informatyki i Zarządzania w

Rzeszowie, gdzie był członkiem Koła Naukowego Finansów „Flow” przy Instytucie Badań i Analiz Finansowych. Obecnie student II roku studiów II stopnia na kierunku Finanse i Rachunkowość w SGH. Dziennikarz miesięcznika o sztuce inwestowania „Trend”. Interesuje się tematyką makroekonomiczną oraz polityką pieniężną i rynkami kapitałowymi.

Page 40: ToZależy no.6

Recenzje40

Na kartach Mr China, Tim Clissold humorystycznie opisuje swoje doświadczenia w robieniu biznesu w Chinach. Po raz pierwszy trafia tam jeszcze przed wydarzeniami na placu Tiananmen i szybko postanawia powrócić. Jego dotychczasowy pracodawca, londyńskie biuro Arthura Andersena, nie dostrzega wówczas sensu zakładania chińskiego biura. Składa więc wypowiedzenie i wyjeżdża do państwa, w którym dogorywa właśnie gospodarka centralnie planowana. Autora książki uwodzi atmosferą zbliżających się wielkich przemian. Zamieszkuje więc w akademiku i uczy się języka mandaryńskiego na uniwersytecie. Codzienne życie Clissolda w komunistycznych Chinach obfituje w wydarzenia przypominające te z czasów PRL. Część z nich okazuje się komiczna nawet dla nas. Clissold w hotelach musi wbiegać do pokojów i udowadniać obsłudze, że pokoje nie są zajęte, ponieważ ta zwykle udaje, że hotel jest pełny. Do podobnych sytuacji dochodzi z resztą prawie wszędzie – w sklepach czy w restauracjach. Do zabawnego kataklizmu dochodzi pewnej zimy, gdy rząd ustanawia wcześniej zbyt wysoką cenę skupu kapusty. Wszyscy rolnicy przestawiają się na jej produkcję, w konsekwencji zalewa ona Pekin – i to dosłownie. Przez kapustę zalegającą na

ulicach dochodzi do wypadków samochodowych, a piesi i rowerzyści muszą ją strzepywać z siebie po licznych upadkach. Burmistrz Pekinu wygłasza nawet przemowę do mieszkańców miasta, w której mówi wprost o patriotycznym obowiązku spożywania kapusty. Odtąd odmianę tą prześmiewczo nazywa się kapustą patriotyczną.Pewnego dnia główny bohater dostaje list od swojego znajomego. Firma z branży finansowej poszukuje pracownika ze znajomością mandaryńskiego. Okazuje się, że tą firmą jest Arthur Andersen, który właśnie otwiera swoje biuro w Hong Kongu. Clissold dostaje tym samym szansę połączenia swojego starego życia zawodowego z fascynacją Chinami. Wkrótce poznaje osobę, z którą przyjdzie mu wyruszy na podbój tego wielkiego rynku. Jego towarzyszem jest wschodząca gwiazda Wall Street. Pat ma za sobą pracę w bankach inwestycyjnych i właśnie postanowił zmobilizować jak największy kapitał, który mógłby zainwestować w Chinach. Chce zostać JP Morganem tego kraju. Skupować firmy działające w obiecujących sektorach i łączyć je w branżowych potentatów, zanim pojawią się tam koncerny międzynarodowe i rzesze inwestorów. Jego sposób na robienie biznesu to wyprzedzanie

Mr China czyli Amerykanin w Pekinie

Opowieść o dwóch facetach, którzy w latach dziewięćdziesiątych ruszyli na podbój chińskiego rynku – tak w skrócie opisać można tę książkę. Pomimo zmobilizowania ogromnych funduszy na zakup chińskich przedsiębiorstw, ponieśli srogą klęskę. W książce przeczytacie nie tylko o tym, dlaczego tak się stało, ale również pozwoli Wam ona lepiej zrozumieć współczesne Chiny.

Emerytalne, które są istotnym uczestnikiem rynku kapitałowego, prawdopodobnie od następnego roku będą miały zakaz inwestycji w papiery wartościowe gwarantowane przez Skarb Państwa. Zniesiony benchamark daje im w zamian większe możliwości do inwestowania w alternatywne papiery wartościowe, również zagraniczne. Komisja Nadzoru Finansowego w niedawno opublikowanym raporcie

stwierdziła, że udział akcji w OFE na koniec sierpnia był najwyższy w historii i stanowił 39 proc. ich aktywów. Podsumowując, na pewno umorzenie obligacji zmniejszy nasz dług i zrobi przestrzeń do inwestycji publicznych, a w konsekwencji przyczyni się do pobudzenia gospodarki i, finalnie, wzrostu PKB. Problem tylko w tym, że państwo emitować obligacji na pewno nie przestanie, a ich znaczny

odbiorca nie będzie miał już do tego praw. Jak powiedział Erich Fromm – „szczęście nie jest ani dziełem przypadku, ani darem bogów. Szczęście to coś, co każdy z nas musi wypracować dla samego siebie”. Pozostaje nam tylko mieć nadzieje, że to, co wypracujemy sobie przez 67 lat będzie nie tyle szczęściem, co spokojnym i zasłużonym odpoczynkiem na stare lata.

TIM CLISSOLD

Page 41: ToZależy no.6

Recenzje 41

ruchów innych. Tym razem czuł, że oczy całego świata wkrótce zwrócą się ku Chinom.Chiny przywitały początkowo bohaterów naszej książki z otwartmi rękoma. Kraj potrzebował kapitału. Zdawali sobie z tego doskonale sprawę partyjni działacze, którzy słysząc o możliwości pozyskania milionów dla swoich fabryk przychylali się wizjom nietypowych gości. Robili to jednak przy typowym dla Chińczyków dystansie do obcych. Zachodni inwestorzy nie mogli kupować całych przedsiębiorstw. Wchodzili w joint venture z partnerami chińskimi i nawet przy posiadaniu większościowych udziałów wciąż wiele zależało od lokalnych oficjeli oraz zwykłych urzędników. Początkowo Tim i Pat podchodzili jednak optymistycznie do przyszłości. Podpisali przecież wiążące umowy.Państwo Środka okazało się jednak trudnym terenem do inwestowania. Pierwsze problemy wynikały z trudności w podporządkowaniu sobie chińskich kadr zarządzających. Przejmowanymi przedsiębiorstwami zarządzali zwykle dotychczasowi dyrektorzy. Nasi bohaterowie brali oczywiście pod uwagę ich cechy przy doborze spółek, lecz często dochodziło do bardzo nietypowych problemów. W jednym przypadku dyrektor takiej firmy zaczynał prowadzić pod nosem konkurencyjną działalność w ramach obcego przedsiębiorstwa, a w innym najzwyczajniej okradał zatrudniającą go spółkę. Próby wymiany ludzi również prowadziły do problemów. Człowiek z zewnątrz nie potrafił połapać się w panujących w zakładzie układach, a zwolnienia mogły prowadzić do zamachu na dyrektora. Kolejnym szokiem były próby egzekwowania prawa. Zwykle prowadzily do odwrotnych skutków. Zgłoszenie kradzieży kończyło się na przykład zamrożeniem kont bankowych okradzionego

przedsiębiorstwa. Zwalniani zgodnie z prawem dyrektorzy doprowadzali do buntu w firmie i prowadzili działania mające na celu przejęcia władzy. Konflikty uderzały przede wszystkim w przedsiębiorstwa. Jeżeli nawet po jakimś czasie udało się wygrać z punktu widzenia prawa, to spółka mogła i tak być już w opłakanym stanie.Dla Pata i Tima szczególnie nieprzyjemne były telekonferencje i prezentacje w gronie inwestorów, którzy wyłożyli pieniądze na ich wielką ofensywę. Ludzie ci nie rozumieli całkowicie realiów, w których inwestowali pieniądze. Odpowiedzią na każdy problem była racjonalizacja kosztów, gdy o zwolnieniach mowy być nie mogło. W Chinach nie było systemu zabezpieczeń socjalnych. Zwolnienia spotkałyby się w prawie każdym przypadku z zamieszkami. Znamienna była jedna z nocnych dyskusji. Specjaliści przez kilka godzin rozstrząsali skomplikowane zagadanienia prawa, gdy wreszcie jeden z nich zauważył, że może warto było zapytać w tej sprawie jakiegoś prawnika z Chin. W czasie opisanych wydarzeń wielu spekulantów na giełdach w Hong Kongu i Szanghaju dorabiało się swoich małych i wielkich fortun. Tradycyjne przejmowanie firm z wielu względów okazało się być w tamtym okresie nietrafionym pomysłem. Książkę jednak warto przeczytać, gdyż pozwala lepiej poznać chiński punkt patrzenia na świat i kulisy trudnych początków tamtejszego kapitalizmu. Może wkrótce doczekamy się kolejnych tego typu publikacji – w biznesowej prasie głośno było ostatnio o Jankesie, który zainwestował w kilka dużych przedsiębiorstw w Mongolii. Jeden z artykułów opatrzony był zdjęciem, na którym pozował na tle wielkiego pomnika Czyngis Chana. Podobnie jak chciał zrobić to Pat, on też próbuje wyprzedzić kroki innych...

JAN JĘCZMYK

Studiuje na Wydziale Nauk Ekonomicznych UW. W 2011

roku uczestniczył w szkole letniej „Relations between the EU and the emerging global players” na Georg-August Universität w Göttingen. Działa w Kole Naukowym Strategii Gospodarczej UW. Stypendysta II edycji Akademii Mediów, obecnie stażysta w redakcji Bloomberg Businessweek Polska.

Page 42: ToZależy no.6

Sylwetki42

Page 43: ToZależy no.6

Sylwetki 43

npr.org

Marissa MayerJoanna Chlebiej

1. Google VP Marissa Mayer to Address 2009 IIT Graduates, iit.edu

Zanim jednak rozpoczęła pracę w Yahoo!, była jedną z najbardziej rozpoznawalnych twarzy Google, gdzie obejmowała stanowisko wiceprezesa Search Products & User Experience. Warto podkreślić także, że była ona jednym z 20 pierwszych pracowników Google oraz pierwszą kobietą-inżynierem w tej firmie1. Tytuł naukowy otrzymała na Uniwersytecie Stanfordzkim. Wybitnej absolwentki pozazdrościł Uniwersytetowi Stanforda, Illinois Institute of Technology, który w 2009 r. nadał jej tytuł doktor honoris causa.

Marissa nie miała sobie równych na swojej Alma Mater, gdyż po długich latach ciężkiej nauki i pracy, została ona uznana za wybitną studentkę tejże uczelni.

Na dowód tego, że nauki nigdy za dużo, a świat pozostawia nam jeszcze wiele do okrycia i zbadania, Mayer, przed przejściem do Google, prowadziła

prace badawcze w laboratorium UBS (Ubilab) w Zurychu, a także na SRI International w Kalifornii. Owocem prowadzonych przez nią badań były liczne publikacje, a zachwycone jej drogą zawodową i sukcesami media, zwykły nadawać jej różne, zaszczytne tytuły, takie jak:one of 10 Tech Leaders of the Future (Newsweek);one of the 50 Most Powerful Women (Fortune);one of 15 Women to Watch (Red Herring);part of the Silicon Valley Dream Team. (Business 2.0).

Zaraz po objęciu władzy w strukturach Yahoo!, Marrisa Mayer zarządziła modernizację strony internetowej i wprowadziła kilka innych zasadniczych zmian w firmie, dzięki czemu Yahoo! zarobiło 1,1 bln dolarów na platformie Tumblr oraz 30 mln dolarów na story-shortener Summly. Mayer dąży do tego, aby portal był na tyle nowoczesnym, żeby bez problemu mógł obsługiwać 700 mln użytkowników miesięcznie.

Ponadto, Mayer propaguje w Yahoo! politykę prorodzinną.Będąc wiceprezesem w Google, Mayer odpowiadała za zarządzanie produktami i działania inżynieryjne. Była także członkiem komitetu wykonawczego operacyjnego systemu Google. Pomimo wielu obowiązków wynikających z ciągłego rozwoju i potężnej międzynarodowej kariery, Marrisa zdecydowała się na założenie rodziny. 30 września 2012 r. urodziła ona syna, mimo iż jego narodziny pokrywały się z dosyć ciężkim dla niej okresem w pracy, a Yahoo! zatrudnił ją nie wiedząc jeszcze, że jest ona w ciąży. Mayer jest zagorzałą luteranką, żyjącą według zmodyfikowanego przez nią hasła: „God, family and Yahoo!”.

Marissa Mayer, ur. 30 maja 1975r., znana jest jako CEO Yahoo! oraz najmłodsza osoba na liście 50 najpotężniejszych kobiet biznesu.

npr.org

Sylwetki 43

Page 44: ToZależy no.6

English section44

Definition and origins

Let’s start from the very beginning – the word “prudent” could be directly translated as “cautious”, “careful”, “wary” or even “conservative”. But, of course, these words are just a tip of the iceberg. The notion of the macroprudential tools is not quite new, however it is not easy to pinpoint when and who exactly introduced this concept for the first time. Clement [2010] in BIS Quarterly Review suggests that the macroprudential concept was introduced in 1979 in one of the remarks during a meeting of Cooke Committee (the precursor of Basel Committee today). Back then, the term was completely new, although the underlying concerns were not – the meeting addressed the policy options for the worrying rapid pace of lending to developing countries and its implications for macroeconomic and financial stability. Still, the real development of this policy began in 2000 with the speech delivered by Andrew Crockett, at that time the General Manager of the BIS. The title of the speech was meaningful (“Marrying the micro- and macro-prudential dimensions of financial stability”) and this notion received new impetus in the public discussion. First of all, the term macroprudential was used in the context of protecting and regulating the financial system as a whole, with the particular focus on the limiting costs of the financial distress in terms of output. Secondly, the author underlined that

aggregate risk was dependent on the collective behaviour of financial institutions. To simplify, the macroprudential policy was defined as an approach to mitigate the risk created by the financial system for the general condition of the economy. In other words, this policy is the kind of the financial regulation, which aims to financial stability. Moreover, this regulation should also prevent a creation of financial bubbles, excessive credit growth and systemic risk and also provides a robustness of the financial system to external shocks.

MACROPRUDENTIAL POLICY – reborn of the new policy tools five years

after the financial crisisThis autumn marked exactly five years since the beginning of the financial crisis. To some extent, it is the most severe in consequences crisis since the Great Depression. This time, however, was different enough, as we simultaneously witnessed one of the greatest monetary experiment in the history of central banks as a response on the ineffective zero-interest-rate policy. It is also the crisis, which led economists and policymakers around the world to reconsider one more time the existing model of the economies, developed on the basis of excessive credit growth and lacklustre regulation. One of the results is the recent paper published by International Monetary Fund, which designed and developed a new framework to guide countries on implementation the macroprudential policy tools – something which is worthwhile to think about.

Figure 1. Relationship between Macroprudential and Other Policies

Source: IMF staff

Page 45: ToZależy no.6

English section 45

PRZEMYSŁAW PRYSZCZ

Student Quantitative Finance na Wydziale Nauk Ekonomicznych UW. Aktywny członek KNSG UW. Jest stypendystą II edycji Akademii Mediów, projektu Fundacji im L. Pagi, a także byłym stażystą w redakcji Bloomberg Businessweek Polska.

Relationship with other policies

Financial stability is affected by a range of factors and policies. The nature of macroprudential policy and its interactions with other policies, is clearly shown on the Figure 1. prepared by the IMF staff. The figure is probably the closest definition of the macroprudential policy scope. As we can also easily conclude, this kind of policy requires fully developed institutional arrangements. It embraces and interacts with every kind of policy which lawmakers have to face.

For instance, let’s take a look on the role of monetary policy. Even when monetary policy is set consistent with price stability, the resulting monetary stance may have undesirable side effects for financial stability. Low policy rate can be consistent with low inflation and price stability, however it may still contribute to excessive credit growth and the build-up of asset bubbles. The importance of the

macroprudential policy in preventing an excessive credit growth is raising even more in small open economies. Here, whether there is a need of rising or cutting interest rate, both may be a trigger of capital flows which end up in jeopardizing domestic financial stability.

Macroprudential toolkits

By far, everything seems to be a quite broad definition. The truth is that the literature doesn’t provide one good rationale and specific objective of the macroprudential policy (take a look at the literature review of Galati and Moessner(2011)). Many researchers and economists have different approach to the given topic, but the ideas and tools developed in order to implement the macroprudential policy have the same background. Let’s take a look on some examples to see the gist.

As I noted before, the general objective of the

Source: BIS, 2010.

Figure 2. Usage of the term “macroprudential” in academic publications

Page 46: ToZależy no.6

English section46

macroprudential approach is to limit the risk of episodes of financial distress with significant losses in terms of the real output for the economy as a whole. Having said that, let’s also notice that microprudential approach is to limit the risk of episodes of financial distress at individual institutions without any concerns about the overall economy. This is why macroprudential toolkits are the ones which address directly the concrete changes at the financial institutions while maintaining the macro approach to the economy.

According to the IMF framework, there are three general sets of tools which should be considered:

− countercyclical capital buffers and provisions (to increase resilience to shocks);

− s e c t o r a l tools (to

contain a b u i l d - u p of risks in p a r t i c u l a r sectors);

− liquidity tools (to contain funding risks).

The first group will be adopted by many countries with the implementation of Basel III rules. So for example, having the opportunity to adjust capital buffers of the financial sectors, authorities may need to protect the economy against the adverse consequences of uncontrolled expansion of credit to GDP ratio. Thus policy would be particularly powerful in the times of the excessive credit growth in Spain or Ireland few years ago. On the other hand, with the release of buffers, the economy is expected to avoid credit crunch effects because of the reduced pressure on banks to deleverage in times of financial stress.

The second group contains two main tools – sectoral capital requirements and LTV and DTI ratios. The first ones are complementary to the capital buffers, however, here policymakers can increase the risk weights for lending to particular segments of the credit market. Thus, authorities

can be more efficient in addressing some of the vulnerable and unsafe parts of the economy. This can include mortgage lending or unsecured consumer credit. These kinds of solutions are already adopted in Brazil and Turkey, where lawmakers aim to increase resilience of lenders to a deterioration in credit quality. The latter subset, LTV (Loan to Value) and DTI (Debt to Income) ratios, is the most common tool of the macroprudential approach. This is mainly justified by the international experience. It is extremely important to adopt the tools which can contain vulnerabilities in residential housing markets. Those markets are particularly exposed

to the potential creation of the bubbles. The LTV

ratio introduces a cap on the size of

a mortgage loan relatively to

the value of a

property, thereby imposing a minimum down payment. The DTI ratio restricts the size of a mortgage loan to a fixed multiple of household income,

therefore containing unaffordable and unsustainable

increases in household debt. These kinds of solutions were adopted by South Korea and Israel. The available research suggests strong effects of these tools in cooling an excessive loan growth, which can be accompanied and conjugated by increases in asset prices. IMF also suggests that steering LTV ratio at financial institutions can greatly affect the house prices and an aggregate demand. Therefore, the chances of avoiding a formation of housing bubble is trimmed significantly.

The third group are liquidity tools. These tools are specially focused on the problem of overexposure to funding shocks. To some extent these tools are implemented in the rules of Basel III. Examples are: the Macroprudential Stability Levy, introduced in Korea and the Core Funding Ratio (CFR), introduced in New Zealand. The liquidity tools

Page 47: ToZależy no.6

English section 47

can also include minimum haircut requirements, and then they are introduced to the specific assets. The overall effect can be greater than we do think – constraining the wholesale funding in banks can contribute to the slowdown in the overall credit growth.

Although there are still many complementary tools, the main three groups described above are the essence of macroprudential policy.

The future and obstacles

As we can see, the impressive progress has been made in the development of the new policy tools over the course of last few years. The recent financial crisis has underscored the need to combine different policies with a particular attention to the financial stability. The general macroeconomic stability of the country is not always enough to avoid the systemic risk. The recent Eurozone crisis also showed how nasty in consequences could be the creation of different imbalances in the financial sector. The macroprudential policy and

its tools seem to be the right direction to follow in the future.

However, there are some concerns as well. In one of The Economist’s article, the author sets out a worry about regulatory arbitrage. The author suggests that in the theory, central banks would use regulatory and supervisory authority to stamp out excesses in specific markets while leaving monetary policy to take care of inflation and employment. However, it is easier said than done. The history shows us that there are many cases when controls were often circumvented by regulatory arbitrage. And when controls worked, political pressure sometimes led to their abolition. This kind of policy evaluation based on the history can be blurred and complicated by the environment at that time. Still, the endorsement is not so strong for macroprudential policies everywhere.

More on the other side of macroprudential policy, its limits and challenges can be found in Douglas Elliott research from Brookings Institution.

Source: IMF staff

Figure 3. Mapping Tools to Objectives: Time Dimension

Page 48: ToZależy no.6

Koło Naukowe Strategii Gospodarczej Uniwersytetu Warszawskiego

Warszawa2013