Interjúsorozatunk vendége ezúttal Papp Tamás. Az egyik legelismertebb egyetemen, a Princetonon szerzett közgazdasági Ph.D fokozatot, jelenleg a bécsi IHS közgazdasági tanszékén kutató, a munkaerőpiacok makroökonómiájával és bayesi ökonometriával foglalkozik.
A riporter: Major Klára.
Hogyan jellemeznéd röviden a kutatási területedet?
Tartalmilag elsősorban makró-labor kérdések érdekelnek, módszertanilag pedig a heterogén ágenses modellek és a bayesi ökonometria.
Én azt hiszem, hogy ez a makró-labor kifejezés nem igazán közismert. Mitől lesz speciálisan makró-labor-ös egy kutatás és mitől mondjuk mikró?
A különbség inkább szemléletbeli, és nincs éles határ, ezért inkább példákat mondanék: a nők munkavállalása, a bérekben megjelenő diszkrimináció, vagy a bevándorlók hatása a bérekre elsősorban mikrókérdések, míg a például a munkanélküliség változása a gazdasági ciklusokban tipikus makrókérdés, de természetesen nagyon sok az átfedés. Engem például a makró kérdések közül különösen érdekel, hogy miért kapnak különböző béreket a látszólag azonos munkavállalók, a másik kérdés ami jelenleg nagyon foglalkoztat az az, hogy hogyan változnak a bérek a gazdasági ciklusok alatt.
Mit tudunk arról, hogy miért kapnak különböző béreket? Miért fontos ez a kérdés?
Egy tökéletesen kompetitív piacon természetesen a munkaerő marginális terméke lenne a bér, ezért a hasonló munkavállalók hasonló béreket kapnának. Ugyanakkor a rendelkezésre álló eredmények azt mutatják, hogy a munkavállalók megfigyelhető tulajdonságai (pl életkor, tapasztalat, iskolai végzettség) a bérek szóródását csak részben képesek megmagyarázni. Ugyanakkor azt is tudjuk, hogy a valóságban a munkaerőpiacok nem tökéletesek, tele vannak elsősorban információs és szerződéses surlódásokkal, amik elvileg megmagyarázhatják a bérek szóródását. Ugyanakkor sajnos még mindig nincs jó modellünk arra hogy hogyan alakulnak ki a bérek a munkaerőpiacon, számos versengő modellünk van, azt szoktuk használni ami a legkényelmesebb, de egyik sem jó mindenre.
És hogyan lehetne választani a modellek közül?
Az egyik út a modellek kiértékeléséhez az, hogy készpénznek vesszük a modellt és strukturálisan becsüljük, de sokkal direktebb lenne ha közvetlenül, egy zárt alakos közelítéssel tudnánk mondani valamit arról hogy mit jelez előre a modell: ezzel foglalkozott a témavezetőm (Per Krusell) és szerzőtársai egy nagyon elegáns cikke, innen jött meg a kedvem a témához. Nekik sikerült levezetniük egy analitikus közelítést az átlagos és a rezervációs bér arányára (ún mean-min ratio), zárt alakban, egy nagyon tág modellcsaládra, úgy hogy pár könnyen megfigyelhető paraméterrel kalibrálható legyen — függetlenül a munkáltatók által felajánlott bérek eloszlásától! — és megmutatták hogy a kapott eredmény igen távol van a megfigyelt adatoktól, ugyanis sokkal kisebb a modellek által előrejelzett szórás, mint amit a gyakorlatban megfigyelünk. Ezt az analitikus eredményt terjesztem ki egy tágabb modellcsaládra. A kérdésnek van egy tágabb elméleti vetülete is: ha veszünk egy surlódásos piaci mechanizmust, mennyire tudunk távol kerülni az "egy ár törvényétől"? Érdekes módon mindig van egy határ: akármennyire szétszórjuk a felajánlott árakat (béreket), ha a vevők (munkavállalók) tudják ezt akkor egyszerűen megemelik a rezervációs árakat (béreket).
És a másik kutatási kérdésed miért fontos?
A másik terület amin jelenleg dolgozom egy tágabb empirikus projekt része. Majdnem egy évtizede vannak olyan eredmények amelyek dokumentálják hogy az egyéni jövedelemkockázat kontraciklikus, azaz recesszióban nagyobb sokkok érik a jövedelmeket. A legtöbb ember fő jövedelemforrása a fizetése, aminek változása egy olyan kockázat amit csak nagyon korlátozottan lehet biztosítani, ezért fontos megértenünk honnan is jön ez és miként viselkedik, ezenkívül egy heterogén ágenses makrómodell kalibrálásához is szükségünk van jól dokumentált stilizált tényekre az aggregált és egyéni jövedelmek kapcsolatáról. Alisdair McKay szerzőtársammal amerikai adatokon dokumentáljuk a fenti eredményt a bérekre (és nem csak a jövedelmekre), majd megpróbáljuk megmagyarázni a kapott empirikus eredményeket. Meglepő, de majdnem az egész hatást azok okozzák, akik két megfigyelés között valamennyi ideig munkanélküliek, pedig ők az egész mintában nagyon kevesen vannak.
Ez akkor azt jelenti, hogy azok, akik rövid ideig munkanélküliek, azoknak a munkanélküliség előtti régi bére és az új bére közötti különbség nagyobb recesszióban, mint fellendüléskor?
Pontosan, ezt mi úgy fogalmaztuk meg hogy a különbség szórása változik a ciklussal. Ráadásul nem is csak arról van szó, hogy a munkanélküliek aránya változik a ciklussal: az fő tényező az, hogy az egy egyénre jutó sokkok nagysága is kontraciklikus, azaz recesszióban nagyobb mértékű sokkok érik az embereket, mint fellendülés idején. Ez annyira meglepett minket, megpróbáltunk mögé egy modellt rakni, eredileg azzal a szándékkal hogy kimondhassuk mennyire nem tudjuk a dokumentált tényeket megmagyarázni. Ekkor jött a második meglepetés: egy nagyon szimplán kalibrált Burdett-Mortensen modellből majdnem minden kijön. Jelenleg ezt a témát boncolgatjuk tovább, azt szeretnénk megvizsgálni hogy az egyéneket ért sokkok tartóssága mennyire függ az üzleti ciklustól.
Miért gondoltátok azt apriori, hogy fellendülés idején nagyobb sokk várható? Vagy inkább arra vártatok, hogy a sokkok nagysága független lesz a ciklustól?
Nem, a kontraciklikusságra számítottunk, de ezen belül azt vártuk hogy az egyénre eső sokkok nagysága csak attól függ, hogy valaki munkanélküli volt-e vagy sem, és az aggregált váltakozást szimplán azzal magyaráztuk volna hogy recesszióban több a munkanélküli. Volt egy naiv magyarázat a fejünkben, amit nem bontottunk ki teljesen, és csak akkor jöttünk rá mi vele a probléma amikor számokat raktunk mögé. Ez szerintem szép példa arra hogy miért annyira fontosak az adatok és a modellek a közgazdaságtanban: nélkülük az ember nagyon könnyen be tudja csapni magát és elhiteti magával hogy ért valamit, amit valójában nem.
Említetted a heterogén ágenses modelleket. Mik azok és miért fontosak?
A makrómodellek sokáig ún. "reprezentatív" ágensekkel működtek: például feltételeztük, hogy minden fogyasztó azonos vagyonnal indul, azonos bért keres és ezért ugyanannyit takarít meg. Ez nagyon leegyszerűsítette a megoldásukat, de számos kérdés így kezelhetetlen. Hogy csak egy példát mondjak: az, hogy valaki hogyan reagál egy átmeneti negatív sokkra (például munkanélküliségre) nagyon függ attól hogy vannak-e megtakarításai. Ha "kiátlagoljuk" a fogyasztókat, azzal olyan mechanizmusokat hagyunk figyelmen kívül amik egyes kérdésekben kulcsfontosságúak.
Ha távolabbról nézzük, mennyire érvénytelenítette a makroökonómiai eredményeket és modelleket a legutóbbi válság?
A saját területemre szorítkoznék: a makró-labor területen számos olyan folyamat történt a válság során amit régebben nem figyeltünk meg, vagy nem ilyen mértékben, például a munkanélküliség hatalmasat nőtt, és a korábbiakkal ellentétben eléggé elszakadt a termelékenységtől (ezek mind az Egyesült Államokra vonatkozó állítások, de valamennyire Európára is igazak). Megnőtt a hosszútávon munkanélküliek száma, és a mutatók sok országban még rosszabbak ha a demográfiai hatásoktól megtisztítjuk az adatokat (sok országokban öregszik a népesség). Elég jól dokumentált, hogy a legutóbbi recesszió munkaerőpiaci szempotból is kicsit más mint a többi. Ugyanakkor az is igaz, hogy eddig se voltak jó makrómodelljeink a munkaerőpiacokra, maga a terület is igen fiatal. Ezért a megfigyelt anomáliák inkább gazdagították a megmagyarázandó dolgok eleve is elég hosszú listáját, ahelyett hogy egy széles körben elfogadott és használt modellt kérdőjeleztek volna meg, mert ilyenünk nincs — a széles körben használt modellekről mindenki tudja, hogy egyrészt igen stilizáltak, másrészt bizonyos dolgokra nem jók.
Arról mit gondolsz, ami a makromodellek mikroadatbázisokon való becslésének területén zajlik? Mi ezen a területen az igazi kihívás?
A makró sokáig csak "stilizált tények" megalapozására használta a mikroadatbázisokat: volt egy csomó adatunk, abból kijött valami aggregátum, amit megpróbáltunk modellezni. Ez — főleg az utóbbi két évtizedben — rengeteget változott, aminek szerintem két, nagyon szorosan összefonódó oka van. Az egyik számítási kapacitások fejlődése, a másik pedig a likelihood-alapú szemlélet terjedése (ide sorolom a bayesi statisztikát is). Most már szinte csak a számítási kapacitások szabnak határt annak, hogy mit tudunk modellezni és becsülni. Az igazi kihívás szerintem a mikró és makrófolyamatok összekapcsolása és egyidejű becslése. Ez azért nehéz, mert a makrómodelljeink nem igazán jók, és amikor a mikróadatokhoz rakjuk őket akkor ez nagyon megnehezíti a becslést: a likelihood alapú módszerek nagyon "merevek" lesznek, rengeteg lokális maximummal (ez még a bayesi becslést is megnehezíti, mert a numerikus szimulációk "beragadnak"), frekventista módszerekkel pedig szinte bármilyen hipotézisteszt elveti a modellt.
Mi ezt a problémát a fentebb említett paperben ún. hierarchikus modellekkel oldjuk meg: tulajdonképpen azt mondjuk, hogy van valami makróösszefüggés, de az tökéletlenül érvényesül mikrószinten, és megengedjük hogy a becslési módszer automatikusan parametrizálja ennek a "tökéletlenségnek" a fokát. A hierarchikus modellekről egyébként Simstől hallottam először, már régebben javasolta használatukat, de mai napig elég lassan terjednek el a közgazdaságtanban, pedig a statisztikában nagyon nagy irodalmuk van. Általánosságban azt hiszem hogy a közgazdászoknak érdemes a tágabb statisztikai irodalmat olvasgatni, rengeteg problémát megoldottak amivel mi küzdünk — ilyen értelemben sajnálatos, hogy az ökonometria szinte a statisztikával párhuzamus alterületként hajlamos tekinteni magára.
A legutóbbi közgazdasági Nobel díjazottak Thomas Sargent és Christopher A. Sims, mindketten makroökonómiai kérdésekkel, a makroökonómiai folyamatok modellezésének és mérésének különböző megoldásaival foglalkoztak. Számodra mit jelent az idei Sargent-Sims Nobel-díj? Szerinted mit ismert el a bizottság ezzel?
A bizottság — mint azt ki is fejtették — az oksági viszonyok makroökonómiai kutatásában elismert eredményeket ismerte el a díjjal. Szerintem nagyon fontos dolog hogy ők kapták ezt a díjat, de ugyanakkor azt is látom hogy az utóbbi évek díjazottaihoz képest nagyon nehéz kommunikálni a nagyközönség felé, hogy miért. A szakmán belül mindenki tudja hogy kulcsfontosságú eredményekről van szó, de a díj által elismert eredmények elsősorban módszertaniak, bár mindkét díjazott nagyon konkrét kérdésekkel is foglalkozott, pl Sargent szerzőtársával, Ljungqvistel nagyon sok alapcikket írt a munkaerőpiacokról (ezenkívül persze számos más területen is alkotott maradandót, de hozzám ez áll legközelebb), Sims pedig sokat foglalkozott monetáris és fiskális politikával. Az oksági viszonyok tisztázása nagyon fontos kérdés, mert a gazdaságpolitikához feltétlenül szükség rá. Az oksági problémák eleve nehezek statisztikailag — igen bonyolult elválasztani a puszta korrelációt az okságtól, magáról a fogalomról is könyveket lehet írni — de a makroökonómiában ezt még nehezebbé teszi a várakozások kulcsszerepe.
Szerintem nagyon tanulságos visszatekinteni arra hogyan fejlődött ez a terület. Az 1970-es éveket megelőzően elsősorban lineáris statisztikai rendszereket becsültek, amik elkerülhetetlenül egyre nagyobbak és instabilabbak lettek, ezenkívül nem tudtak megbírkózni az 1970-es évek stagflációjával. Sargent strukturális modelleken keresztül hozta be a racionális várakozásokat, tesztelhetővé téve modelljeinket. Sims pedig a vektor-autoregresszió (VAR) közgazdaságtani alkalmazásait alapozta meg. Szeretném még kiemelni Sims szerepét a bayesi statisztika elterjesztésében a közgazdaságtanban. Princetonban ő tanította nekünk a bevezető ökonometria kurzust, ami döntéselméleti alapú volt, és majdnem teljesen bayesi. Ez nekem hatalmas reveláció volt, fogalmam sem volt róla hogy így is lehet. Mielőtt találkoztam volna a bayesi statisztikával, kifejezetten utáltam az ökonometriát, nagyon zavarosnak és ad hocnak tartottam az egészet, aztán Sims kurzusán láttam hogy hogyan lehet az egészet másképp csinálni, olyan módon ami nekem teljesen természetesnek hatott. Sims kiváló tanár, és nagyon jól ismeri a bayesi statisztika és döntéselmélet alapjait is, emellett ugyanakkor nagyon gyakorlatias és praktikus módon áll hozzá konkrét problémákhoz.
Tudtommal jelenleg az IHS-ben dolgozol. Én tőled hallottam először erről a bécsi intézményről. Mi ennek az intézménynek a célja, ki finanszírozza, te miért döntöttél úgy friss Princeton-i PhD-vel a zsebedben, hogy itt kezdesz szakmai karriert építeni?
A IHS jogilag egy magánalapítvány, gyakorlatilag egy kutatóintézet, az főképp állami finanszírozással, közvetlen módon és projekteken keresztül. Van benne három tanszék — közgazdaságtan, szociológia, politikatudomány — és egy alkalmazott közgazdasági csoport, ők egyfajta "think tank" szerepet töltenek be az osztrák állam számára. Én a közgazdaságtan tanszéken vagyok, ami elég kicsi, de nagyon jól fókuszált bizonyos témákra, a mikroelmélet, az ökonometria és a makró terén. Családi okok miatt mindenképpen közel szerettem volna lenni Magyarországhoz, és az IHS azért volt kiváló választás mert két kollégám — Christian Haefke és Michael Reiter — is ugyanazon a területen aktív mint én. Ezenkívül pár éve Bécsben van Monika Merz is, szóval makró-labor témában kutatóknak szerintem nagyon jó választás. Bécsben egyébként elég szorosan kooperálunk az egyetemekkel és az osztrák jegybankkal, vannak közös szemináriumaink és konferenciáink, a szakmai élet kifejezetten pezsgő. Van egy nagyon jó MSc programunk is, természetesen angol nyelven, ahol minden évben tanul pár kiváló magyar diák — ők többnyire az USA-ban vagy jó európai egyetemeken folytatják egy PhD programon.
Szerinted mit kell megtanulniuk a hallgatóknak egy jó közgazdasági BA programban, mit egy jó MA programban mit és mit PhD-n? Vagyis te mit vársz el egy hozzátok jelentkező alapszakos hallgatótól és milyen tanácsokat adnál egy itt meghirdetésre kerülő közgazdasági mester szak programja kidolgozóinak?
BA szinten szerintem a legfontosabb a modellező szemlélet és az ehhez szükséges matematikai eszköztár alapszintű elsajátítása. Sokkal fontosabbnak tartom hogy a diákok végigrágják magukat egy-egy egyszerűbb modellen — gondolok itt például harmadéven a Romer könyv egyes fejezeteire, de semmiképpen nem az egészre! — mint hogy átszenvedjék az IS-LM görbék tologatásával járó kurzusokat (amiket teljesen kihagynék). Princetonban nagy élmény volt TA-nek lenni Krusell és Kiyotaki undergrad makró kurzusain, akik vették a bátorságot és harmadéves hallgatóknak leegyszerűsített, de teljesen modern szemléletű modelleket tanítottak, például kétperiódusosra egyszerűsített makrómodelleket (RBC, sőt sticky prices), vagy kétállapotúra redukált Kiyotaki-Wright modellt. Ezek mind megoldhatók zárt alakban elég egyszerűen, csak deriválni kell tudni hozzá. A diákok nagyon élvezték, mert miután az alapokat megismerték, mindent meg tudtak érteni a modellekről. MA szinten elsőévben szinte teljesen standardizált a tananyag, azt kell tanítani amit egy jó amerikai egyetemen megtanítanak — ott az MA a PhD előtt van — utána pedig szerintem teljesen az oktatóktól függ. Olyasmit érdemes tanítani amivel az ember aktívan foglalkozik, mert abban tud érdekes dolgokat mondani.
Két dolgot említenék még meg. Szerintem fontos, hogy a diákok korán elkezdjenek programozni, még ha nagyon egyszerű dolgokat is, valamilyen interpretált nyelven, pl R-ben (de ez tulajdonképpen mindegy). Ma már szinte mindenhez tudni kell programozni, nehéz pusztán analitikus eszközökkel elboldogulni, még akkor is ha valaki mikró- vagy statisztikaelmélettel foglalkozik. Makróban szinte lehetetlen. A diákok között hatalmas a szórás e tekintetben, vannak diákok akik valamikor kamaszkorukban letapadtak a számítógép elé és egy hét alatt megtanulják egy új programozási nyelv alapjait, és vannak akik még sohasem próbáltak programozni. Kell egy kis gyakorlás amíg az ember úgy tud programozni hogy ne vonja el a figyelmét a közgazdaságtani tartalomról, ezért már BA szinten elkezdeném. A másik dolog, ami ehhez egy kicsit kapcsolódik, az ökonometria praktikus, adatorientált szemlélete. Az aszimptotikus bizonyítások fontosak, de sokkal fontosabb hogy az ember foglalkozzon adatokkal, megismerjen modelleket, és mindig tisztában legyen azzal hogy a modelleket kell az adatokhoz szabni, nem fordítva. Ha ökonometriát tanítanék, akkor Gelman és Hill könyvét választanám — az első 7-9 fejezet ideális egy BA kurzushoz, míg a második fele nagyon komoly alapokat ad MA szinten — miközben egyetlen bizonyítás sincs benne, viszont programozni, főleg szimulálni, rengeteget kell benne, de nagyon fokozatosan vezeti be.