Vincze János a Budapesti Corvinus Egyetem Matematikai Közgazdaságtan és Gazdaságelemzés Tanszékén egyetemi docens, valamint az MTA Közgazdaságtudományi Intézete tudományos főmunkatársa. Előzőleg dolgozott a Magyar Nemzeti Bankban, illetve a Pénzügyminisztériumban, és oktatott a Közép-Európai Egyetemen. Publikációi vannak a makro- és a mikroökonómia több témaköréből.
Vincze János hozzászólása egyben letölthető innen.
Világi Balázs írásában leírtak nagy részével egyetértek, mondhatnám mindennel, ha nem lennék óvatos. Az RBC és DSGE modellcsaládok statisztikai teljesítményének bemutatása jó és alapos. Fontos állítása, hogy tényleg ideje lenne mikroökonómiailag megalapozni a makromodelleket, nemcsak „úgy tenni, mintha”, és én is úgy gondolom, hogy valami ágens-alapú dologra is nagy szükség van. Néhány további, elvi jelentőségű problémát is látok azonban, amelyekkel nehéz lesz megbirkózni.
Tények
Az elméletek empirikus teljesítményét az adatoknak való megfelelésként (magyarázat), vagy előrejelzési képességként szokás definiálni. Az első, általában elhanyagolt kérdés a makroökonómiai modellek (elméletek) teljesítményével kapcsolatban az, hogy mi azoknak a tényeknek (vagy adatoknak) a természete, amiket magyarázni, vagy előrejelezni kellene.
Mit válaszolna az a makroökonómia tanár, akihez egy hallgató a következő gondolatmenettel fordulna? „Ugyebár a reál GDP-nek vesszük a növekedési ütemét, ami azt jelenti, hogy arányskálán mérjük. Tehát értelmesnek tartjuk azt az állítást, hogy mondjuk Magyarországon 20 évvel ezelőtt az egy főre eső reál GDP a fele volt a mainak? Azt értem, hogy mit jelent, az, hogy egy éves koromban fele olyan magas voltam, mint ma, meg van jelölve a magasságom otthon egy ajtón. De mit jelent ez a kétszeres vagy feleakkora GDP? Egy 20 évvel ezelőtti átlagember feleannyit vásárolhatott mindenből? Bizonyos dolgok nem is léteztek még akkor, például DVD-k. Hogyan tudom ellenőrizni ezt az állítást, higgyem el, ami a statisztikai kiadványokban szerepel és kész?”
A reál GDP a makroökonómia egyik központi kategóriája, tehát illene jó választ adni erre a kérdésre. Sajnos olyan válasz nem adható, amit a hallgató elfogadhatna, legalábbis amennyiben nem függeszti fel kritikai gondolkodását. Az aggregáció problémájának megoldásakor a tanár a mikroökonómiára sem hivatkozhat jó szívvel, mivel bár a mikroökonómia könyvekben néha szerepelnek még ma is aggregálhatósági eredmények, az aggregálhatóság feltételeinek teljesülésében hinni csak nagy beleérző képességgel lehet. A használatos reál makroaggregátumok nem rendelkeznek elvben sem azokkal a tulajdonságokkal, amik valódi arányskálán mért változókká tennék őket, sőt hozzátehetjük, semmi sem indokolja azt sem, hogy ordinálisan mért változók lennének.
Ez „csupán” egy elvi probléma, amit gyakran félresöpörnek valami olyasmi félmondattal, hogy „de azért közelítőleg lehet jó”, ha nem is tudják megmondani, hogy mit közelítenek. A makroökonómiai adatok gyártásának azonban vannak gyakorlati problémái is: nevezetesen hány makroökonómus tudná megmondani, hogy például a KSH hogyan veszi figyelembe a kábítószer kereskedelmet és a prostitúciót a GDP meghatározásakor? Vagy egyáltalán a feketegazdaságot? A statisztikai hivatalok procedúrái csak közelítőleg ismertek, az időben változnak és különösen visszamenőleg reprodukálhatatlanok. Mely „tudományban” képzelhető még el az, hogy művelői ennyire ne tudják, hogy hogyan is keletkeznek azok az adatok, amiket magyarázniuk kellene, és ennyire ne is érdekelje őket, dacára annak, hogy mind szociológiai, mind pedig politikai érdekeltségi viszonyok miatt sem bízhatnak abban, hogy jó kiszolgálásban részesülnek? Ez vonatkozik természetesen nemcsak a reál GDP-re, hanem például az inflációra is.
Véleményem szerint az lenne a meglepő, ha valamely elméleti modell magyarázná, előrejelezné azokat a tényeket, amelyeket az elmélet alkotója nem is ismer, és amelyek eredete és koncepciója is, enyhén szólva, kétes. Van okunk feltételezni, hogy az adatok szabályszerűségei gyakran a statisztikusok prekoncepcióit tükrözik. Az az érv, hogy ezekre a tényekre szükség van, és azzal kell főznünk, ami van, még a konyhában sem állja meg helyét. Romlott húst normális ember nem készít el önmagának, persze az étteremben lehet, hogy rásózzák.
Félreértések elkerülése végett: nem általában az aggregálással van bajom, hanem azzal, ahogyan használjuk az aggregátumokat. Az „egydimenziósítás” egyfajta heurisztika, ami konkrét gyakorlati célokra jól működhet. Például mindenki tudja, hogy a különböző sport világranglisták még esetlegesebb súlyozáson alapulnak, mint a makro aggregátumok. Mégis lehetnek értelmesek, mert segíthetnek úgy irányítani a sorsolásokat, hogy a versenyek izgalmasak legyenek. Továbbá „objektivitásuk” miatt a pártosság és manipulálhatóság vádját is elkerülik, néha. A GDP vagy CPI aggregátumok gyakorlati felhasználása is lehet ésszerű (a CPI-től függővé tenni szerződéseket vagy GDP arányosan felosztani támogatásokat), de mint tudományos célokra használt kvantitatív mértéktől nem lehet tőlük elvárni semmi jót.
Statisztika
Bár az ökonometria szó jelentése „gazdasági mérés”, ugyanúgy nem mérés a tárgya, mint ahogy a geometria sem földméréssel foglalkozik. Mégis mintha gyakran mondanák azt ökonometriai vizsgálatokra, hogy „megmértünk” velük valamit. Legyünk precízek, és különböztessük meg az adatok generálását (megfigyelés, mérés) és az adatok transzformálását. Az ökonometria sohasem mér, mindig „megfigyelt” adatokat transzformál, amiből aztán következtetéseket vonunk le. Az előző pontban arról volt szó, hogy a makroökonómiai adatok megfigyelésével milyen problémák vannak: a statisztikai hivatalok által közölt adatok már maguk is transzformáltak, ahol ezeknek a transzformációknak az elvi alapjai is zűrösek, továbbá a felhasználók számára ismeretlenek. Ezek a kritikák a makroökonómiára igazak elsősorban, a most következő érvelések azonban általában érintik a közgazdaságtant, tehát a makromodellek empirikus mikromegalapozásának lehetőségét.
Hogyan definiáljuk elméleteink megfelelését az adatoknak? A közgazdászok szinte mindig valamilyen statisztikai (ökonometriai) modellben gondolkodnak ilyenkor. A klasszikus statisztika (ami alkalmazott valószínűségszámítás) alapfogalma a fenntartott hipotézis: meghatározzuk a vizsgálat kezdetén azokat a lehetséges eloszlásokat, amelyekből vett realizációnak tekintjük az adatainkat. Érdekes módon a modern könyvekből ez a fogalom gyakran hiányzik. A hipotézis vizsgálatnál megkülönböztetik a null és az alternatív hipotézist, de elfelejtik felhívni a figyelmet arra, hogy ezek uniója a fenntartott hipotézis, amit az adott statisztikai vizsgálat megkérdőjelezhetetlenül igaznak tekint, és ennek folytán minden következtetés ennek logikai folyománya. A „tesztek” nem a hipotézisek abszolút jóságát mutatják, hanem csak azt, hogy ki nyer a versenyzők között. Maradva a jól bevált sporthasonlatnál: magyar labdarúgó bajnok 1967-ben is volt és 2012-ben is lesz…
A modern matematikai statisztika népszerűségét azoknak a sikereinek köszönheti, amelyekkel bebizonyította, hogy a paraméterbecslési, hipotézistesztelési stb. eljárások hasznosak. Milyen egy eredeti statisztikai alkalmazás? Gyakorlatilag mindig olyan helyzetről volt szó, ahol létezett egy bombabiztos fenntartott hipotézis, vagy azért mert a feladat természete józan ésszel is elemezhető volt, vagy pedig azért, mert fel tudtak használni a statisztikai vizsgálattól függetlenül „igazolt” kvantitatív törvényszerűségeket. Például kevés példány kiválasztásával becslést adni arra, hogy mennyire selejtes egy adott alkatrész-szállítmány, vagy egy adott anyag fizikai tulajdonságaira következtetni több mérés felhasználásával. A statisztika szerepe nem általánosítás, vagy elméletek közötti döntés, volt, hanem bizonyos speciális, akcidentális tények „felfedezése”, leírása. Az, hogy egy urnában hány piros és hány fehér golyó van, aligha vezethető le természettörvényekből. Viszont tudunk következtetéseket levonni erről a tényhelyzetről anélkül, hogy az egész urnát ki kellene borítanunk.
Vegyünk egy olyan nem-természettudományos alkalmazást, mint „exit poll”-ból következtetni a választások eredményére. Ehhez a fenntartott hipotézis, azt hiszem, az, hogy minden szavazó mintába kerülése azonos valószínűségű, egymástól független események, valamint, hogy a megkérdezettek helyes választ adnak (emlékeznek arra, hogy melyik pártra szavaztak, és nem akarják becsapni a kérdezőket). Volt olyan hazai választás, amikor még ezek a hipotézisek sem teljesültek, a politológusi hibák mértékékéből ítélve.
Közgazdasági problémáknál bombabiztos fenntartott hipotézis szinte sohasem létezik. A makroökonómiában az utóbbi évtizedekben népszerűvé vált VAR modellek művelői ugyan ezt szerették volna elhitetni, sőt, talán sikerült is nekik. A linearitás, a normalitás olyan „miért ne” feltevések, amelyeket legfeljebb avval lehet igazolni, hogy máshol gyakran beválnak. Ha megpróbálunk nyomozni azután, hogy hol váltak be és ezt mi bizonyítja, akkor valószínűleg eljutunk a legendás állításpárig: a fizikusok úgy tudják, hogy a normalitás egy matematikai tétel, a matematikusok pedig azt hiszik, hogy fizikai törvényszerűség. Persze az ökonometrikusnak szerencséje van politológus kollégáihoz képest, nyugodtan alhat: ha az éppen elfogadott szakmai sztenderdeket betartja, nem válhat nevetségessé. Soha semmilyen tény nem fogja nyilvánvalóan bizonyítani azt, hogy az 5%-os infláció költsége fogyasztásban kifejezve nem X százaléka a GDP-nek, igaz, hogy főműsoridőben sem mondhatja ezt el a televízióban.
Sikeres módszereket persze mindig igyekszünk felhasználni az eredetitől eltérő kontextusban is. Ezért mi sem természetesebb, hogy a statisztikát sokan próbálják általános új ismeretek generálására használni. Arról, hogy ez milyen sikerrel jár, némi fogalmat alkothatunk magunknak, ha egy olyan területre tekintünk, ahol a tények gyakrabban adnak pofonokat a kutatóknak, mint a közgazdaságtanban. Az orvostudomány például rengeteg olyan statisztikai állítást termel ki, ami mögött nincs mély tudás, ám jól hangzik újsághírként (a bor hatása a szívbetegségekre, rákkeltő anyagok hosszú listája stb.). Szerencsére sokan foglalkoznak ilyesmivel, az egyes vizsgálatok eredményeit (nemcsak a számításokat, mint az ökonometriában, hanem az adatok létrehozását is) igyekeznek reprodukálni. Van-e szerepe a sikerben a kísérlet vagy mintavételek megszervezésének, annak, hogy mennyire kontrollálja a kísérletező az adatgenerálási folyamatot? Léteznek olyan vizsgálatok, amelyek azt kutatták, hogy az orvosi statisztikai eredmények milyen százalékban cáfolódnak hosszú távon. Azt találták, hogy azok az „eredmények” amiket természetes úton, tehát nem kontrollált kísérletből, nyernek 80%-ban megdőlnek. A közgazdasági adatok messze túlnyomó része ilyen. Ugyan a véletlen mintavétellel előállított, nagy mintás, kontrollált kísérleteknél a halálozási valószínűség 10%-ra megy le, de kétlem, hogy közgazdasági problémáknál akár megközelítőleg is ilyen jó lehetne a helyzet.
Tanulság: ha netalántán megegyezést találnánk egy modell és a tények között, a kontrollált kísérletezés hiánya miatt arra kellene fogadnunk, hogy a siker egyáltalán nem lesz örök. A statisztika a közvélekedéssel ellentétben nem igazán alkalmas gazdasági adatok mélyenszántó elemzésére.
Elméleti modell
Mire jó egy modell (elmélet)? Egy ismert történet szerint Stanislaw Ulam tette fel azt a kérdést, hogy létezik-e igaz és nem triviális közgazdasági elmélet. Samuelson válasza az volt, hogy a komparatív előnyök ricardói elmélete ilyen. Mitől lesz ez igaz, a tényeknek való megfeleléstől, akár predikcióiban, akár feltevéseiben? Nyilván egyik sem. A komparatív előnyök elmélete egy tanmese , aminek fontos tanulságai vannak, és bizony nem is könnyű megérteni. (A tanmese terminus eredete Edmund Phelps cikke.) Empirikus cáfolása vagy igazolása értelmetlen, még ha voltak is ilyen kísérletek. Olyan, mintha La Fontaine-t tesztelné valaki a rókák és hollók sajtfogyasztására vonatkozó predikciókkal.
Vannak azonban másmilyen modellek is, amiket a gyakorlatban akarunk használni (és persze lehetnek átmenetek is a kettő között). Ezeknél valamilyen empirikus igazolás már igenis fontos, hiszen ha használni akarjuk ezeket, akkor nem alapozhatunk csak a hitre. Fel kell használnunk mikroökonómiai kutatások eredményeit, a tanmesék tanulságait és az egyszerű józan eszünket is. A modellek jósága mindig csak valamely meghatározott cél összefüggésében értelmezhető, nem érdemes általában vett jóságukról beszélni, még ha sajnos a legtöbb mai vita ezt nem is veszi figyelembe, és általában dorongolják vagy védik a makromodelleket. Enyhén lenézett szakmák (operációkutatók, üzleti (vállalati) gazdászok, meteorológusok) modellvalidációnak nevezik azt a folyamatot, amely során eldöntik, hogy egy modell megfelel-e a modellező céljainak. (Az üzleti modellek validációjáról lásd például: Michael J. North - Charles M. Macal: Managing Business Complexity: Discovering Strategic Solutions with Agent-Based Modeling and Simulation.) Ideje lenne talán megpróbálni tanulni ebből az irodalomból is. A jelenleg a közgazdászok által használt validációs módszerek – ha nem is használjuk a kifejezést, valójában mi sem teszünk mást – főként matematikai statisztikai alapúak (formális tesztek), vagy elméleti feltevéseket használnak (kalibráció). Ezek mindig is részét fogják képezni a validációs repertoárnak, de léteznek másfajta kvantitatív módszerek is. A bölcsek kövét persze nem fogjuk megtalálni.
Összefoglalva tehát:
- Ha lehet ne használjunk makroaggregátumokat, legfeljebb a modell outputjának prezentálására, és törődjünk többet az adatok generálásával.
- Vegyük komolyan azt, hogy egy statisztikai modell érvényessége a fenntartott hipotézis érvényességétől függ, ha erről nem tudunk semmit vagy semmi jót, akkor legyünk kellőképpen szkeptikusak. (Úgy tűnhet, a bayesi ökonometria kezeli ezt a problémát, ám szerintem csak látszólag.)
- Nyugodjunk bele abba, hogy nincs általában érvényes modell, a validációs technikák „célfüggőek”, forduljunk segítségért olyan diszciplínákhoz, ahol élesben használnak kvantitatív modelleket.