Bij econometrie gaat het om de gezamenlijke inzet van economische theorie en statistische methoden bij het beantwoorden van economische vragen. De ontwikkelingen in de econometrie hangen samen met de opkomst van nieuwe vakgebieden als de financiële economie, de toenemende beschikbaarheid van microdata en de ontwikkeling van de computer.
106Jaargang 101 (4727) 4 februari 2016
ESB Geschiedenis & Denken
Canon deel 23:
Econometrie
D
e Econometric Society is begin jaren der –
tig opgericht om de gezamenlijke inzet
van economische theorie en statistische
methoden bij het beantwoorden van
praktische economische vragen te be –
vorderen. Ragnar Frisch (1933), een van de oprichters, be –
nadrukte toen het belang van deze ‘econometrie’ als volgt:
“[E]ach of these three viewpoints, that of statistics, economic
theory, and mathematics, is a necessary, but not by itself a suf –
ficient condition for a real understanding of the quantitative
relations in modern economic life. It is the unification of all
three that is powerful. And it is this unification that constitu –
tes econometrics.” De Noor Frisch won in 1969, samen met Jan Tinber –
gen, de eerste Prijs van de Zweedse Rijksbank voor Econo –
mie, uitgereikt ter herdenking van het 300-jarig bestaan
van deze bank en sindsdien veelal de Nobelprijs voor de
Economie genoemd. Dit artikel biedt, door tien vensters, een blik op de
belangrijkste ontwikkelingen in de econometrie sinds die
eerste Nobelprijs. Sommige daarvan gaan direct terug tot de
vroege econometrie; zo herinnerde Lucas (1976) economen
aan de cruciale rol van economische theorie in de statisti-
sche analyse van economische problemen. Andere hangen
echter samen met de opkomst van nieuwe vakgebieden als
de financiële economie, de toenemende beschikbaarheid
van microdata en de ontwikkeling van de computer. In de nabije toekomst voorzien we een grote rol voor
de econometrie in de analyse van big data. Zoals Frisch in
1933 al schreef:“This unification is more necessary today
than at any previous stage in economics. Statistical informa-
tion is currently accumulating at an unprecedented rate. But
no amount of statistical information, however complete and
exact, can by itself explain economic phenomena. If we are not
to get lost in the overwhelming bewildering mass of statistical
data that are now becoming available, we need the guidance
and help of a powerful theoretical framework. Without this
no significant interpretation and coordination of our observa-
tions will be possible.”Frisch, R. (1933) Editor’s Note. Econometrica 1(1), 2.
Lucas, R.E. (1976) Econometric policy evaluation: a critique. Carnegie-
Rochester conference series on public policy, 1, 19–46.
1
DE GEGENERALISEERDE MOMENTEN
METHODE
Traditionele econometrische methoden, zoals ont –
wikkeld in de eerste helft van de vorige eeuw, zijn veelal
gebaseerd op het principe van maximum likelihood (ML)
of van kleinste kwadraten. Toepassing van ML vereist dat
de gezamenlijke kansverdeling van de endogene variabelen
(conditioneel op exogene variabelen) bekend is op een aan –
tal parameters na. Als alleen de voorwaardelijke verwach –
ting gespecificeerd is, dan kunnen parameters geschat wor –
den met (eventueel niet-lineaire) kleinste kwadraten. Veel economische modellen zijn te formuleren als de
GESCHIEDENIS
& DENKEN
JAAP ABBRING
Hoogleraar aan de
Universiteit van
Tilburg
PETER BOSWIJK
Hoogleraar aan de
Universiteit van
Amsterdam
PHILIP HANS
FRANSES
Hoogleraar aan de
Erasmus Universiteit
Rotterdam
Geschiedenis & Denken ESB
107Jaargang 101 (4727) 4 februari 2016
oplossing van een optimalisatieprobleem onder onzeker-
heid. De eerste-orde-voorwaarden krijgen dan de vorm van
momentvoorwaarden: bepaalde niet-lineaire functies van
de variabelen en parameters hebben verwachting nul. Een
bekend voorbeeld is de afweging tussen consumptie nu of
later, waarbij het niet-geconsumeerde vermogen wordt be –
legd in aandelen. De momentvoorwaarde betreft dan een
niet-lineaire relatie tussen aandelenrendementen en con –
sumptiegroei, waarin risicoaversieparameters een rol spelen. Het afleiden van de kansverdeling is in deze situaties
niet mogelijk zonder aanvullende, vaak onrealistische aan –
names. De gegeneraliseerde momentenmethode (GMM),
ontwikkeld door Lars Hansen (1982), biedt hiervoor een
oplossing. De klassieke momentenmethode vereist dat er
evenveel momentvoorwaarden zijn als parameters; door de
corresponderende steekproefmomenten op nul te stellen
en deze vergelijkingen op te lossen vinden we de parame –
terschattingen. GMM speelt een rol als we meer moment –
voorwaarden dan parameters hebben; in dat geval kiezen
we de parameterwaarden die de momentenvector zo dicht
mogelijk bij nul brengen. In specifieke situaties reduceert GMM tot de kleinste-
kwadratenmethode, ML of de instrumentele-variabelen –
methode. De aantrekkingskracht van GMM zit hem erin
dat we niet (veel) meer aannames maken dan het econo –
mische model impliceert. Dat geldt ook voor de bepaling
van de standaardfouten (die de schattingsonzekerheid aan –
geven), zoals beschreven in venster 3.
Hansen, L.P. (1982) Large sample properties of generalized method of
moments estimators. Econometrica, 50(4), 1029–1054.
2
MICROECONOMETRIE
In de tijd van Jan Tinbergen en Henri Theil wer –
den econometrische modellen en methoden vooral
ontwikkeld voor laagfrequente tijdreeksgegevens, zoals bij –
voorbeeld jaarlijkse groeicijfers, export, import en prijzen
van landen. Sinds de jaren zeventig richten economen zich
steeds meer op de analyse van microdata; dat zijn gegevens
over de eigenschappen, keuzen en uitkomsten van indivi-
duele personen of bedrijven. Het kan hier gaan om een en –
kele steekproef (cross-sectie) van een groot aantal personen
of bedrijven, maar ook om een panel met individuele gege –
vens over de tijd (venster 6). Micro-econometrie houdt zich bezig met de analyse
van microdata. Daniel McFadden en James Heckman kre –
gen daar in 2000 een Nobelprijs voor. Hun klassieke papers
illustreren mooi wat er bijzonder aan is aan de analyse van
microgegevens. McFadden (1973) liet zien hoe het zoge –
heten logitmodel voor discrete uitkomsten kan worden
afgeleid uit een economisch keuzemodel met een eindig
aantal keuzeopties. Dat is van belang omdat veel keuzen op
individueel niveau, bijvoorbeeld de keuze om te werken of
niet, discreet zijn. Heckman (1979) ontwikkelde een sim –
pele schatter voor, bijvoorbeeld, loonvergelijkingen in het
geval dat lonen alleen waargenomen worden voor perso –
nen die ervoor kiezen te werken. Dit is geen willekeurige
steekproef, want mensen zijn heterogeen en alleen mensen
voor wie dat aantrekkelijk is zullen werken. Meer in het al –
gemeen richt micro-econometrie zich op de uitdagingen
en mogelijkheden van de analyse van gegevens over hetero –
gene individuen of bedrijven. Micro-econometrie heeft toepassingen op alle gebie –
den van de micro-economie en de industriële organisatie.
Het wordt ook gebruikt voor onderzoek naar de micro-
economische funderingen van de macro-economie. De
Nobelprijswinnaar van 2015, Angus Deaton, leverde bij –
voorbeeld belangrijke methodologische en empirische
bijdragen aan de analyse van consumptiekeuzen op zowel
individueel als geaggregeerd niveau. Een ander succesvol
toepassingsgebied van de micro-econometrie is micro-eco –
nomische beleidsevaluatie (venster 8).
Heckman, J.J. (1979) Sample selection bias as a specification error .
Econometrica, 47(1), 153–161.
McFadden, D. (1973) Conditional logit analysis of qualitative choice
behavior. In: P. Zarembka (red.), Frontiers in Econometrics. New York:
Academic Press, 105–142.
3
MISSPECIFICATIE EN ROBUUSTHEID
Econometrische methoden zoals maximum likeli-
hood (ML) of de gegeneraliseerdemomentenmetho –
de (GMM) worden gebruikt om de onbekende parameters
in een economisch model te schatten. Zonder informatie
over de statistische onzekerheid zijn dergelijke schattingen
echter niet veel waard. Daarom is het belangrijk om stan –
daardfouten bij schattingen te vermelden. De traditionele
ML-standaardfouten zijn afgeleid onder de veronderstel –
ling van correcte modelspecificatie: de data zijn afkomstig
uit het veronderstelde model met een specifieke parameter –
waarde. In de praktijk zijn we niet zo zeker over alle mo –
delveronderstellingen (zoals normaliteit van storingen). Er
is dus behoefte aan schatters en vooral standaardfouten die
robuust zijn tegen milde vormen van misspecificatie. Halbert White (1982) ontwikkelde hiervoor de be –
nodigde theorie van quasi maximum likelihood, met in het
ESB Geschiedenis & Denken
108Jaargang 101 (4727) 4 februari 2016
bijzonder een uitdrukking voor robuuste standaardfouten.
In het geval van lineaire regressie leidde dit principe tot he-
teroskedasticiteitsconsistente standaardfouten die hij een
paar jaar eerder had afgeleid. Maar hetzelfde principe kan
bijvoorbeeld worden toegepast op modellen voor aantallen
(counts) waarbij men niet zo zeker is van de Poisson-verde –
lingsaanname. In modellen voor tijdreeksen kan misspecificatie er
ook toe leiden dat er autocorrelatie optreedt in de storin –
gen; dit risico geldt in het bijzonder voor modellen die
zijn geformuleerd in termen van momentvoorwaarden. Zo
kan een model impliceren dat de afgeleide van een doel –
stellingsfunctie verwachting nul heeft, maar niet dat die
afgeleiden in verschillende perioden onafhankelijk zijn.
Daarom worden in GMM-toepassingen op tijdreeksen
vaak zogenaamde heteroskedasticiteits- en autocorrelatie –
consistente standaardfouten gebruikt; de meest populaire
versie daarvan werd ontwikkeld door Whitney Newey en
Kenneth West (1987).
Newey, W.K. en K.D. West (1987) A simple, positive semi-definite,
heteroskedasticity and autocorrelation consistent covariance matrix.
Econometrica, 55(3), 703–708.
White, H. (1982) Maximum likelihood estimation of misspecified mo –
dels. Econometrica, 50(1), 1–26.
4
NIET STATIONAIRE TIJDREEKSEN
Empirisch onderzoek binnen de macro- en financi-
ele economie is vaak gebaseerd op tijdreeksgegevens.
Statistische tijdreeksmethoden veronderstellen dat variabe –
len stationair zijn en dus verdelingen hebben die niet afhan –
gen van de tijd, wat bijvoorbeeld de mogelijkheid van een
veranderende trend uitsluit. Toepassing van zogenaamde
unit-root -toetsen leert echter dat veel economische reeksen
wel degelijk een dergelijk trendmatig gedrag vertonen, re –
delijk beschreven door een random-walk-model. Econome –
trisch onderzoek op het gebied van unit-root-toetsen heeft
robuuste toetsen opgeleverd (die geen volledige specificatie
van het model vereisen), maar ook toetsen met een hoger
onderscheidingsvermogen. Als variabelen in een economisch model trendmatig
gedrag vertonen, dan is de volgende vraag hoe de relatie
tussen deze variabelen het beste geanalyseerd kan worden.
Een veel toegepaste oplossing is om de trend te verwijderen
voor de analyse, bijvoorbeeld door het nemen van groeivoe –
ten, of door de trend eruit te filteren. Maar Robert Engle en
Clive Granger (1987) lieten zien dat daarmee de informa –
tie over stabiele relaties tussen reeksen (bijvoorbeeld tussen
de spot- en termijnkoersen op financiële markten) verloren
gaat. Søren Johansen (1991) ontwikkelde een maximum-li –
kelihood-procedure om deze zogenaamde co-integratierela –
ties te analyseren, die tot de standaardgereedschapskist van
toegepaste macro- en financieel economen is gaan behoren. Naast co-integratie zijn er alternatieve modellen om
niet-stationariteit te beschrijven. Veel daarvan zijn geba –
seerd op parameters die variëren in de tijd. Als er continue
(en geleidelijke) verandering plaatsvindt, dan biedt het
Kalman-filter (Hamilton, 1994) een mogelijkheid om de
trends te schatten en te analyseren. In andere gevallen lijkt
de variatie beperkt tot een incidentele structurele verande –
ring , zoals een koerswijziging in het monetaire beleid met
het aantreden van een nieuwe centralebankpresident. Een
populair model om de kans op een dergelijke regimeveran –
dering te voorspellen werd ontwikkeld door James Hamil –
ton (1994).
Engle, R.F. en C.W.J. Granger (1987) Co-integration and error correction:
representation, estimation, and testing. Econometrica, 50(2), 251–276.
Hamilton, J.D. (1994) Time Series Analysis. Princeton: Princeton Univer –
sity Press.
Johansen, S. (1991) Estimation and hypothesis testing of cointegration
vectors in Gaussian vector autoregressive models. Econometrica, 59(6),
1551–1580.
5
FINANCIËLE ECONOMETRIE
Centraal in de financiële economie staat de afweging
tussen rendement en risico. De Asset-pricing-theorie
probeert verschillen in verwacht rendement tussen aan –
delen te verklaren uit verschillen in risico. Om specifieke
antwoorden op deze vraag , zoals het Capital Asset Pricing
Model , te kunnen toepassen en toetsen zijn specifieke regres-
siemethoden ontwikkeld. Veel gebruikt zijn tweestapsme –
thoden: in de eerste stap wordt de gevoeligheid of bèta van
individuele rendementen voor gezamenlijke risicofactoren
geschat in tijdreeksregressies; in de tweede stap worden
verschillen in de cross-sectie van gemiddelde rendemen –
ten verklaard uit verschillen in geschatte bèta’s. Cochrane
(2005) laat zien hoe beide stappen te combineren zijn in
een GMM-procedure en hoe gecorrigeerd kan worden
voor het feit dat in de tweede stap geschatte in plaats van
werkelijke bèta’s gebruikt worden. Daarnaast heeft de financiële econometrie modellen
ontwikkeld voor de tijdsvariatie in beleggingsrisico. Een
centraal begrip hierbij is volatiliteitsclustering : tijdreeksen
van aandelenrendementen laten zien dat perioden van gro –
Geschiedenis & Denken ESB
109Jaargang 101 (4727) 4 februari 2016
te bewegingen in de markt worden afgewisseld met rustiger
perioden. Robert Engle en Tim Bollerslev ontwikkelden
daarvoor het GARCH-model (generalized autoregressive
conditional heteroskedasticity), dat vervolgens in vele rich-
tingen is uitgebreid; een overzicht wordt gegeven in Bol –
lerslev et al. (1994).
Met de toegenomen beschikbaarheid van financi-
ele data met een zeer hoge waarnemingsfrequentie (zoals
koersveranderingen per seconde) zijn nieuwe methoden
ontwikkeld, waarmee de ex post volatiliteit aan het eind
van de dag gemeten kan worden. Met behulp van deze
gerealiseerde volatiliteiten blijkt het beleggingsrisico ook
beter (ex ante) voorspeld te kunnen worden. Het is nog te
vroeg om te beoordelen of deze methoden hun weg zullen
vinden naar de praktijk, zoals dat eerder wel met GARCH-
modellen is gebeurd.
Bollerslev, T., R.F. Engle en D.B. Nelson (1994) ARCH Models. In: R.F.
Engle en D.L. McFadden (red.), Handbook of Econometrics, volume IV.
Amsterdam: Elsevier.
Cochrane, J.H. (2005) Asset Pricing (tweede editie). Princeton: Princeton
University Press.
6
PANELDATA
In de econometrie onderscheiden we verschillende
typen van gegevens: tijdreeksen worden vooral
gebruikt in de macro-economie en financiering , terwijl
cross-secties veel gebruikt worden in empirisch micro-eco –
nomisch onderzoek. Vooral in empirisch micro-onderzoek
wordt echter steeds meer gebruikgemaakt van paneldata.
Daarin worden beide dimensies gecombineerd: we hebben
dan herhaalde waarnemingen over dezelfde groep van huis-
houdens, bedrijven of landen (kortweg ‘individuen’). Het
grote voordeel van paneldata boven cross-secties is dat het
een mogelijkheid biedt om te corrigeren voor niet-waarge –
nomen heterogeniteit: verschillen tussen individuen die
niet volledig kunnen worden toegeschreven aan verschillen
in waargenomen verklarende variabelen. Deze individuele effecten kunnen als stochastische
storingen (random effects) of als parameters ( fixed effects)
beschouwd worden; de keuze daartussen bepaalt welke
schattingsmethode geschikt is. Het grote voordeel van fixed
effects is dat toegelaten wordt dat deze effecten samenhan –
gen met de verklarende variabelen. Daar staat tegenover dat
het aantal te schatten parameters erg groot wordt. Vooral
in dynamische modellen leidt dat tot een vertekening in
fixed-effects-schatters, de zogenaamde Nickell-onzuiver –
heid (Nickell, 1981). Manuel Arellano en Steven Bond
(1991) ontwikkelden een GMM-schatter voor lineaire dy –
namische paneldatamodellen die geen last heeft van deze
onzuiverheid. De enorme populariteit onder economen
van dynamische paneldatamodellen en de Arellano-Bond-
schatter heeft ermee te maken dat het gedrag van indivi-
duen heel vaak een vorm van padafhankelijkheid vertoont,
bijvoorbeeld vanwege aanpassingskosten. In micro-economische panels is het vaak redelijk om
te veronderstellen dat de individuen onafhankelijk van el –
kaar zijn. Paneldatamethoden worden echter ook toege –
past op macro-economische data waarbij de ‘individuen’
bijvoorbeeld landen of regio’s zijn. In dat geval is het zeer
waarschijnlijk dat individuen afhankelijk zijn van gezamen-
lijke (globale) factoren, wat leidt tot cross-sectionele afhan –
kelijkheid. Methoden om hiermee rekening te houden zijn
ontwikkeld door Jushan Bai en Serena Ng (2002).
Arellano, M. en S. Bond (1991) Some tests of specification for panel
data: Monte Carlo evidence and an application to employment equa –
tions. Review of Economic Studies, 58(2), 277–297.
Bai, J., en S. Ng (2002) Determining the number of factors in approxi –
mate factor models. Econometrica, 70(1), 191–221.
Nickell, S. (1981) Biases in dynamic models with fixed effects. Econome-
trica, 49(6), 1417–1426.
7
DE LUCASKRITIEK EN STRUCTURELE
MACROECONOMETRIE
Tot zo’n veertig jaar terug was het gebruikelijk om
macro-economisch beleid te evalueren op basis van histori-
sche relaties tussen macro-economische variabelen. Een be –
langrijk voorbeeld is de Phillips-curve, die stelt dat hogere
inflatie samengaat met minder werkloosheid. De Phillips-
curve leek te suggereren dat de werkloosheid verlaagd kan
worden met beleid dat de inflatie aanjaagt. Het probleem
is dat dit alleen werkt als je mensen systematisch kunt ver –
rassen met hoge inflatie. Robert Lucas (1976) merkte op
dat het waarschijnlijker is dat mensen hun verwachtingen
aanpassen als de overheid nieuwe beleidsregels invoert.
Historische relaties als de Phillips-curve veranderen daar –
door met het beleid en zijn dus niet direct geschikt om de
effecten daarvan te bepalen. Lucas pleitte daarom voor het expliciet modelleren
van macro-economische relaties in termen van zogeheten
diepe parameters die het gedrag en de verwachtingen van
individuele mensen en bedrijven bepalen, zoals de voorkeu –
ren van consumenten, en die niet veranderen bij beleids-
wijzingen. In het bijzonder Thomas Sargent (1973) ont –
wikkelde econometrische methoden voor zulke modellen,
vaak onder de aanname van rationele (modelconsistente)
verwachtingen. Christopher Sims (1980) nuanceerde het beeld dat het
altijd nodig is om volledig op individueel gedrag gebaseerde
modellen te gebruiken. Zijn ‘structurele vector-autoregres-
siemodellen’ (SVAR’s) voorspellen in beginsel simpelweg
macro-economische variabelen als de productie, inflatie en
rente in termen van diezelfde variabelen in eerdere perio –
den. Sims besteedde vervolgens bijzondere aandacht aan de
ontleding van de bijbehorende voorspelfouten in de effec-
ten van onafhankelijke structurele schokken. Het effect van
een structurele schok in een beleidsinstrument als de rente
op de modeluitkomsten kan vervolgens worden geïnterpre –
teerd als het effect van een tijdelijke, onverwachte beleids-
wijziging. Voordeel van SVAR’s is dat ze minder afhankelijk
zijn van specifieke gedragsaannames. Ze zijn echter niet zo
geschikt voor de evaluatie van meer systematische beleids-
wijzigingen, omdat die waarschijnlijk, via een effect op de
verwachtingen, de SVAR veranderen. De benaderingen van
Sargent en Sims vullen elkaar dus goed aan.
ESB Geschiedenis & Denken
110Jaargang 101 (4727) 4 februari 2016
Lucas, R.E. (1976) Econometric policy evaluation: a critique. Carnegie-
Rochester conference series on public policy, 1, 19–46.
Sargent, T.J. (1973) Rational expectations, the real rate of interest,
and the natural rate of unemployment. Brookings Papers on Economic
Activity, 1973(2), 429–480.
Sims, C.A. (1980) Macroeconomics and reality. Econometrica, 48(1),
1–48.
8
MICROECONOMISCHE BELEIDSEVALUATIE
Veel onderzoek in onder meer de arbeids- en ont –
wikkelingseconomie richt zich op de evaluatie van
beleidsinterventies op individueel niveau. Neem bijvoor –
beeld een programma dat training aanbiedt aan specifieke
werklozen, met het doel deze aan een baan te helpen. Als er
twee groepen werklozen zijn, één die altijd goede baankan –
sen heeft en één die alleen met training zo succesvol is, dan is
een programma dat alleen de tweede groep traint optimaal
(mits de baten voor deze groep groter zijn dan de kosten).
Met alleen gegevens van dit programma kan dit echter niet
worden vastgesteld, want die laten geen verschillen in uit –
komsten tussen getrainde en ongetrainde werklozen zien. Micro-econometristen hebben hier verscheidene op –
lossingen voor aangedragen. Een programma dat training
willekeurig aanbiedt aan werklozen, zoals een sociaal ex –
periment, geeft direct informatie over het gemiddelde trai-
ningseffect en daarmee het verschil tussen programma’s die
iedereen en niemand trainen. Met zogenaamde matching-
methoden kan dit worden uitgebreid naar programma’s
die training toewijzen op basis van (door de onderzoeker)
waargenomen eigenschappen van werklozen. Als training
samenhangt met voorspellers van de uitkomsten die de
onderzoeker niet waarneemt, dan wordt doorgaans ge –
zocht naar een natuurlijk experiment: dat is hier een situ –
atie met een bron van trainingsverschillen die niet samen-
hangt met de uitkomsten. Vervolgens kan bijvoorbeeld een
instrumentele-variabelenmethode worden gebruikt om het
gemiddelde effect te schatten voor de werklozen die door
dit natuurlijke experiment worden geraakt (Imbens en
Angrist, 1994). Voordeel van deze methoden is dat ze relatief weinig
aannames maken. Nadeel is dat elke methode en natuurlijk
experiment een ander gemiddeld effect schat. Ook geldt
mogelijk een soort Lucas-kritiek (venster 7) als de individu –
ele uitkomsten door evenwichtseffecten of verwachtings-
vorming niet alleen afhangen van de individuele training ,
maar ook van het trainingsprogramma. Een meer structu –
rele benadering , zoals in de macro-econometrie, lost dit op.
Onder meer James Heckman en Angus Deaton wezen op
het belang daarvan.
Imbens, G.W. en J.D. Angrist (1994) Identification and estimation of
local average treatment effects. Econometrica, 62(2), 467–475.
9
ECONOMISCH REKENEN
De opkomst van de computer heeft de economi-
sche wetenschap de laatste veertig jaar fundamen –
teel veranderd. Numerieke analyse maakt het nu mogelijk
problemen te onderzoeken die voorheen buiten het bereik
van de toegepast econoom lagen. Dit geldt zowel voor de
toepassing van eenvoudige empirische methoden op steeds
grotere gegevensverzamelingen als voor het gebruik van
ingewikkeldere methoden. Simulatieprocedures als op
Markov-ketens gebaseerde Monte-Carlo-simulatie en de
bootstrap, maar ook veel andere numerieke procedures,
worden nu routinematig gebruikt in de econometrie. Te –
gelijkertijd is het mogelijk geworden de uitkomsten van
ingewikkelde economisch-theoretische modellen te kwan –
tificeren ( Judd, 1998). Vooruitgang is in het bijzonder geboekt op het snij –
vlak van empirie en theorie, bij het empirisch kwantificeren
Geschiedenis & Denken ESB
111Jaargang 101 (4727) 4 februari 2016
van economisch-theoretische modellen. Soms is dit meer
te danken aan een slim perspectief op de economische
modellen dan aan de inzet van geavanceerdere numerieke
methoden. Zo kan de gegeneraliseerde momentenmethode
(venster 1) worden gebruikt om dynamische consumptie-
modellen te schatten op basis van de eerste-orde-voorwaar –
den, zonder daaruit de optimale consumptie te bepalen.
Ook voor modellen van keuzen tussen een beperkt aantal
alternatieven over de tijd (dynamische-discrete-keuzemo –
dellen) zijn methoden ontwikkeld die het uitrekenen van
de optimale keuzen zelf voorkomen. Dit is nuttig omdat
het uitrekenen van optimale keuzen soms lastig is en veel
rekentijd kan kosten. Vaak moet een economisch-theoretisch model wel
worden opgelost, al was het maar om het na schatting te
gebruiken voor bijvoorbeeld beleidsevaluatie. Een slimme
specificatie van de modellen is dan vaak het halve werk. Zo
koos de structurele macro-econometrie (venster 7) in eer –
ste instantie voor modellen die exact of bij benadering te
herleiden zijn tot makkelijk te schatten lineaire SVAR’s en
specificeerde John Rust (1987) zijn dynamische-discrete-
keuzemodel zodat het relatief eenvoudig op te lossen is. Re –
center is vooruitgang geboekt in de empirische analyse van
situaties die als spel zijn te modelleren, zoals concurrentie
tussen een beperkt aantal bedrijven. Bijzondere aandacht
gaat daarbij uit naar het feit dat deze vaak meerdere, moei-
lijk uit te rekenen, oplossingen hebben.
Judd, K.L. (1998) Numerical Methods in Economics. Cambridge, MA: The
MIT press.
Rust, J. (1987) Optimal replacement of GMC bus engines: an empirical
model of Harold Zurcher. Econometrica, 55(5), 999–1033.
10
IDENTIFICATIE
Een klassieke identificatievraag betreft de vraag
naar en aanbod van een goed bij verschillende
mogelijke prijzen. In de praktijk nemen we maar één rela –
tie tussen hoeveelheid en prijs waar, bijvoorbeeld de even –
wichtsprijzen en hoeveelheden over een reeks jaren. De
vraagcurve, die de vraag bij een gegeven prijs geeft, kunnen
we daar niet direct uit aflezen, maar is bijvoorbeeld wel no –
dig om het effect op consumenten van een prijsverhoging te
bepalen. Vroege econometristen als Jan Tinbergen onder –
zochten dan ook al hoe vraag- en aanbodcurven uniek be –
paald (geïdentificeerd) kunnen worden uit waargenomen
hoeveelheden en prijzen. Hiervoor gebruikten ze variabe –
len, anders dan de prijs, die alleen het aanbod of alleen de
vraag beïnvloeden. Sims (1980) bekritiseerde deze aanpak,
omdat zulke variabelen waarschijnlijk, via verwachtingen
over toekomstige prijzen, zowel vraag als aanbod beïnvloe –
den (venster 7). Met zijn SVAR’s richtte hij zich op de iden –
tificatie van de effecten van structurele schokken. Zowel de klassieke literatuur als Sims kijkt naar lineaire
modellen die tot op een eindig aantal onbekende parame –
ters gespecificeerd zijn. Recenter onderzoek richt zich op
identificatie zonder zulke tamelijk willekeurige veronder –
stellingen. In navolging van Charles Manski’s werk (Man –
ski, 2008) op het gebied van de ‘gedeeltelijke identificatie’
wordt onder meer gekeken wat data ons nog kunnen leren
als alleen ‘realistische’ aannames worden gedaan die onvol –
doende zijn voor volledige identificatie. Ook is er aandacht
voor de uiteenlopende eisen die verschillende vragen aan
de data en de modelspecificatie stellen (bijvoorbeeld in het
werk van James Heckman). Zoals Jacob Marschak begin ja –
ren vijftig al opmerkte, kan het antwoord op sommige vra –
gen direct uit de data worden afgelezen en vergen andere
vragen diepere kennis van de onderliggende structuur. Specifieke identificatieresultaten zijn onder meer afge –
leid voor micro-economische beleidsevaluatie (venster 8),
vraaganalyse, duurmodellen, arbeidsmarktzoekmodellen,
statische en dynamische-discrete-keuzemodellen, veilingen
en de analyse van sociale interacties.
Manski, C.F. (2008) Partial identification in econometrics. In: S.N.
Durlauf en L.E. Blume (red.), The New Palgrave Dictionary of Economics
(tweede editie). Londen: Palgrave Macmillan.
Sims, C.A. (1980) Macroeconomics and reality. Econometrica, 48(1),
1–48.
ESB canon van de economie
Onderwijseconomie ◊ Monetaire economie ◊ Internationale en ontwikkelingseconomie
◊ Ondernemerschap ◊ Woningmarkt ◊ Innovatie ◊ Arbeidsmarkt ◊ Openbare financiën ◊ Economische Geschiedenis ◊ Energie ◊ Gezondheidseconomie ◊ Milieueconomie ◊ Marketing ◊ Sociale zekerheid
◊ Internationale monetaire economie ◊ Personeel & Organisatie ◊ Gedragseconomie ◊ Pensioenen
◊ Technologie & Arbeidsmarkt ◊ Beleggingsleer ◊ Institutionele economie ◊ Groei & Conjunctuur
◊ Econometrie ◊ ◊ Ruimtelijke economie ◊ Marktordening
VOlGENDE KEER IN DE ESB CANON VAN DE ECONOMIE: RUIMTELIJKE ECONOMIE