Ga direct naar de content

Econometrie Methoden en toepassingen

Geplaatst als type:
Geschreven door:
Gepubliceerd om: augustus 31 1989

Econometrie
Methoden en toepassingen
In de econometric gaat net om de interactie van modellen, data en methoden. Die laatste
zijn wiskundig-statistisch van aard. In dit artikel wordt getracht de kernpunten uit de
literatuur te behandelen zonder daarbij al te technisch te worden. Een toegepaste
econometrische studie berust op zes pijlers: data, een economisch model, een statistisch
model, statistische methoden, numerieke wiskunde en computerprogrammatuur. Het
statistische model en de statistische methoden vormen het hoofdbestanddeel van de
econometrische leerboeken en de econometrische tijdschriften. In overeenstemming
daarmee krijgen deze twee elementen ook in dit artikel speciale aandacht.

PROF. DR. T. KLOEK*
Inleiding
Wat is econometric
Er bestaan in de literatuur verschillende definities van
econometric die varieren met de methodologische positie
van de auteurs, hun ambities en hun mate van respect voor
de economische theorie1. Vermeldenswaard is de definitie
van Malinvaud die het doel van de econometrie kort en
goed definieert als “…de empirische bepaling van economische wetten”2.
Daar veel auteurs de term ‘economische wetten’ niet
goed durven neer te schrijven zijn de meeste moderne
definities langer en voorzichtiger geformuleerd. Weliswaar
zijn er allerlei nuanceverschillen, maar de meeste van de
recentere definities verschillen niet veel van de volgende:
“Econometrie is de kwantitatieve analyse van economische verschijnselen, gebaseerd op statistische gegevens,
economisch-theoretische overwegingen en statistische
methoden”. De aanwezigheid van de statistische methoden (vooral schatten, toetsen en voorspellen) in deze definitie wijst er op dat econometrie specif ieker is dan kwantitatieve economic. Anderzijds impliceert het noemen van
economische verschijnselen en de economisch-theoretische overwegingen dat econometrie specifieker is dan
(wiskundige) statistiek. Wie concludeert dat econometrie
de doorsnede is van kwantitatieve economic en wiskundige statistiek zit er dus niet ver naast3.
Overzicht
In de volgende paragrafen komt eerst de geschiedenis
van de econometrie tot ongeveer 1950 aan de orde. Na
1950 speelden de ontwikkelingen zich op zoveel terreinen
tegelijk af dat de chronologische manier van behandelen
minder geschikt is.
De econometrische leerboeken handelen vooral over de
statistische methoden der econometrie4. Ook in de econometrische tijdschriften spelen die een belangrijke rol. Daarom krijgen ze ook in dit artikel veel aandacht. De overige
ingredienten voor een toegepaste econometrische studie,

ESB 30-8-1989

te weten data, economisch model, numerieke wiskunde en
computerprogrammatuur krijgen (althans in econometri-

* De schrijver is hoogleraar econometrie aan de Erasmus Universiteit Rotterdam. Hij is dank verschuldigd aan enkele leden van
zijn vakgroep voor commentaar op een eerdere versie van dit
artikel, in het bijzonder aan drs. M. Ooms en drs. P.C. Schotman.
1. Voor een overzichten van definities, zie G. Tinlner, The definition
of econometrics, Econometrics, 1953, biz. 31 -40.
2. E. Malinvaud, Statistical methods of econometrics, Amsterdam,
1966, biz. vii.
3. Er bestaat ook een veel ruimere definitie, die naast de econometrie als hier beschreven ook de wiskundige economic en de
(toegepaste) mathematische besliskunde omvat. Deze wordt gebezigd in de statuten van de Econometric Society, de internationale vereniging van econometristen en wiskundig-economen, die
ook het tijdschrift Econpmetrica uitgeeft. Tevens treft men deze
definitie (impliciet) aan in het Academisch Statuut dat de studierichting der econometrie regelt: deze studierichting kent drie
hoofdvakken: wiskundige economic, econometrie en besliskunde.
In de geest hiervan gebruiken sommigen de term bedrijfseconometrie in de betekenis van toegepaste mathematische besliskunde. In deze ruime betekenis wordt de term internationaal niet of
nauwelijks (meer) gebruikt. Ook in dit artikel wordt er verder geen
aandacht aan geschonken.
4. Twee duidelijke, elementaire leerboeken zijn M.B. Stewart en
K.F. Wallis, Introductory econometrics, second edition, Oxford,
1981; D. Gujarati, Basic econometrics, New York, 1988. Nog
steeds betrekkelijk elementair maar veel uitvoeriger is J. Kmenta,
Elements of econometrics, second edition, New York, 1986. Een
zeer aan te bevelen gids tot de econometrische literatuur is P.
Kennedy, A guide to econometrics, second edition, Oxford 1985.
Dit boek geeft een grotendeels verbale behandeling van de belangrijkste onderwerpen en bevat een schat aan literatuurverwijzingen. Een zeer uitvoerig overzicht treft men aan in G.G. Judge,
W.E. Griffiths, R.C. Hill, H. Lutkepohl en T.C. Lee, The theory and
practice of econometrics, second edition, New York, 1985. Als
uitvoerigste naslagwerk moet genoemd worden Z. Griliches en
M.D. Intriligator (red.), Handbook of econometrics, drie delen,
Amsterdam, 1983, 1984, en 1986. Dit uit drie delen bestaande
handboek bevat 35 door experts geschreven overzichtsartikelen
over de meeste onderwerpen op het terrein van de econometrie.
Dit werk zal ik in verdere verwijzingen kortweg aanduiden als
Handbook. Verder bestaat er sinds 1982 een tijdschrift (Econometric Reviews) dat vrijwel geheel gewijd is aan overzichtsartikelen
en heeft het Journal of Applied Econometrics kort geleden een
begin gemaakt met een serie overzichtsartikelen.

843

sche leerboeken en overige publikaties) aanzienlijk minder
aandacht en dienovereenkomstig zal ik ze slechts kort
behandelen.
Met basismodel is het lineaire model en de basismethode is de methode der kleinste kwadraten. Veel lezers zullen
daarmee in zekere mate vertrouwd zijn, maar als uitgangspunt voor het vervolg lijkt een korte behandeling toch
gewenst. Vervolgens komen andere methoden aan de orde
die soms worden gebruikt in het lineaire model of generalisaties daarvan: maximale aannemelijkheid, de gegeneraliseerde momentenmethode, de robuuste methoden, de
semi-parametrische methoden en de Bayesiaanse methoden. Dit zijn algemene schattingsprincipes die zowel bij
lineaire als niet-lineaire modellen kunnen worden gebruikt.
Een aantal niet-lineaire modellen (de z.g. indexmodellen) vraagt om een speciale behandeling: in sommige
modellen neemt de afhankelijke variabele alleen discrete
waarden aan; in andere modellen is de verdeling van de
afhankelijke variabele afgeknot; in nog andere modellen
ontbreken bepaalde waarnemingen systematisch; ten slotte zijn er ook speciale modellen waarin tijdsduren (bij
voorbeeld de duur van werkloosheid) gemodelleerd worden.
De toepassingen zelf zijn heel divers: de oudste terreinen zijn goederenmarkten, macro-economische politieken
consumentengedrag. Na 1945 waren bijna alle terreinen
die zich voor kwantificering leenden onderwerp van econometrische studies. Ter wille van de ruimte zal ik mij beperken tot een korte bespreking van enkele literatuuroverzichten en enkele recente voorbeelden.

Geschiedenis__________________
De oudst bekende kwantitatieve analyse van economische verschijnselen vindt men in de 16e en 17e eeuw bij
de zogenaamde ‘political arithmetic’. Sir William Petty was
onder de beoefenaars daarvan de meest bekende. Verder
vermeldt men ook graag de ‘wet van Engel’ (1857) die zegt
dat de uitgavenquote van gezinnen aan voedsel daalt
naarmate hun inkomen toeneemt. Deze auteurs maakten
echter nog geen gebruik van formele statistische methoden.
De methode der kleinste kwadraten gaat terug tot ongeveer 1800 toen Legendre, Gauss en anderen deze methode ontwikkelden om hun astronomische en geodetische
problemen op te lessen. Het duurde nog bijna tot het eind
van de negentiende eeuw voordat het begrip standaardfout
werd gebruikt. Voor de oudste bekende economische toepassing van correlatierekening noemt men het jaartal
1895, voor de oudste meervoudige regressie 1907. Volgens Epstein6 begint de moderne econometrie pas echt
met de analyse van de arbeidsmarkt door de Amerikaan
Henry L Moore in 1911.
In 1914 publiceerde Moore een studie over de conjunctuur. In zijn model worden de aangeboden hoeveelheden
landbouwprodukten verklaard door de regenval in de zomermaanden en de prijzen door de aangeboden hoeveelheden, beide gemeten als relatieve veranderingen. De
door het model gegenereerde prijzen bleken goed overeen
te komen met de waargenomen prijzen. Moore gaf twee
versies van zijn vraagrelatie. De ene was lineair in de
(relatieve veranderingen van de) hoeveelheden, de andere
bevatte ook een kwadratische en een derdegraads term.
Andere variabelen waren echter niet opgenomen. Theoretici, waaronder Edgeworth hadden daar bezwaren tegen.
Zij meenden dat deze modellen te eenvoudig waren, gelet
op de economische theorie.
Een ander probleem werd gevormd door Moores regressie van de prijsmutatie van ijzererts op de hoeveelheids844

Economische theorie:
de stand van zaken
Niet of nauwelijks beTnvloed door de waan van de
dag zijn overal ter wereld economische-wetenschapsbeoefenaren bezig de economische kennis te
vergroten en het economische inzicht te verdiepen.
Hun bijdragen zijn in het algemeen niet spectaculair
en metde resultaten van hun onderzoekingen timmeren zij niet aan de weg. Hun bevindingen worden in
internationale vaktijdschriften gepubliceerd die voor
niet-ingewijden nauwelijks toegankelijk zijn. Van
daaruit sijpelt de verworven kennis langzaam door
naar vakgenoten en naar gebruikers bij de overheid
en in het bedrijfsleven die er hun voordeel mee trachten te doen. Bijna niemand overziet wat er in alle
specialistische wereldjes waarin het economische
vakgebied is onderverdeeld, gaande is. Daarom verschijnt in ESB een reeks overzichtsartikelen, waardoor de lezers in de gelegenheid worden gesteld
kennis te nemen van de ontwikkelingen in verschillende deelgebieden van het vak. Wat is, theoretisch en
empirisch, de stand van zaken en waar houdt men
zich aan de f rontlijn van de economische wetenschap
mee bezig?
Eerder verschenen in deze reeks artikelen over:
– moderne vermogensmarkttheorie (ESB, 9 mei
1984);
– macro-economische modelbouw (ESB, 5 december1984);
– statische theorieen van de industriele organisatie
(ESB, 28 augustus 1985);
– dynamische theorieen van de industriele organisatie (ESB, 30 juli 1986);

– monetaire theorie (ESB, 15/22 april 1987);
– regionale economie (ESB, 22 juli 1987);
– economische organisatietheorie (ESB, 2 September 1987);
– marketing (ESB, 30 maart/ 6 april 1988);
– strategiebepaling door ondernemingen (ESB, 7 december 1988).
– arbeidseconomie (ESB, 25 januari 1989);
– economische methodologie (ESB, 29 maart 1989).
mutatie van datzelfde goed. Hier vond hij een positieve
helling. Wright merkte spoedig op dat men hier kennelijk
met een aanbodfunctie te doen had. Hier was men dus
reeds in een vroeg stadium gestuit op het probleem dat
later bekend werd als het identificatieprobleem7. Het zou
nog tot 1930 duren voor Tmbergen dit probleem correct
beschreef en voor een eenvoudig geval oploste. In 1919

5. Zie R.J. Epstein, A history of econometrics, Amsterdam, 1987.
6. Epstein, pp. cit., biz. 13-19.
7. Het identificatieprobleem kan als volgt kort worden geschetst.
Beschouw een markt die beschreven wordt door een vraag- en
een aanbodlijn. Stel eerst dat we alleen het snijpunt (marktevenwicht) waarnemen. Dan kunnen we door dat punt willekeurig veel
vraag- en aanbodlijnen trekken. Als echter de vraaglijn op zijn
plaats blijft, terwijl de aanbodlijn in de loop van de tijd verschuift
nemen we een aantal punten waar die alle op de vraaglijn liggen.
We kunnen in dat geval de vraaglijn identificeren. Hiervoor is dus
nodig een variabele die wel invloed heeft op het aanbod maar niet
op de vraag. Deze variabele heeft dus een coefficient nul in de
vraagfunctie. Met behulp van dit soon” restricties wordt het identificatieprobleem opgelost, ook in modellen met meer dan twee
vergelijkingen. In de moderne literatuur wordt gediscussieerd over
de vraag waarop dit soort restricties berust. Zie bij voorbeeld C.
Sims, Macroeconomics and reality, Econometrica, jg. 48, 1980,
biz. 1-48.

publiceerde Moore de eerste dynamische relatie. Met betrof hier de verhandelde hoeveelheid katoen als een functie
van de katoenprijs een jaar eerder. Ook dit resultaat gaf
aanleiding tot veel discussie en kritiek.
In Europa traden in de jaren dertig vooral de Moor
Ragnar Frisch en de Nederlander Jan Tinbergen op de
voorgrond. Tinbergens macro-modellen, eerst voor Nederland en later voor de Verenigde Staten, vormden het beginpunt van een grootscheepse activiteit die er in de jaren
zestig toe leidde dat vele regeringen zich Helen adviseren
op basis van modelberekeningen. Deze modeller zijn voldoende bekend geworden uit de macro-economische literatuur en behoeven hier niet verder besproken te worden.
Zezijn vanaf hun geboorte controversieel geweest. Bekende critici van het eerste uur waren Keynes en Friedman.
Verdedigers van Tinbergens aanpak waren Frisch en de
inmiddels in Amerika wonende Nederlander Tjalling Koopmans, ook al hadden zij op sommige aspecten van zijn
werk kritiek.
Regressievergelijkingen bevatten niet alleen verklarende variabelen maar ook residuen of onverklaarde resten.
In de eerste decennia van deze eeuw was het onder
statistici gebruikelijk geworden hiervoor kansmodellen te
formuleren. De eerste econometristen (vooral Frisch) hebben zich daartegen verzet. In een in 1944 gepubliceerd
artikel hield de gedurende de oorlog in Amerika wonende
Noor Trygve Haavelmo, leerling van Frisch, een pleidooi
voor ‘the probability approach in econometrics’8. Zijn betoog maakte zoveel indruk dat van toen af de professie ‘om’
was. Sindsdien zijn kansmodellen een standaardonderdeel van de econometrische leerboeken. Dezelfde Haavelmo ontdekte ook dat de methode der kleinste kwadraten,
wanneer toegepast op een afzonderlijke vergelijking uit
een stelsel van verscheidene simultane vergelijkingen, als
regel aanleiding geefttot een systematische schattingsfout
(bias). Deze ontdekking vormde een impuls om nieuwe
methoden te ontwikkelen die aan dit bezwaar tegemoet
kwamen.
In de jaren 1944-1950 werd de Cowles Commission for
Economic Research, gevestigd aan de de Universiteit van
Chicago, het centrum van koortsachtige activiteit. Nieuwe
schattingsmethoden werden ontwikkeld, de theorie van de
identificatie van afzonderlijke structuurvergelijkingen werd
verder ontwikkeld en de eerste empirische macro-modellen die met deze methoden werden geschat werden geconstrueerd; bij dit laatste speelde Lawrence Klein de belangrijkste rol. Deze ontwikkelingen bleken beslissend voor de
econometrie als afzonderlijk academisch vak. Bij de Cowles Commission waren speciaal voor economische toepassingen geavanceerde statistische methoden ontwikkeld
die in geen enkel statistisch leerboek voorkwamen. Ten
opzichte van de statistiek was daarmee de identiteit van
het vakverzekerd. Bovendien kregen macro-economen en
beleidsmakers onder invloed van Keynes het idee dat
overheidsbeleid de macro-economische kringloop kon stabiliseren. Zodoende ontstond de behoefte aan modellen
die verbanden tussen macro-grootheden konden leggen.
De ontwikkelingen sinds 1950 kunnen gemakkelijker per
onderwerp worden geschetst, zodat ik vanaf hier de geschiedenis niet langer chronologisch zal volgen.

Methoden_____________________
Het basismodel dat in alle econometrieboeken als uitgangspunt gebruikt wordt voor de behandeling van meer
gecompliceerde modellen is het lineaire model. En de
basismethode waarmee de parameters van dit model geschat worden is de methode der kleinste kwadraten, vaak
aangeduid als OLS (ordinary least squares). In het basis-

I, ESB 30-8-1989

model wordt aangenomen dat de storingen normaal verdeeld zijn met gemiddelde nul en een constante variantie,
en onderling ongecorreleerd zijn. Afwijkingen van deze
veronderstellingen hebben vooral gevolgen voor de standaardfouten van de parameterschattingen en daarmee
voor het toetsen van de hypothesen. Daarnaast zijn er ook
gevallen waarin OLS systematisch tot verkeerde schattingen leidt. De bekendste zijn: weggelaten variabelen, meetfouten en simultaniteit. De meeste leerboeken, ook de
elementaire, besteden uitvoerig aandacht aan deze onderwerpen. Daarom zal ik er hier niet verder op ingaan.
Naast de kleinste-kwadratenmethode zijn er in de loop
der tijd nog andere schattingsprincipes ontwikkeld. Deze
zullen hieronder kort de revu passeren.
Wanneer men expliciete kansverdelingen postuleert op
de te verklaren variabelen (of op de storingen, wat vaak op
hetzelfde neerkomt) dan kan men er ook naar streven de
parameterschattingen zo te kiezen dat de waarnemingen
een maximale kans (of kansdichtheid) bezitten. Dit is het
principe van de maximaleaannemelijkheid(maximum likelihood: ML). Dit principe werd in de jaren twintig door R.A.
Fisher in de statistiek geintroduceerd en door de onderzoekers van de Cowles Commission in de jaren veertig in de
econometrie. Voor een simpel lineair model levert ML ongeveer dezelfde resultaten als OLS, maar bij niet-normale
verdelingen of bij meer gecompliceerde modellen zijn er
wel verschillen. Er bestaan voorwaarden waaronder men
voor voldoende grote steekproeven kan aantonen dat ML
optimaal is in de zin van nauwkeuriger dan andere methoden, of ten minste even nauwkeurig. In de meeste gevallen
zijn deze voorwaarden voldoende maar niet nodig. Verder
is het vaak niet eenvoudig te verifieren of eraan voldaan is.
Daarom is het ongebruikelijk dit na te gaan, zodat de
optimaliteit van ML in de praktijk mogelijk vaak illusoir is.
Wanneer onderzoekers zich bezig houden met niet-lineaire modellen maar menen dat normaliteit of een andere
expliciete hypothese over de verdeling van de storingen
niet te rechtvaardigen is nemen ze vaak hun toevlucht tot
de gegeneraliseerde-momentenmethode (GMM). Onder
momenten verstaat men hier in de eerste plaats covarianties. Een van de eigenschappen van OLS is dat residuen
en verklarende variabelen ongecorreleerd (of orthogonaal)
zijn. Deze eigenschap wordt hier gegeneraliseerd voor
allerlei niet-lineaire modellen. In het bijzonder blijkt deze
aanpak (in combinatie met instrumentele variabelen) bijzonder geschikt voor het schatten van niet-lineaire modellen met rationele verwachtingen9.
De robuuste methoden besteden vooral aandacht aan
het geval dat er uitschieters in de data zijn. De gedachtengang van deze aanpak is het best te illustreren aan de hand
van een heel eenvoudig voorbeeld. Stel dat men een
lokatiemaatstaf wenst te kennen van een frequentieverdeling. Men heeft de volgende waarnemingen:

2, 3, 5, 1,4
Zowel het gemiddelde als de mediaan (de middelste waarneming) zijn gelijk aan 3 en de keuze tussen deze lokatiemaatstaven schept dus geen probleem. Stel nu dat er een
bijzondere, niet-representatieve gebeurtenis heeft plaats
gevonden en onze waarnemingen de volgende zijn:
2,3,50,1,4
In dit geval is de mediaan nog steeds 3, maar het gemiddelde is 12. Het gemiddelde isgevoelig voor deze uitschieter, de mediaan niet. Daarom noemen we de mediaan een
8. T. Haavelmo, The probability approach in econometrics. Supplement bij Econometrica, jg. 12,1944.
9. L.P. Hansen, Large sample properties of generalized method of
moments estimators, Econometrica, jg. 50,1982, biz. 1029-1054,
en L.P. Hansen en K. Singleton, Generalized instrumental variables estimation of nonlinear rational expectations models, Econometrica, jg. 50,1982, biz. 1269-1286.

845

robuuste schatter. Ook OLS en de andere boven besproken schattingsmethoden zijn in het algemeen gevoelig voor
uitschieters. Wie zelf wel eens regressieberekeningen
maakt kan dat gemakkelijk experimenteel verifieren door
een van zijn waarnemingen te veranderen. Het blijkt dan
dat het veel uitmaakt welke waarden van y men verandert.
In de buurt van modale waarden van de x-variabelen is het
effect veel kleiner dan bij x-waarden die verder uit het
centrum gelegen zijn. Er bestaan tal van methoden om hier
iets aan te doen. Een methode die conceptueel erg eenvoudig is, minimaliseert de som van de absolute waarden
van de afwijkingen in plaats van de som van de kwadraten.
Een andere aanpak is om te postuleren dat de storingen
een t-verdeling volgen (dat is een verdeling met mogelijk
dikke staarten, afhankelijk van een parameter) en daarop
maximale aannemelijkheid toe te passen. Het beschrijven
van de overige methoden gaat ver buiten het bestek van
dit artikel10.
De semi-parametrische methoden vormen in zekere zin
een variant van de robuuste methoden. Men kan bij voorbeeld uitgaan van het eerder genoemde lineaire model,
maar voorlopig in het midden laten hoe de verdeling van
de storingen ut er uitziet. Die probeert men met zo min
mogelijk restricties empirisch te bepalen. Daardoor kan
men met grotere nauwkeurigheid schatten dan het geval is
bij de meeste andere robuuste methoden.
De eenvoudigste methode om een dichtheid in een
zeker punt te schatten is een klein interval om dat punt te
kiezen, het aantal punten (hier residuen), n, daarin te tellen
en dat te delen door het totale aantal waarnemingen N. Het
probleem is hier natuurlijk de keuze van het interval. Kiest
men een te klein interval dan wordt n heel klein, hetgeen
onnauwkeurige schattingen oplevert. Kiest men een te
groot interval, dan introduceert men linearisatie-fouten
(dichtheden zijn als regel krommen). De meest gebruikte
aanpak is een aantal intervallen te nemen en van de
resultaten een gewogen gemiddeldete nemen (hoe kleiner
het interval, hoe groter het gewicht). Die weging wordt in
veel gevallen uitgevoerd met de zogenaamde kernfunctie
(kernel function). Met behulp van deze kernfunctie kan men
een pseudo-aannemelijkheid berekenen en deze maximaliseren. Op deze wijze kan men zich soepeler aanpassen
bij de empirische vorm van de verdeling dan bij de meer
rigide ML-aanpak. De methode vereist wel veel waarnemingen11.
De Bayesiaanse methoden gaan uit van een heel andere filosofie met betrekking tot het kansbegrip. Parameters
worden daar beschouwd als kansvariabelen en onze kennis omtrent parameters wordt beschreven door middel van
verdelingen. Wanneer nieuwe waarnemingen binnenkomen leiden die tot wijziging van deze verdelingen. De
kracht van deze methoden is dat zij een coherent logisch
bouwwerk vormen, gericht op besluitvorming in onzekere
situaties. Een boek dat op elementaire, heldere en aantrekkelijke wijze de structuur van deze methoden uiteenzet is
dat van Lindley12. Het door hem gepresenteerde model
legt verbanden tussen de wetten van de kansrekening en
het nut van geld en legt grate nadruk op het voorschrift dat
men coherent moet handelen. Wanneer men echter deze
filosofie op realistische econometrische problemen probeert toe te passen stuit men op grote problemen. Velen
die op theoretische gronden sympathie hebben voor deze
aanpak zien er van af hem in de praktijk toe te passen. Wie
het wel probeert is gedwongen veel water bij de wijn te
doen en de resulterende aanpak verdient dan zelden het
predicaat ‘coherent’13.

Niet-lineaire modeller)
Sinds het gebruik van computers gemeengoed is geworden heeft de analyse van niet-lineaire modellen een grote
vlucht genomen. De correcte theoretische analyse van de
846

eigenschappen van schatters en toetsgrootheden in dergelijke modellen is echter verre van eenvoudig. De eenvoudigste aanpak is om aan te nemen dat er veel waarnemingen zijn en alle kleine-steekproefeffecten te verwaarlozen.
Weliswaar is de wiskunde van die limietprocessen (de
asymptotiek) niet eenvoudig, maarde resulterende formules zijn vaak redelijk gemakkelijk toe te passen. Bovendien
is hier al heel wat standaardprogrammatuur op gebaseerd.
Een praktische moeilijkheid is dat er geen richtlijnen zijn
voor de beoordeling van de grootte van een steekproef. De
vraag of een term Ai/n (dat is dus een term die verwaarloosd wordt in asymptotische analyse) klein is hangt niet
alleen af van het aantal waarnemingen n maar ook van Ai,
en die is nu juist onbekend. Als het model en n niet te groot
zijn komen we vaak een heel eind met steekproefexperimenten14. We kiezen zekere parameterwaarden, genereren met de computer kunstmatige steekproeven en berekenen schattingen op basis van elk van deze steekproeven. Dit geeft ons een goede indruk van de spreiding van
onze schatters.
Een nadeel van deze aanpak is dat de ermee bereikte
resultaten altijd heel specified zijn en moeilijk over te brengen naar andere situaties. Er is daarom veel onderzoek
gedaan met het doel theoretisch verder te komen. Er zijn
twee manieren om dat te doen. De eerste gaat te werk als
boven maar verwaarloost de termen pas als ze van type
Aa/n2 zijn; de termen van het type Ai/n worden wel berekend. De benaderingsfouten die men op basis hiervan
maakt zullen als regel kleiner zijn, maar de onzekerheid
over de vraag wanneer n groot genoeg is blijft bestaan15.
De tweede aanpak is ambitieuzer. Er worden exacte verdelingen afgeleid voor de schatters en toetsgrootheden.
Vooralsnog lukt dit alleen bij relatief eenvoudige modellen.
Bovendien zijn^de resulterende formules veelal lastig om
16
uitte rekenen”

Toetsen en modelkeuze
De keuze tussen verschillende modellen vormt een probleem voor iedere toepasser. Het gemakkelijkst is de keuze
tussen twee modellen wanneer het ene een bijzonder geval
is van het andere, met andere woorden, wanneer het ene
uit het andere kan worden verkregen door een of meer
restricties op te leggen. Er bestaan dan standaardtoetsen
op grand waarvan de restrictie geaccepteerd of verworpen
wordt. De bekende t- en F-toetsen zijn hier voorbeelden
van. Deze toetsen zijn eenvoudige toepassingen van het
toetsingsprincipe van Wald dat begint bij de alternatieve
hypothese en van daaruit de vraag stelt of de nulhypothese
aanvaardbaar is. Daarnaast kent men het principe van Rao
dat begint bij de nulhypothese en de vraag stelt of een
alternatieve hypothese te verkiezen zou zijn. (Durbin-Watson-toetsen zijn een voorbeeld van dit principe). Deze
10. Een goede beschrijving van deze problemen en methoden is
te vinden in G.G. Judge, W.E. Griffiths, R.C. Hill, H. Lutkepohl en
T.C. Lee, Introduction to the theory and practice of econometrics,
second edition, 1987. Dit boek is minder encyclopedisch maar
meer student-vriendelijk dan het in voetnoot 3 genoemde boek
van dezelfde auteurs.
11. Een recent overzicht is van P.M. Robinson, Semi-parametric
econometrics, Journal of Applied Econometrics, jg. 3, 1988, biz.
35-51.

12. D.V. Lindley, Making decisions, second edition, Londen, 1985.
13. Voor overzichten van de Bayesiaanse econometrische literatuur, zie de beide boeken van Judge et al. of het hoofdstuk van
Dreze en Richard in het Handbook, deel 1.
14. Deze worden vaak aangeduid met de tot de verbeelding
sprekende naam Monte Carlo. Zie bij voorbeeld het overzicht van
Hendry in deel 2 van het Handbook.
15. Een overzicht van dit type analyse werd door Rothenberg

gegeven in deel 2 van het Handbook.
16. Voor een overzicht, zie Phillips in deel 1 van het Handbook;
zie ook diverse artikelen in het in 1985 opgerichte tijdschrift
Econometric Theory.

toetsen worden ook wel aangeduid met de termen scoretoetsen of LM-toetsen (Lagrange-multiplier tests). Ten slotte zijn er de aannemelijkheids-verhoudings-toetsen (likelihood ratio tests) die beide hypothesen symmetrisch behandelen17. Met komt ook vaak voor dat de onderzoeker het
vermoeden heeft dat zijn model onvoldoende algemeen is,
maar niet zeker weet in welke richting zijn generalisatie te
zoeken. Voor dit soort situaties bestaat er een standaardrepertoire aan kunstmatige generalisaties die men als algemeen model kan gebruiken. In modellen op basis van
tijdreeksen kan men extra vertragingen toevoegen; men
kan niet-lineaire transformaties van de variabelen toevoegen (bij voorbeeld kwadraten en produkten); men kan het
waarnemingsmateriaal in tweeen splitsen en nagaan of
men in beide delen dezelfde resultaten vindt; en men kan
de absolute waarden of de kwadraten van de residuen
proberen te verklaren uit andere variabelen. Deze toetsen,
de z.g. misspecificatietoetsen of diagnostische toetsen zijn
belangrijk18. Helaas worden ze nog niet door iedereen
gebruikt. Wie ze achterwege laat loopt echter een flink
risico onjuiste conclusies te trekken. Wanneer men het ene
model niet kan schrijven als een bijzonder geval van het
andere is vergelijken moeilijker. Voor deze gevallen van
niet-geneste modellen (of hypothesen) is eveneens een
groot aantal toetsen ontwikkeld19.
Wie in de praktijk modellen specificeert ziet zich telkens
voor de vraag gesteld hoeveel verklarende variabelen of
anders gezegd hoeveel parameters in zijn model op te
nemen. Vaak probeert men met toetsen na te gaan of het
effect van een bepaalde variabele significant is. Een veel
gebruikte beslissingsregel neemt variabelen op wanneer
de t-waarde van de corresponderende coefficient (absoluut) grater is dan 2 en laat ze anders weg. Er zijn verschillende factoren die een t-waarde beVnvloeden. Onder niet al
te restrictieve voorwaarden zal een (absolute) t-waarde
geleidelijk toenemen wanneer n toeneemt. We zullen dus
als regel meer significante coefficienten vinden naarmate
weovermeerwaarnemingen beschikken20. De praktijk van
de modelkeuze bevestigt dit. Koenker heeft dit verschijnsel
bestudeerd aan de hand van empirische studies naar
verdiende lonen. Hij analyseerde 733 loonvergelijkingen
die werden gerapporteerd in 156 artikelen in de periode
1970 tot 198021. Hij onderzocht verschillende vormen van
de relatie tussen k (het aantal parameters) en n (het aantal
waarnemingen). Zijn beste relatie impliceerde dat k evenredig is met (In n)2.
De parameters die we in onze modellen introduceren zijn
kennelijk eerder hulpmiddelen dan ‘natuurconstanten’. Naarmate we meer waarnemingen verzamelen komen we niet in
de situatie dat we tot steeds nauwkeuriger resultaten komen.
Veeleerontdekken we in toenemende mate dat onze modellen te kort schieten als beschrijving van de werkelijkheid. Een
manier om aan dat dilemma te ontkomen is de niet-parametrische aanpak. Als ons probleem erin bestaat de niet-lineaire
functie yt = f(xt) + utte specif iceren, dan zal de parametrische
aanpak bij voorbeeld polynomen van steeds hogere orde
specificeren. De niet- parametrische aanpak schat eenvoudig f(xt) door alle waarnemingen van y die corresponderen
met een klein interval (xt – h, xt + h) te middelen22. De
resultaten worden getabelleerd of in figuren uitgezet. Zo kan
men bij voorbeeld een tabel maken met als ingangen inkomen en gezinsgrootte waarin de gemiddelde uitgavenquoten
behorend bij een goederencategorie worden gerapporteerd
voor elke eel in de tabel.

Indexmodellen
Bij het lineaire model wordt er al dan niet stilzwijgend van
uitgegaan dat de waarnemingen min of meer homogeen

ESB 30-8-1989

en symmetrisch gestrooid liggen rond de regressielijn of
het regressievlak. Dat is niet langer het geval wanneer de
afhankelijke variabele y een dummy-variabele is, die alleen
de waarden 0 en 1 kan aannemen. Deze situatie doet zich
voor bij modellen voor het bezit van duurzame consumptiegoederen, vervoerskeuze (bij voorbeeld particulier versus openbaar vervoer), beroepskeuze of opleiding van
individuen. In dergelijke gevallen ligt het niet voor de hand
y te modelleren als een lineaire functie van x-variabelen.
Als we de kans dat y = 1 weergeven met p en de kans dat
y = 0 met 1 – p, dan behoort p tussen 0 en 1 te liggen terwijl
een lineair model zou kunnen leiden tot negatieve waarden
of waarden groter dan 1. In dergelijke gevallen wordt p dus
meestal gemodelleerd als een niet-lineaire functie van de
x-variabelen die gegarandeerd tussen de grenzen 0 en 1
blijft. Deze functie wordt indexfunctie genoemd. De bekendste modellen van dit type zijn het probitmodel en het
logitmodel23. Deze modellen werden het eerst in de jaren
twintig respectievelijk veertig toegepast in de biologie
waarbij p stond voor (bij voorbeeld) de overlevingskans van
een rat en x voor de toegediende hoeveelheid van een
giftige stof. In de jaren vijftig werden deze modellen voor
het eerst gebruikt voor economische toepassingen. De
komst van de computer heeft hun populariteit sterk vergroot.
Wanneer men zich niet wil beperken tot de vraag of een
gezin al dan niet een auto bezit, maar de uitgaven verbonden aan autobezit wil bestuderen, dan blijkt deze variabele
een gemengd discreet-continu karakter te hebben. De
uitgaven van hen die geen auto bezitten zijn nul, die van
de overigen vertonen een continue verdeling. Men kan nu
twee kanten op: de nullen weglaten of meenemen. Het
eerste geval staat bekend als afgeknotte regressie (truncated regression), het tweede als gecensureerde regressie
(censoredregression) of als het Tobit-model. Men kan deze
modellen niet met OLS schatten zonder systematische
f outen te maken24. Tobin was in 1958 de eerste die hiervoor
een geschikte methode ontwikkelde. Het model wordt ook
toegepast bij het verklaren van het aantal gewerkte uren
(in het bijzonder door secundaire kostwinners). Ook hier
treft men veel nullen aan onder de waarnemingen. Soortgelijke problemen deden zich voor bij de experimenten met
de ‘negatieve inkomstenbelasting’ in de Verenigde Staten.
In sommige experimenten kwamen gezinnen met hoge
17. Zie Engle in deel 2 van het Handbook of recente leerboeken.
18. De Rao-toetsen worden vaak voor dit doel gebruikt, omdat
men dan niet hoeft te schatten onder de vaak gecompliceerde
alternatieve hypothese. Verder verdienen nog vermelding de
toetsen van Hausman, White, Newey- West en Bierens. De Hausman-toetsen zijn al te vinden in de recente leerboeken. Voor
gedetailleerde verwijzingen naardeoverige.zieT. Kloek, Macroeconomic models and econometrics, in W. Driehuis, M.M.G. Fase
en H. den Hartog (red.), Challenges for macroeconomic modelling,
Amsterdam, 1988. Zie ook H.J. Bierens, Specificatie-analyse in
de econometrie, oratie, VU, 1987.
19. Voor meer toelichting en literatuurverwijzingen, zie Kloek
op.cit.
20. Sommige auteurs pleiten ervoor de drempels die we hanteren
bij het verwerpen van een nulhypothese niet constant te houden,
maar met de steekproefomvang te laten afnemen omdat de kans
op een fout van de tweede soort (bij een gegeven alternatieve
hypothese) immers ook afneemt. Maar dit is nog lang geen
standaardpraktijk.
21. R. Koenker, Asymptotic theory and econometric practice,
Journal of Applied Econometrics, jg. 3, 1988, biz. 139-147.

22. Dit is een vereenvoudigde voorstelling van zaken. In de praktijk
werkt men met gewogen gemiddelden, waarbij de gewichten
kleiner worden naarmate de afstand tot x groter wordt. Vergelijk
dit met de boven beschreven semi-parametrische methoden die
een tussenpositie innemen tussen de traditionele parametrische
methoden (zoals ML) en de hier beschreven niet-parametrische
methoden. Zie ook Bierens, op.cit.
23. Zie G.S. Maddala, Limited-dependent and qualitative variables
in econometrics, Cambridge, 1983.
24. Ook deze modellen zijn beschreven in Maddala, op.cit.

847

inkomens helemaal niet voor, in andere waren ze ondervertegenwoordigd. In beide gevallen moeten aangepaste
methoden worden gebruikt.
Speciale modellen zijn ook vereist voor de adequate
behandeling van duurgegevens. Wanneer iemand werkloos geweest is en weer een baan heeft gevonden kan men
precies vaststellen hoe lang hij of zij werkloos is geweest.
Wanneer de betrokken persoon op het recentste moment
van ondervraging nog werkloos is kent men alleen een
benedengrens van de werkloosheidsduur. Ook in dit geval
spreekt men van gecensureerde data25.

De vier andere pijlers
Naast de statistische modellen en methoden berusten
econometrische studies nog op vier andere pijlers, te weten
de data, de theoretisch-economische overwegingen, de
numerieke wiskunde en de computerprogrammatuur26. Elk
van deze onderwerpen zal hieronder kort worden behandeld.

Data
De geanalyseerde gegevens vallen uiteen in drie typen,
die hierboven al terloops ter sprake gekomen zijn. Allereerst zijn er de tijdreeksen. Een variabele wordt elk jaar
geobserveerd gedurende een reeks van jaren. Vaak betreft
het hier aggregaten en prijs-indexcijfers. Alle grootheden
uit de nationale rekeningen zijn voorbeelden, maar ook
reeksen voor afzonderlijke goederen worden door het CBS
gepubliceerd. Naast de jaarcijfers kent men kwartaalcijfers
en maandcijfers27. Hiermee doen dan de seizoenproblemen en de seizoencorrectie hun intrede28. Er bestaat ook
een omvangrijke literatuur op het terrein van de statistische
analyse van afzonderlijke tijdreeksen. Hoewel die strikt
genomen niet tot de econometrie behoort, heeft zij de
econometrie wel zeer beTnvloed. Bovendien zijn er allerlei
econometrische modellen ontwikkeld die tussenvormen
zijn tussen traditionele econometrische modellen en zuivere tijdreeksanalyse29.
Tegenover de tijdreeksen staan de doorsnedegegevens. Deze hebben vaak betrekking op individuele bedrijven, gezinnen of personen, maar ook op aggregaten over
regie’s, bedrijfstakken of landen. Het gaat hier om momentopnamen. Een voordeel is dat alle individuele variatie
zichtbaar wordt, een nadeel dat dynamische aspecten
gewoonlijk niet kunnen worden bestudeerd.
Paneldata vertonen zowel variatie over individuen als
over de tijd. Het is niet makkelijk om respondenten ertoe te
bewegen gedurende lange tijd een bijdrage te leveren,
zodat het vaak om betrekkelijk korte tijdsduren gaat. Hoewel kleinere panels al in de jaren zestig werden bestudeerd, zijn de meeste grote databestanden van dit type
toch van recentere datum. Er is alle reden aan te nemen
dat ze in de toekomst een nogveel grotere rol gaan spelen
dan thans reeds het geval is .
In veel gevallen vormen de data het stiefkind van de
econometrie in de zin dat zij de minste aandacht krijgen.
Ze zijn vaak schaars, onnauwkeurig en onvolledig. Soms
worden ze zelfs op een principieel onjuiste manier gemeten31. Meestal zijn ze niet verzameld met het oog op de
econometrische bestudering van een bepaald probleem.
In de gevallen waarin dat wel gebeurt is het beschikbare
budget vaak ontoereikend om voldoende waarnemingen te
doen. Een instructieve beschrijving van de problemeruJie
zich voordoen met de data is gegeven door Griliches32.
Economische theorie
In de in het begin van dit artikel gegeven definitie van
econometrie werd de term economisch-theoretische over848

wegingen gekozen, om daarmee aan te geven dat de
economische theorie meestal niet zonder meer bruikbaar
is. Die maakt vaak gebruik van niet-meetbare of althans
niet beschikbare variabelen, zoals nut, kapitaalgoederenvoorraad, vraagoverschot, permanent inkomen, verwachte
inflatie. Bovendien berust zij meestal op sterk vereenvoudigde en niet-realistische veronderstellingen zoals markten
met volledig vrije mededinging, perfects kennis van de
toekomst, gesloten economieen of homogene goederen.
Ook de vereenvoudiging tot twee goederen, produktiefactoren, landen, actoren of perioden is lang niet altijd realistisch. Uit deze veelheid aan veronderstellingen kiezen de
beoefenaren van toegepaste econometrie de veronderstellingen die passen bij hun data en hun stijl van parametriseren. Daaruit leiden ze hun eigen modellen af, waarbij ze
soms door gebrek aan gegevens vereenvoudigingen introduceren die de oorspronkelijke theoretic! niet zo bedoeld
hadden.
Als er conflicten zijn tussen theorie en data heeft men
de keus uit twee opties. Men kan een model maken dat
goed bij de data past maar waarover de theoretic! hun
wenkbrauwen fronsen. Dit is de z.g. data-based approach
die zijn aanhangers vooral in Engeland vindt33. De andere
optie is om dichter bij het theoretische model te blijven. In
dat geval doet zich een nieuwe keuzemogelijkheid voor.
Men kan volstaan met schatten (het vinden van parameterwaarden die zo goed mogelijk bij de data passen) en
verder geen aandacht besteden aan het feit dat aan allerlei
gemaakte veronderstellingen niet voldaan is. Een voorbeeld van deze stijl van werken is het werk van Jorgenson.
De andere mogelijkheid is om wel expliciet het model te
toetsen. Dat resulteert veelal in verwerping, zoals te verwachten is wanneer men uitgaat van sterk vereenvoudigde
theoretische modellen. Het probleem is alleen dat men om
zo’n model te kunnen toetsen een heleboel additionele
veronderstellingen introduceert. Verwerping betekent dat
ten minste een van de gemaakte veronderstellingen verworpen moet worden maar het is vaak moeilijk na te gaan
welke. Dit geeftaanleiding tot uitvoerigediscussies over de
interpretatie van empirische resultaten. Deze stijl van werken treft men vooral aan bij monetaristen, nieuw-klassieken en financiele economen.
Theoretische overwegingen spelen ook vaak een rol bij
de keuze van de wiskundige vorm van econometrische
relaties. Enerzijds zijn er de eenvoudige voorschriften van

25. Een recent literatuuroverzicht is te vinden in N.M. Kiefer,
Economic duration data and hazard functions, Journal of Economic Literature, jg. 26, 1988, biz. 646-679. Zie ook Heckman en

Singer in Handbook, deel 3.
26. Eigenlijk zou in deze lijst het menselijk kapitaal, te weten de
onderzoeker met zijn opleiding en zijn werkhouding niet mogen
ontbreken. Dat ook hier nog ruimte is voor verbetering blijkt uit
W.G. Dewald, /J.G. Thursby en R.G. Anderson, Replication in
empirical economics, American Economic Review, jg. 76, 1986,
biz. 587-603.

27. In sommige gevallen zijn er zelfs weekcijfers of dagcijfers. Dit
geldt in het bijzonder voor speculatieve markten.
28. Twee recente werken op dit gebied zijn F.A.G. den Butter en
M.M.G. Fase, Seizoenanalyse en beleidsdiagnose, Deventer,
1988; en S. Hylleberg, Seasonality in regression, Orlando, 1986.
29. Zie hiervoor Kloek, op.cit., en ook T. Kloek, De kunst van het
voorspellen, ESB, jg. 71, 26-11-1986, nr. 3583, biz. 1143-1147.

30. Voor een goed overzicht van modellen en methoden voor deze
data, zie C. Hsiao, Analysis of panel data, Cambridge, 1986.
31. Opmerkelijk is in dit verband de recente kritiek van Eisner op
de manier waarop de belangrijkste macro-economische variabelen gemeten worden. Zie R. Eisner, Divergences of measurement
and theory and some implications for economic policy, American
Economic Review, jg. 79,1989, biz. 1-13.

32. Zie Griliches, Handbook, deel 3.
33. Voor meer gedetailleerde literatuurverwijzingen, zie C.L. Gilbert, Professor Hendry’s econometric methodology, Oxford Bulletin of Economics and Statistics, jg. 48, 1986, biz. 283-307; ook

Kloek, Macroeconomic models and econometrics, op.cit. biz. 365.

logische consistence: fracties (zoals budget-aandelen,
marktaandelen en werkloosheidspercentages) behoren
tussen nul en een te liggen; rentestanden behoren niet
negatief te zijn, enzovoort. Anderzijds leidt de micro-economische theorie vaak tot meer ingewikkelde restricties op
de wiskundige vorm van economische relaties, die tot doel
hebben te voorkomen dat meon zadelpunten of ‘pessima’
beschrijft in plaats van optima’34

Numerieke wiskunde
Als de te optimaliseren doelfuncties kwadratisch zijn,
zoals bij OLS en een aantal eenvoudige generalisaties, kan
men vaak volstaan met procedures voor het snel en nauwkeurig oplossen van stelsels vergelijkingen. Bij gecompliceerdere doelfuncties is er behoefte aan algoritmen voor
niet-lineair maximaliseren en minimaliseren. In veel gevallen zijn deze algoritmen ingebouwd in computerpakketten
zodat men er als gebruiker niet noodzakelijk mee in aanraking komt. Toch is een zeker inzicht in de numerieke
problemen die zich kunnen voordoen voor de econometrist
gewenst.

Computerprogrammatuur
In de jaren ’60 en ’70 schreven econometristen hun
computerprogramma’s veelal in Fortran. De jongere generatie wordt meestal opgevoed met Pascal. Daarnaast bestaat er een groot aantal statistische en econometrische
pakketten zoals TSP (vooral voor tijdreeksen), SPSS
(vooral voor doorsneden), Lisrel (vooral voor modellen met
meetfouten) en SAS. Vermeldenswaard is ook de NAG-bibliotheek, waarin zich een groot aantal algoritmen bevindt
dat aan te roepen is als onderdeel van zelf geschreven
computerprogramma’s. De laatste jaren verschijnen er bovendien vele pakketten die speciaal geschikt zijn voor pc’s,
zoals Gauss, Rats, Pc-Give, en nog vele andere. Het
Journal of Applied Econometrics heeft een speciale rubriek
waarin de voor- en nadelen van dergelijke pakketten besproken worden.

Toepassingen
De toepassingen van econometrie zijn tegenwoordig
zeer divers. Overal waar statistische data aanwezig zijn
grijpen econometristen de kans die te analyseren . De
bestudeerde onderwerpen omvatten niet alleen de traditionele macro- en micro-economie, maar ook de marketing,
de financiele markten, de schadeverzekeringen en nog
vele andere terreinen. Anders dan bij de methoden zijn hier
weinig goede leerboeken beschikbaar. Ook in het Handbook wordt niet meer dan 15 procent van de ruimte aan
toepassingen besteed. Er bestaan natuurlijk wel overzichtsartikelen, maar deze zijn verspreid over een groot
aantal economische tijdschriften. Ik zal nu een greep uit de
toegepaste literatuurdoen, waarbij zowel overzichtsartikelen als interessante specifieke voorbeelden de revu passeren. Naar volledigheid zal ik daarbij niet streven.

Consumentengedrag
Deaton heeft een overzichtsartikel geschreven over de
vraag naar consumptiegoederen36. De wiskundige vorm
van de vraagfuncties speelt in die literatuur een belangrijke
rol omdat het een moeilijk probleem is om hanteerbare
wiskundige vormen te vinden die aan alle theoretische
eisen voldoen. Enkele onderwerpen die de laatste tijd in de
belangstelling staan zijn de volgende:
– als we naar individuele gezinnen kijken en naar niet al
te ruim gedefinieerde goederencategorieen zal het regelmatig voorkomen dat een gezin aan zo’n goederencategorie in een bepaalde periode nul gulden uitgeeft.

ESB 30-8-1989

Dit betekent onder meer dat de logaritmische transformatie niet bruikbaar is;
– in de traditionele theorie van het consumentengedrag
zijn budgetrestricties lineair. Maar als we rekening houden met belastingen en inkomensafhankelijke prijssubsidies is dit niet langer het geval37.
Arbeidsmarkt
Heckman en McCurdy schreven een overzichtsartikel
waarin het indexfunctiemodel centraal staat38. De modellen hebben te maken met werkloosheid, participate op de
arbeidsmarkt, mobiliteit, beloning en aantal gewerkte uren.
Mroz wijdt aan een deel van deze studies een kritische
bespreking, waarin hij erop wijst dat veel van deze modellen economisch en statistisch niet correct gespecificeerd
zijn en dat de meeste auteurs aan die mogelijkheid onvoldoende aandacht besteden. Het gaat daarbij onder meer
om meetfouten, de manier waarop de belasting wordt
behandeld en om het feit dat de steekproeven vaak niet
aselect zijn39.
Een interessante verzameling gegevens werd met behulp van een al even interessant model geanalyseerd door
G. Bidder40. Hij onderscheidt vijf toestanden waarin een
persoon zich met betrekking tot de arbeidsmarkt kan bevinden: werkloos, werkend in loondienst, werkend als zelfstandige, arbeidsongeschikt, overige. Aan 400 mannen
werd gevraagd met behulp van dit schema hun arbeidsmarktverleden te beschrijven over een periode van 10 jaar.
Er werd een model ontwikkeld waarin overgangstijden en
overgangskansen een rol speelden. Verklarende variabelen in het model zijn opleiding, origine (ruwweg: autochtonen vs. allochtonen), leeftijd, jaar, aantal afhankelijke kinderen, en socio-economische status van de partner. Zoals
overeenkomt met wat men zou verwachten was in de
periode 1981 -1983 de kans op overgang van werkloosheid
naar een baan heel laag en hadden migranten in alle
perioden een grotere kans werkloos te worden dan niet-migranten. Overigens zijn deze 400 waarnemingen duidelijk
onvoldoende om het grote aantal parameters nauwkeurig
te kunnen schatten.

Economische geschiedenis
De economische historici hebben ontdekt dat het interessant kan zijn om historische data econometrisch te analyseren41 . Men noemt dit cliometrie. Enkele behandelde onderwerpen zijn de gevolgen van schaarste aan arbeid in de
Verenigde Staten in de negentiende eeuw, varieties in inkomensongelijkheid, de demografische overgang van het traditionele naar het modeme stadium en de lengten van mensen als een indicator van de wijze waarop ze gevoed werden.
Financiele markten
De rendementen op financiele activa en de vraag of
financiele markten efficient zijn (in de zin dat prijzen onmiddellijk reageren op nieuwe informatie) hebben reeds aan34. Voor een overzicht, zie Lau in Handbook, deel 3.
35. Er zijn ook economen die de voorkeur geven aan het werken
met gestileerde feiten. In die aanpak is het echter onmogelijk echte
van onechte resultaten te onderscheiden bij gebrek aan toetsprocedures.
36. In Handbook, deel 3.
37. Zie ook J.A. Hausman, The econometrics of non-linear budget
sets, Econometrica, jg. 2.1985, biz. 1255-1282.

38. In Handbook, deel 3.
39. T.A. Mroz, The sensitivity of an empirical model of married
women’s hours of work to economic and statistical assumptions,
Econometrica, jg. 55, 1987, biz. 765-799.

40. G. Ridder, Life cycle patterns in labor market experience, a
statistical analysis of labor market histories of adult men, proefschrift, Universiteit van Amsterdam, 1987.
41. Zie N.F.R. Crafts, Cliometrics, Journal of Applied Econometrics, jg. 2, 1987, biz. 171-192.

849

leiding gegeven tot een zeer omvangrijke literatuur42. Feinstone bij voorbeeld analyseerde wisselkoersen (DM-futures in Chicago)43. De koersen werden genoteerd met het
tijdstip van de transactie, nauwkeurig tot op 10 seconden.
Alleen transacties die gepaard gingen met een koersverandering ten opzichte van de vorige notering werden vastgelegd; het aantal afgesloten contracten werd niet vermeld.
De data geven dus geen gegevens over alle transacties,
maar wel zeer nauwkeurige informatie over de tijdstippen
van koersmutaties. Het gebruikte model heeft als bouwstenen de Poisson-verdeling (voor het aantal mutaties per
tijdseenheid) en de normale verdeling (voor de mutaties
zelf). Analyse van de autocorrelaties van prijsveranderingen in intervallen van drie minuten leidt tot de conclusie dat
deze markt efficient is.
Evenwichtstendenties
De vraag of er evenwichtsrelaties bestaan waarheen
een economie na een schok vanzelf terugkeert heeft al veel
stof tot discussie gegeven. De enkele jaren geleden door
Granger ontwikkelde coTntegratietheorie is een interessant
hulpmiddel om dergelijke hypothesen te modelleren. Een
informele beschrijving van dit model luidt als volgt. We
beschouwen om te beginnen een variabele Y en zijn eerste
difference Xt = Yt – YM . Stel nu dat Xt met een eindige
variantie schommelt rond een zeker gemiddeld niveau
terwijl Yt niet de neiging heeft terug te keren naar een
gemiddeld niveau. Voor verschillende deelperioden heeft
zo’n variabele Yt meestal zeer verschillende waarden van
geschatte varianties, zodat men geneigd is aan te nemen
dat de variantie van Yt niet bestaat of, anders gezegd,
oneindig is. In dat geval noemen we Yt gei’ntegreerd van
de orde 1, kortweg 1(1), en Xt geTntegreerd van de orde nul:
l(0). Stel vervolgens dat we twee variabelen YH en Ya
hebben die beide 1(1) zijn, maar dat er een lineaire combinatieZt = Yn-AYat bestaat die l(0) is, dan noemen we Yn
en Yst gecoTntegreerd. Dus Yit en AY2t blijven op lange
termijn bij elkaar in de buurt terwijl ze samen alle kanten
op kunnen bewegen. Campbell en Shiller44 passen dit
model toe op variabelen Yt en yt, waarbij Yt gedefinieerd is
als de contante waarde van verwachte toekomstige yt. Ze
geven twee toepassingen: (1) Yt is de koers van een
aandeel en yt het uitgekeerde dividend; (2) Yt is een lange
rentestand en yt een korte. Zij verwerpen dit model voor
Vervolg van biz. 842
Het doel heiligt niet alle middelen. Ten einde te voorkomen dat het succes van ‘city-marketing’ louter en alleen
wordt afgemeten aan de hoe veel heid investeringen in nieuwe kantoorgebouwen of aan de winst van de gemeentelijke
grondbedrijven, verdient het aanbeveling om deze activiteiten periodiek via een ruimer afwegingskader systematisch te evalueren. Hierbij dient een criterium de hoogste
prioriteit te krijgen, namelijk het criterium ‘leefbaarheid’
(‘quality of life’). Is het voor een burger prettig wonen en
vertoeven in de stad? Of beter, hebben de marketing-inspanningen ertoe geleid dat het voor de burger thans
prettiger wonen en vertoeven is dan in het verleden?

Enkele concluderende opmerkingen
In deze bijdrage is aan de hand van een aantal vragen
gepoogd het fenomeen ‘city-marketing’ van verscheidene
zijden te belichten. Geconstateerd mag worden dat citymarketing een genuanceerdere aanpak vergt dan we vaak
in de praktijk kunnen waarnemen. In veel steden wordt
city-marketing wel erg eenzijdig toegespitst op het Verkopen’ van de stad aan nieuw te vestigen grootschalige
850

aandelen maar zijn geneigd het te aanvaarden voor obligaties. In een andere toepassing gebruikt Campbell een
model van dit type om de permanente inkomenshypothese
te toetsen (en te verwerpen) .

Slot

________

_____

Uit het voorgaande blijkt dat de econometrie een boeiend en springlevend vakgebied is datzich snel ontwikkelt.
Natuurlijk was het niet mogelijk volledig te zijn, maar naar
ik hoop bieden de gegeven literatuurverwijzingen voldoende mogelijkheden voor de lezer om zich verder te orienteren46. De kwaliteit van de toegepaste studies is weliswaar
divers, maar met enig zoeken is er toch veel interessant en
kwalitatief hoogstaand werk te vinden. Het grootste probleem is gelegen in de beschikbaarheid van goede data.
Wij zullen langzamerhand moeten groeien naar de situatie
waarin economen en econometristen als regel nun eigen
data verzamelen, zoals dat in de meeste andere wetenschappen reeds lang gebeurt47. Dit vergt een mentaliteitsverandering en dergelijke processen zijn tijdrovend.
T. Kloek

42. Voor goede literatuuroverzichten zie I.E. Copeland en J.F.
Weston, Financial theory and corporate policy, third edition, Reading, 1988.
43. L.J. Feinstpne, Minute by minute: efficiency, normality, and
randomness in intradaily asset prices, Journal of Applied Econometrics, jg. 2, 1987, biz. 193-214.

44. J.Y. Campbell en R.J. Shiller, Cointegration and tests of

present value models, Journal of Political Economy, jg. 95,1987,
biz. 1062-1088.

45. J.Y. Campbell, Does saving anticipate declining labor income?
An alternative test of the permanent income hypothesis, Econometrica, jg. 3. 1987, biz. 1249-1273.

46. Over twee onderwerpen schreef ik kortgeleden elders. Daarom ben ik op die terreinen korter geweest dan overigens wenselijk
zou zijn geweest. Zie Kloek, De kunst van het voorspellen, op.cit,
en Kloek, Macroeconomic models and econometrics, op.cit.
47. Natuurlijk is het mogelijk een deel van het uitvoerende werk
onder te brengen bij gespecialiseerde instituten, zoals het CBS,
maar het maakt veel uit of een commissie van onderzoekers
uitmaakt welke data worden verzameld dan wel een commissie
van beleidsambtenaren.

bedrijvigheid. De vraag of de komst van deze private
investeerders soms niet in conflict is met de belangen van
de reeds gevestigde bedrijvigheid en andere doelgroepen
van beleid, blijkt helaas nog te weinig te worden gesteld.
Ook in dit geval geldt dat het kind echter niet met het
badwater mag worden weggegooid. Het marktgerichte
ruimtelijke denken is een van de grate verdiensten van de
huidige tijd. Ook tal van ruimtelijke processen zijn onderworpen aan wetten van vraag en aanbod. Wil een overheid
hierin via planning intervenieren, dan is een goed inzicht in
de vraag- en aanbodzijde, en in de mogelijkheden tot
afstemming daartussen, een eerste vereiste. Marktgerichte planning mag echter nimmer resulteren in marktconforme planning, dat wil zeggen in een klakkeloze en kritiekloze acceptatie van marktontwikkelingen. Dit betekent dat er
een moment komt waarop een stad ‘nee’ moet kunnen
zeggen tegen de verlokkingen des levens van een wethouder Economische Zaken, als wederom een kantoorkolos
aan de afslag van een volgelopen rijksweg dreigt te verschijnen. De automobilisten die zich in file naar een van de
belendende kantoorkolossen wurmen, zullen dit gebaar
ongetwijfeld waarderen, al zullen ook zij met de vraag
blijven zitten: waarom had men deze toestanden niet eerder voorzien?

H. Voogd

Auteur