Documents
Resources
Learning Center
Upload
Plans & pricing Sign in
Sign Out

Deutsche Statistische Gesellschaft

VIEWS: 263 PAGES: 69

  • pg 1
									    Deutsche Statistische Gesellschaft




Startseite

Termine
Über die
Statistische Woche

Programm                                                               Statistische Woche 2005
Vorträge
Statistische                                                           vom 26. - 29. September 2005
Woche 2006                                                                   in Braunschweig

Formulare
                                         Die diesjährigen Hauptvorträge behandeln
Deutsche
Statistische
Gesellschaft                                                      "Fehlende und fehlerbehaftete Daten"
Kontakt und
Impressum

                                         Referenten u.a.:


                                              Prof. Donald B. Rubin


                                              Prof. Trivellore Raghunathan


                                              PD Dr. Susanne Rässler


                                              Dr. Lars Lyberg


                                              Dr. Gabriele Durrant



                                         Programmkomitee:
                                              Prof. Karl Mosler
                                              Prof. Reiner Stäglin
                                              Prof. Jürgen Wolters


                                         Tagungsbeauftragter:
                                              Hans Teschner
                                              www.statistische-woche.de




    http://www.statistische-woche.dstatg.de/19.12.2005 15:47:32
Statistische Woche




                                           Statistische Woche 2005

                                            vom 26. - 29. September 2005
                                                  in Braunschweig

 Die diesjährigen Hauptvorträge behandeln

                                 "Fehlende und fehlerbehaftete Daten"




  Referenten u.a.:


         Prof. Donald B. Rubin


         Prof. Trivellore Raghunathan


         PD Dr. Susanne Rässler


         Dr. Lars Lyberg


         Dr. Gabriele Durrant



  Programmkomitee:
         Prof. Karl Mosler
         Prof. Reiner Stäglin
         Prof. Jürgen Wolters


  Tagungsbeauftragter:
         Hans Teschner


http://www.statistische-woche.dstatg.de/content/ger/_startseite.html (1 of 2)19.12.2005 15:47:33
Statistische Woche


         www.statistische-woche.de




http://www.statistische-woche.dstatg.de/content/ger/_startseite.html (2 of 2)19.12.2005 15:47:33
 Statistische Woche - Termine




Letzte Aktualisierung: Mo., 20.06.2005
Termine


15.04.05                           Deadline für Einreichung von Vorträgen
25.05.05                           Benachrichtigung der Vortragenden bzgl. Annahme / Ablehnung Ihrer Vortäge
30.06.05                           Versendung von Einladungen und Registrierung
30.06.05                           Frist für die Einreichung von Anträgen auf Reisekostenzuschuss
26.-29.09.05                       Statistische Woche in Braunschweig




 http://www.statistische-woche.dstatg.de/content/ger/termine.html19.12.2005 15:47:34
DStatG - Vorstand und Geschäftsstelle


Statistische Woche

Die zentrale Veranstaltung der Deutschen Statistischen Gesellschaft ist ihre
Jahrestagung. Sie ist Teil der Statistischen Woche, die traditionsgemäß
gemeinsam mit dem Verband Deutscher Städtestatistiker veranstaltet wird.
Neuerdings ist die Deutsche Gesellschaft für Demographie daran beteiligt. Die
Statistische Woche findet jährlich Ende September oder Anfang Oktober statt. Der
Tagungsort wechselt von Jahr zu Jahr und führt die Teilnehmer durch nahezu alle
Bundesländer.

Die Statistische Woche ist der Treffpunkt der Mitglieder der drei Vereinigungen, ihrer
Freunde und Gäste. Das erweitert die Themenvielfalt für jede von ihnen und bietet die
Möglichkeit, Einblick auch in die Arbeitsgebiete der jeweils anderen Gesellschaften zu
nehmen. Es senkt zudem die Kosten. Der Kostenbeitrag für die gesamte Statistische
Woche beträgt derzeit 50 für Mitglieder und 70 für Nichtmitglieder.
Kurzfassungen der Tagungsbeiträge werden zur Einstimmung und Vorbereitung der
Teilnehmer vor Veranstaltungsbeginn im Internet publiziert und zu Beginn der Tagung
als Leitfaden und Dokumentation in Schriftform zur Verfügung gestellt.

Das Programm der Jahrestagung der Deutschen Statistischen Gesellschaft umfasst
Plenarsitzungen (früher: Hauptversammlung), die unter einem Rahmenthema stehen
und damit zum Kristallisationspunkt der Tagung werden, sowie themenbezogene
Sitzungen, die aus den Ausschüssen heraus gestaltet werden. Diese können, müssen
aber nicht einen Bezug zum Rahmenthema der Plenarsitzungen haben. Die
Referenten der Plenarsitzungen werden von einem Vorbereitungskomitee eingeladen.
Für die weiteren Referate erfolgt ein "call for papers"; die Auswahl wird von einem
Programmkomitee vorgenommen.

Zwischen 50 und 70 Vorträge mit Diskussion sind es normalerweise, die den Inhalt
der Jahrestagung bestimmen. Während die Plenarsitzungen - je nach Themenwahl -
eine sehr große Zuhörerschaft haben, liegt die Zahl der Teilnehmer bei den von den
Ausschüssen veranstalteten Sitzungen im Mittel bei 50 Personen.

Während der Statistischen Woche hält die Deutsche Statistische Gesellschaft ihre
jährliche Mitgliederversammlung ab. Auf dieser berichtet der Vorstand über die
Entwicklung der Gesellschaft, über neue Vorhaben sowie über das
Publikationsprogramm des Allgemeinen Statistischen Archivs; außerdem legt er
Rechenschaft über die Finanzen ab. Die Mitgliederversammlung bietet Gelegenheit,
Meinungen und Wünsche zur Arbeit von Vorstand und Gesellschaft zu artikulieren.

Einen Eindruck von der Vielfalt methodisch orientierter, empirischer oder aktuell
politischer Themenstellungen der Jahrestagungen vermittelt die nachfolgende
Zusammenstellung der Hauptversammlungs-/Plenarthemen für den Zeitraum 1990
bis 2005.



Die in den letzten 30 Jahren behandelten Themen spiegeln das weite Spektrum der
Arbeitsinhalte der Deutschen Statistischen Gesellschaft wider:



http://www.statistische-woche.dstatg.de/content/ger/geschichte.html (1 of 3)19.12.2005 15:47:34
DStatG - Vorstand und Geschäftsstelle


Jahr            Ort                                                      Thema


1970 München                  Probleme der Preismessung - Die Bedeutung der
                              automatischen Datenverarbeitung für die Beschaffung und
                              Bereitstellung statistischer Daten
1971 Stuttgart                Statistik regionaler Verflechtungen - Probleme der Statistik des
                              Vermögensbestandes
1972 Mainz                    Ein integriertes System demographischer Daten
1973 Mannheim                 Gesamtwirtschaftliche Prognose und Konjunkturindikatoren
1974 Dortmund                 Umweltschutz und Statistik
1975 Nürnberg                 Soziale Indikatoren
1976 Berlin                   Zur Analyse des Strukturwandels der Wirtschaft
1977 Münster                  Probleme der Volks-, Berufs- und Arbeitsstättenzählung
1978 Kiel                     Langfristprognosen
1979 Hannover                 Entwicklungstendenzen in der Statistik - Aufgaben, Methoden,
                              Techniken
1980 Hamburg                  Internationale Statistik
1981 Saarbrücken Das Energieproblem im Lichte der Statistik
1982 München                  Statistik im Dienste der Geld- und Währungspolitik
1983 Wuppertal                Moderne Verfahren der Datenauswertung (Explorative
                              Datenanalyse)
1984 Augsburg                 Qualität statistischer Daten
1985 Bonn                     Die Bedeutung der Bevölkerungsentwicklung für Arbeitsmarkt
                              und soziale Sicherung - Statistische Methoden und Analysen
1986 Frankfurt a.M. Erfassung und Analyse der Dienstleistungen - Eine
                    Herausforderung der Statistik
1987 Berlin                   Umwelt und Statistik
1988 Bremen                   Statistik als gesellschaftspolitische Aufgabe - Aktuelle Probleme
                              und Zukunftsperspektiven
1989 Duisburg                 Beobachtung und Analyse des Arbeitsmarktes
1990 Stuttgart                Analyse und Prognose von Zeitreihen
1991 Berlin                   Statistik im vereinten Deutschland
1992 Braunschweig Statistik und Computer
1993 Köln                     Statistische Analyse qualitativer Daten
1994 Wien                     Statistik und europäische Integration
1995 Leipzig                  Migration
1996 Karlsruhe                Statistische Analyse von Finanzmärkten
1997 Bielefeld                Konjunkturanalysen und Statistik
1998 Lübeck                   Soziale Sicherungssysteme
1999 Hannover                 Umwelt und Statistik
2000 Nürnberg                 Statistik und Gesellschaft
2001 Dortmund                 Planung und Analyse von Panelstudien


http://www.statistische-woche.dstatg.de/content/ger/geschichte.html (2 of 3)19.12.2005 15:47:34
DStatG - Vorstand und Geschäftsstelle


2002 Konstanz                 Volkswirtschaftliche Gesamtrechnung
2003 Potsdam                  Statistik in der erweiterten Europäischen Union
2004 Frankfurt a.M. Arbeitsmarkt und Statistik
2005 Braunschweig Fehlende und fehlerbehaftete Daten




http://www.statistische-woche.dstatg.de/content/ger/geschichte.html (3 of 3)19.12.2005 15:47:34
Statistische Woche - Programm



    Letzte Aktualisierung: Do.,14.07.2005
    Programm



         Uhrzeit                                 Montag                                           Dienstag                               Mittwoch                            Donnerstag

                                                                                                                         DStatG A (Ausbildung I)
                                                                                                                         Zwerenz, Ghosh
                                                                                     DStatG JT 2/1
                                                                                     Garloff, Kuckulenz, Werwatz
                                                                                                                         DStatG A (Erhebung II)
          9:15                                                                                                           Wein, Kuchler, Beuerlein
            -                                                                        DStatG JT 2/2
          10:45                                                                      Brachinger, Bechtold, Niermann                                             Demographie 3
                                                                                                                         DStatG JT 5
                                                                                                                         Henzel, Beer, Behrmann
                                                                                     VDSt HV 2

                                                                                                                         VDSt Plenum 3


                                                                                                                          DStatG HV 3
                                                                                                                          "Missing Data and Measurement Error in
                                                                                     DStatG HV 2                          Official Statistics"
          11:15                                                                      "Measurement Error and Applications" Lyberg, Radermacher, Durrant
                          Plenum Eröffnung
            -                                                                        Raghunathan, Rässler                                                        Demographie 4
                          Hahlen, Richter, N.N.
          13:00
                                                                                                                         VDSt Plenum 3


                                                                                     DStatG JT 3/1
                                                                                                                         DStatG A (Ausbildung II)
                                                                                     Basic, Boockmann
                                                                                                                         Reuke, Ehling

                                                                                     DStatG JT 3/2
                                                                                                                         DStatG A (Regional)
                                                                                     Klößner, Haas, Neumann
                          DStatG HV 1                                                                                    Eicken, Christians / Wirth, Rosemann
          14:15           "Missing Data"
            -             Rubin, Rendtel                                             DStatG A (Erhebung I)
                                                                                                                         DStatG JT 6/1
          15:45                                                                      Harms, Hauschild, Schmid
                                                                                                                         Wachtlin, Gartner, Spiess

                                                                                     VDSt Plenum 1
                                                                                                                         DStatG JT 6/2
                                                                                                                         Serfling, Knüsel
                                                                                     Demographie 2



http://www.statistische-woche.dstatg.de/content/ger/programm.html (1 of 2)19.12.2005 15:47:35
Statistische Woche - Programm

                          DStatG JT 1/1
                          Dyckerhoff, Frahm, Veen                                    DStatG A (Unternehmen)
                                                                                     Wiechers, Hild, Stejskal-Passler
                          DStatG JT 1/2
                          Massmann, Stephan, Müller                                  DStatG JT 4/1
          16:15                                                                      Döpke, Gornig
            -             DStatG JT 1/3                                                                                 DStatG Mitgliederversammlung
          17:45           Postelnicu, Kläver, Schneeweiß                             DStatG JT 4/2
                                                                                     Kuhnt, Wilke
                          VDSt HV 1
                                                                                     VDSt Plenum 1
                          Demographie 1


                          19:00 Empfang                                              18:00 DStatG Vorstand
          Abend
                                                                                     18:00 VDSt MV


   A = Ausschüsse, HV = Hauptvorträge, JT = Jahrestagung




http://www.statistische-woche.dstatg.de/content/ger/programm.html (2 of 2)19.12.2005 15:47:35
 Statistische Woche - Vorträge


Letzte Aktualisierung: Do., 23.06.2005


Vorträge

alphabetisch sortiert
     Basic, Edin
     Bechtold, Sabine
     Beer, Michael
     Behrmann, Timm
     Beuerlein, Irmtraud
     Boockmann, Bernhard
     Brachinger, Hans Wolfgang
     Christians, Helga
     Döpke, Jörg
     Durrant, Gabriele
     Dyckerhoff, Rainer
     Ehling, Manfred
     Eicken, Joachim
     Frahm, Gabriel
     Garloff, Alfred
     Gartner, Hermann
     Ghosh, Amit
     Gornig, Martin
     Haas, Markus


     Harms, Torsten
     Hauschild, Wolfgang
     Henzel, Steffen
     Hild, Reinhard
     Kläver, Hendrik
     Klößner, Stefan
     Knüsel, Leo
     Kuchler, Carsten
     Kuckulenz, Anja
     Kuhnt, Sonja
     Lyberg, Lars
     Massman, Michael
     Mueller-Kademann, Christian
     Neumann, Thorsten
     Niermann, Stefan
     Postelnicu, Tiberiu
     Radermacher, Walter
     Raghunathan, Trivellore
     Rässler, Susanne
     Rosemann, Martin
     Rubin, Donald B.
     Schmid, Matthias
     Schneeweiß, Hans
     Serfling, Oliver
     Spiess, Martin


 http://www.statistische-woche.dstatg.de/content/ger/vortrag.html (1 of 2)19.12.2005 15:47:36
Statistische Woche - Vorträge


    Stejskal-Passler, Beatrix
    Stephan, Sabine
    Veen, Alejandro
    Wachtlin, Daniel
    Wein, Elmar
    Werwatz, Axel
    Wiechers, Ralph
    Wilke, Ralf
    Wirth, Heike
    Zwerenz, Karlheinz




http://www.statistische-woche.dstatg.de/content/ger/vortrag.html (2 of 2)19.12.2005 15:47:36
Statistische Woche - Statistische Woche 2006


Statistische Woche 2006



18.-21.09.2006                   Statistische Woche in Dresden




http://www.statistische-woche.dstatg.de/content/ger/statw%2B1.html19.12.2005 15:47:36
Statistische Woche - Formulare

    Formulare



            Erläuterungen zum Ausfüllen der Abstractvorlage (63 kB)
            Abstractvorlage (25 kB)




http://www.statistische-woche.dstatg.de/content/ger/formulare.html19.12.2005 15:47:37
 Deutsche Statistische Gesellschaft - Impressum

Kontakt und Impressum

Deutsche Statistische Gesellschaft
Geschäftsstelle an der Universität zu Köln
Albertus-Magnus-Platz
50923 Köln

Besucheranschrift
Geschäftsstelle an der Universität zu Köln
Meister-Ekkehart-Str. 9
50937 Köln


   Stadtplan mit Lage der Geschäftsstelle

Servicezeiten der Geschäftsstelle: Mo, Di, Do, Fr 9:30 - 11:30 Uhr

Telefon:         (0221) 470-4130
Telefax:         (0221) 470-5084
E-Mail:          post@dstatg.de
Homepage: www.dstatg.de

Geschäftsführerin: Nana Dyckerhoff

Die Deutsche Statistische Gesellschaft wird vertreten durch den Vorstand, dieser
vertreten durch Herrn Prof. Dr. Karl Mosler (Vorsitzender).

Für den Inhalt der Website verantwortlich im Sinne des § 6 des Mediendienst-
Staatsvertrags (MDStV) ist Rainer Dyckerhoff.

Die Deutsche Statistische Gesellschaft ist wegen Förderung gemeinütziger Zwecke
von der Körperschaftssteuer befreit (Freistellungsbescheid des Finanzamtes für
Körperschaften I in Berlin vom 7. Februar 2000 - StrNr 27/640/55189).

Haftungshinweis:
Alle auf unseren Internetseiten enthaltenen Angaben und Informationen wurden von
der DStatG sorgfältig erstellt und geprüft. Diese Informationen sind ein Service der
DStatG. Für Richtigkeit, Vollständigkeit und Aktualität können weder die DStatG noch
Dritte die Haftung übernehmen. Im übrigen ist die Haftung auf Vorsatz und grobe
Fahrlässigkeit beschränkt.

Die DStatG übernimmt keine Haftung für die Inhalte externer Links. Für den Inhalt der
verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich.

Urheberrecht:
Die Inhalte der Website sind urheberrechtlich geschützt. Heruntergeladene Inhalte
dürfen nicht verändert oder verfälscht werden. Die Erstellung von Kopien auf
elektronischen Datenträgern oder im Printverfahren ist erwünscht. Die Deutsche
Statistische Gesellschaft (DStatG) ist als Quelle ausdrücklich zu nennen. Jede

 http://www.statistische-woche.dstatg.de/content/ger/_impressum.html (1 of 2)19.12.2005 15:47:38
 Deutsche Statistische Gesellschaft - Impressum

weitergehende Nutzung der Inhalte der Website ist urheberrechtswidrig.




 http://www.statistische-woche.dstatg.de/content/ger/_impressum.html (2 of 2)19.12.2005 15:47:38
DONALD B. RUBIN
Harvard University

Conceptual, computational and inferential benefits of the missing data
perspective in applied and theoretical statistical problems



Treating essentially all problems in theoretical and applied statistics as missing data
problems may be viewed as a bold and novel perspective, but one that has been fruitful in
many ways. This perspective essentially states that when confronting a scientific problem,
the field of statistics enters by viewing the problem as one where the scientific answer could
easily be calculated if some missing data, hypothetical or real, were available. Thus, all
creative statistical effort should be devoted to two steps: formulating the missing data that
would allow this calculation, and stochastically filling in these missing data. This
presentation discusses: conceptual benefits, such as causal inference using potential
outcomes; computational benefits, such as the EM algorithm and related data augmentation
methods based on MCMC; and inferential benefits, such as point and interval estimation
based on multiple imputation. These three benefits are not always easily distinguished,
which is arguably the greatest benefit of the perspective: it unifies many aspects of applied
and theoretical statistics (not necessarily mathematical statistics).
TRIVELLORE RAGHUNATHAN
University of Michigan

Combining information from multiple surveys to correct for measurement
errors



Many surveys ask respondent to report on disease conditions. For example, a standard
question in the National Health Interview Survey (NHIS) conducted by the National Center
for Health Statistics (NCHS) is "Did a doctor or other health professional ever told you that
you have .... (a disease condition)?". The respondent may answer no to this question simply
because he/she is unaware that they have the disease condition and may not have had an
occassion to see a doctor or health professional. Thus, the self-report data may underestimate
the prevalence of the disease condition. It is also possible that a respondent may have
misinterpreted a casual statment made by the health professional, such as "watch your
cholesterol" and may over report a disease condition. The measures of health based on self-
report may be prone to such measurement errors. Since the patterns of over or under
reporting may depend on race/ethnicity, socio-econmic status etc, comparisons of prevalance
rates across these groups may be biased. In this paper, we use the data from another survey
which collects self-report as well as certain clinical measures to develop "correction" models
and then apply the correction model to NHIS. The Bayesian multiple imputation framework
is used to develop the corrected self-report data. We also compare several analysis using
uncorrected and corrected self-report data to study the impact of errors in self-report data.
SUSANNE RÄSSLER
IAB

Der Einsatz von Missing Data Techniken bei der Arbeitsmarktforschung im
IAB



Dieser Vortrag gibt eine Übersicht, wie und an welchen Stellen die verschiedenen Methoden
zur Behandlung von fehlenden Daten erfolgversprechend in der Praxis eingesetzt werden
können.

Zum Aufbau einer instrumentübergreifenden Wirkungsanalyse für die Bundesagentur für
Arbeit in Deutschland ist beispielsweise das Projekt TrEffeR in Kooperation mit der Harvard
Universität entstanden. Dabei soll einerseits die instrumentübergreifende Evaluation von
Maßnahmen, zunächst für einige kurzfristige Effekte, zeitnah ermöglicht werden sowie, zur
Unterstützung der Vermittler, die potentiellen Arbeitslosigkeitsdauern von neuen „Kunden“
vorhergesagt werden. Im wesentlichen werden dabei die Arbeitslosigkeitdauern von
Personen, die an arbeitsmarktpolitischen Maßnahmen teilnehmen als durch die
Maßnahmenteilnahme rechtszensiert und damit fehlend betrachtet. Es handelt sich
konzeptionell um sog. „potentielle Ergebnisse (potential outcomes)“, die dann mit
geeigneten Methoden ergänzt werden.
In anderen Projekten, wie etwa bei Produktivitätsschätzungen mit dem IAB-Betriebspanel,
kommen klassische Verfahren der multiplen Ergänzung zur Anwendung, um die durch
Antwortverweigerung auftretenden Datenverluste geeignet abzufangen. Bei der ebenfalls
hauseigenen Offenen Stellen Erhebung ist ein Split Projekt in die Wege geleitet, um die
Rücklaufquote durch erhebliche Reduktion des Fragebogens zu steigern ohne jedoch
Qualitätseinbußen befürchten zu müssen.
Auch in der IAB Beschäftigtenstichprobe können nunmehr Lohndaten jenseits der
Beitragsbemessungsgrenze ausgewertet werden, da dieser „Datenausfall“ als designbedingt
betrachtet und ergänzt wird. Ein eigens dafür entwickelter Data Augmentation Algorithmus
zeigt bei ersten Analysen zu Lohnungleichheiten sinnvolle und plausible Ergebnisse.
LARS LYBERG
Statistics Sweden

Measurement errors in official statistics-international perspectives and
developments



The presentation illustrates the importance of measurement errors in official statistics.
Traditionally methodological development in official statistics has concentrated on sampling
and estimation, reducing and adjusting for noncoverage and nonresponse, and editing. Much
less effort has been devoted to preventing and measuring measurement error despite the fact
that such errors can drastically affect the accuracy of estimates. Probable reasons for this
state of affairs will be discussed.

We will outline basic approaches to handling measurement errors: assessment and
prevention. Assessment includes analysis of the response process and its implications on
questionnaire development, interviewer training and choice of data collection system with a
total survey error perspective. Here we also review some new approaches within cognitive
methods, as well as latent class analysis and multi-level modelling. Prevention includes
application of best practices or standard operating procedures, which will result in improved
measurement processes. Examples of new developments are the choice, measurement, and
analysis of process data aiming at ensuring stable measurement processes. We will also
discuss ideas on resource allocation and responsive designs, where process information is
collected during initial phases of a survey with the purpose of refining the remainder of the
survey.

Examples of work will be provided from various organizations worldwide.
GABRIELE B. DURRANT
Southampton Statistical Sciences Research Institute, University of Southampton

The use of missing data methods in official statistics in the UK:
An example from the UK labour force survey


This paper discusses a number of approaches to handling missing data in the case of item
nonresponse in official statistics in the UK. It describes current practices and new
developments in this area. To illustrate the use of missing data methods in official statistics
an example from the UK Labour Force Survey is discussed in greater detail. The aim in this
application is the estimation of the distribution of hourly pay in the presence of nonresponse,
with particular focus on the estimation of the proportion of low paid employees. Since both
imputation and weighting are common ways of addressing problems of item nonresponse in
surveys this paper investigates the relative merits of a number of imputation and weighting
methods for estimating distribution functions.
Several point estimators are considered, based upon a variety of imputation and weighting
approaches, including nearest neighbour, predictive mean matching, fractional and multiple
imputation and propensity score weighting. Properties of these point estimators are then
compared both theoretically and by simulation. The focus is on the choice of methods to
improve point estimation of a distribution function, in terms of bias, efficiency and
robustness to model misspecifications. It is important to consider carefully the type of data
available and the point estimator of interest. Standard parametric imputation methods are not
found adequate for the application considered here, whereas it was found that hot deck
imputation methods preserve well the distributional properties of the hourly pay variable,
such as truncation and rounding effects. A fractional predictive mean matching imputation
approach is advocated. It performs similarly to propensity score weighting, but displays
slight advantages of robustness and efficiency. The proposed point estimation approach
based on predictive mean matching imputation has been implemented by the Office for
National Statistics to estimate the proportion of low paid employees in the UK.


Keywords: Hot deck imputation, predictive mean matching imputation, fractional
imputation, multiple imputation, propensity score weighting.
Bernd Fitzenberger, ALFRED GARLOFF
ZEW Mannheim
Descriptive evidence on labor market transitions and the wage structure in
Germany



This paper provides an overview of labor market transition rates and the wage structure of
the German labor market. We use a comprehensive German register dataset that is
representative for a vast majority of the German workforce. Motivated by search theory, we
use this administrative dataset to explore descriptively labor market transitions and features
of the wage structure. Equilibrium search theory suggests that the wage distribution in a
cross section of workers is closely related to the dynamics of the labor market. Since job-to-
job transitions are central in this context, we examine them in detail. We find that the rate at
which individuals change jobs varies substantially over the business cycle and with
characteristics of the individuals. Further, we find that wage changes following job-to-job
transitions are considerable, that most individuals gain notably but also that a considerable
amount of individuals incurs a remarkable loss. Other rates are shown to vary
considerably over the business cycle and over demographic characteristics, too. Examining
the wage structure, we look at determinants of changes in the position of the wage
distribution and find that job-to-job transitions, age and education have strong effects on
wage mobility. While we cannot detect structural parameters, we conclude from our analysis
that indeed a close relationship exists between wages and labor market transitions as
predicted by search theory. However, the share of losers following job-to-job changes seems
to contradict a simple search theoretic perspective. For future work, this suggests to
concentrate on more elaborated models in empirical analysis.
Alfred Garloff, ANJA KUCKULENZ
ZEW Mannheim

Training, mobility, and wages



This paper considers training, mobility decisions and wages together. One focus is the effect
of participation in training on the mobility decision after training. Another focus is the wage
effect of mobility, distinguishing whether people have participated in training before or not.
We distinguish voluntary and involuntary mobility and use different mobility concepts
(employer, occupational and task changes). Since wage and mobility are determined
simultaneously, we use information about firm closures to identify the (wage) effect of
exogenous mobility. To allow for endogeneity of training participation we use exogenous
variation of the training probability by collective agreements as an instrument. We show that
training and mobility are negatively correlated, while we cannot detect a causal effect of
training on mobility. Further, we show that wages are negatively correlated with the fact that
somebody has participated in training before the job change, but positively correlated with
the job change itself. Again, we do not find causal effects. Comparing point estimates it
seems that occupational changes are on average somewhat worse for wages and the
propensity to participate in training, while (major) task changes are somewhat better.
Clearly, voluntary mobility, on average, has positive wage effects. We interpret the results in
the framework of selection on unobservables and give explanations why we observe this
pattern. All together the results favour an interpretation of training that imparts general skills
to individuals, since there seem to be no significant wage penalties for changing jobs after
training.
Bernd Görzig, Martin Gornig, AXEL WERWATZ
Deutsches Institut für Wirtschaftsforschung Berlin

Nichtparametrische Analyse der zwischenbetrieblichen Lohnspreizung
in Ost- und Westdeutschland



In Ostdeutschland haben sich parallel zu den individuellen auch die betrieblichen
Lohndifferenzen deutlich verstärkt. Dennoch ist die betriebliche Lohnspreizung immer noch
erheblich geringer als in Westdeutschland. Mit einer nichtparametrischen Dekomposition
wird der Unterschied in der Lohnspreizung zwischen beiden Landesteilen zerlegt. Nur zum
Teil sind die Unterschiede durch abweichende Wirtschaftsstrukturen in Ostdeutschland
erklärbar. Der weitaus größte Teil des Unterschiedes in der Lohnspreizung zwischen den
Betrieben in beiden Landesteilen wird dadurch bestimmt, dass Betriebe gleichen Typs in
Ostdeutschland weit geringere Lohnabweichungen aufweisen als ihr Pendant in
Westdeutschland. Zur Verbesserung der Einkommens- und Beschäftigungslage sind weitere
Differenzierungen der zwischenbetrieblichen Lohnhöhen in Ostdeutschland erforderlich.
HANS WOLFGANG BRACHINGER
Universität Freiburg Schweiz / Université de Fribourg Suisse

Euro = Teuro ?
Ein Prospekt-Theorie basierter Index der wahrgenommenen Inflation


Seit der Einführung des Euro ist überall in den Ländern der Europäischen Wirtschafts- und
Währungsunion eine erhebliche Diskrepanz zwischen der durch den amtlichen Verbraucher-
preisindex gemessenen Entwicklung des Preisniveaus und der öffentlichen Wahrnehmung
davon feststellbar. Diese Diskrepanz wird einmal zu Lasten der amtlichen Statistik ausgelegt
(„Die amtliche Statistik rechnet falsch“), einmal zu Lasten der Verbraucher, deren Wahrneh-
mung als „irrational“ qualifiziert wird.

In diesem Aufsatz wird argumentiert, dass die latente Variable, die durch den amtlichen Ver-
braucherpreisindex gemessen wird, etwas anderes ist als diejenige latente Variable, durch die
die Wahrnehmung der Öffentlichkeit bestimmt wird. Dazu wird zunächst auf das Problem
der individuellen Wahrnehmung von Inflation eingegangen. Es wird auf einige Grundtat-
sachen hingewiesen, durch die die menschliche Wahrnehmung geprägt ist. Dabei werden
insbesondere die wesentlichen Prinzipien der Prospect-Theorie von Kahneman und Tversky
auf die Wahrnehmung von Preisentwicklungen übertragen.

Ausgehend vom grundlegenden Laspeyresschen Konzept eines Verbraucherpreisindexes
wird schließlich ein Index der wahrgenommenen Inflation entwickelt, dessen Ziel die
Quantifizierung der öffentlichen Inflationswahrnehmung ist. Im Rahmen eines gemeinsamen
Projektes mit dem Bundesamt für Statistik wurde dieser Index für Deutschland berechnet.
Am Ende dieses Vortrages werden die dabei erzielten Ergebnisse vorgestellt und analysiert.
                                                                                               Grundlage des Wägungsschemas werden geeignete Preisrepräsentanten ausgewählt, die
Astrid Stroh, SABINE BECHTOLD                                                                  Struktur und Inhalt des Warenkorbs festlegen. Im zweiten Schritt erfolgt die kontinuierliche
                                                                                               Beobachtung der Entwicklung von Preisen und Gebühren der einzelnen Wirtschaftsbereiche
Statistisches Bundesamt, Wiesbaden
                                                                                               auf der Basis des Wägungsschemas.

Entwicklung von Erzeugerpreisindizes (EPI) für Rechtsberatung,                                 Das Wägungsschema wird für jede Zielgruppe mit Hilfe einer direkten schriftlichen
Steuerberatung und Wirtschaftsprüfung                                                          Befragung bei den einzelnen Kanzleien ermittelt. Die nach Umsatzgrößenklassen
                                                                                               geschichtete Stichprobe wurde auf der Basis der von den Statistischen Ämtern gepflegten
                                                                                               Daten des Unternehmensregisters in Übereinstimmung mit den Strukturdaten der
                                                                                               Dienstleistungsstatistik und zeitnaher Zusatzinformationen aus Fachkreisen gezogen. Mit
Das Statistische Bundesamt verfolgt im Hinblick auf die Erfüllung der Berichtspflichten        Unterstützung der jeweiligen Kammern und Verbände wurden die Befragungsinhalte
gegenüber der EU das Ziel, ab dem Jahr 2006 vierteljährlich Erzeugerpreisindizes (EPI) für     angepasst.
ausgewählte, mit Priorität 1 versehene Wirtschaftszweige des Dienstleistungssektors, unter
anderem für die Rechtsberatung, Steuerberatung und Wirtschaftsprüfung, bereitzustellen.        Auf der Basis der in Phase 1 erstellten Wägungsschemata werden die Preise und deren
EPI zeigen die Veränderungen der Preise auf Herstellerseite im Zeitablauf. Auf                 Entwicklung im Zeitverlauf in den einzelnen Tätigkeitsgebieten der verschiedenen
makroökonomischer Ebene dienen sie zur Beobachtung der sektoralen Preisentwicklung und         Wirtschaftssektoren durch Befragung ermittelt. Folgende Honorararten, unterschieden nach
zur Ermittlung des realen, preisbereinigten Wirtschaftswachstums.                              Gebühren mit freier Vertragsverhandlung und Gebühren nach Gebührenordnung, werden
                                                                                               beobachtet: Stundensätze im Bereich der freien Honorargestaltung; Gebühren nach
Als allgemeine Rechtsgrundlage für die entsprechende Erhebung dient § 4 Abs.1 des              Gegenstandswert und Festgebühren auf der Basis der gesetzlichen Gebührenordnungen.
Gesetzes über die Preisstatistik. Diese allgemeine Rechtsgrundlage wird konkretisiert durch
den Entwurf für die Verordnung des Europäischen Parlaments und des Rates zur Änderung          Das Statistische Bundesamt hat sich entschieden, lediglich im Bereich der freien
der Verordnung (EG) Nr. 1165/98 des Rates vom 19. Mai 1998 über Konjunkturstatistiken.         Vertragsverhandlung direkte Befragungen zu den Stundensätzen der Kanzleien –
Er sieht für die Erstellung von Erzeugerpreisindizes eine Befragung der wichtigsten Bereiche   Wirtschaftsprüfern und Rechtsanwälten – durchzuführen. Die Preisentwicklung der übrigen
des Dienstleistungssektors vor - wie der Rechtsberatung, Steuerberatung und                    Gebührenarten wird im Statistischen Bundesamt mit Hilfe von Modellfällen ermittelt.
Wirtschaftsprüfung. Nach neuesten Informationen ist mit einer Verabschiedung der               Letzteres führt zu einer erheblichen Entlastung der Befragten von aufwändigen amtlichen
Verordnung in Kürze zu rechnen.                                                                Statistiken. Dies bedeutet keine Befragung von Notaren und Steuerberatern sowie nur eine
                                                                                               Teilbefragung von Rechtsanwälten für den Bereich der freien Honorargestaltung.
Zur Vorbereitung dieser Bundesstatistik werden seit 2004 im Rahmen von Piloterhebungen
Fragebogen und Erhebungsverfahren auf ihre Zweckmäßigkeit hin erprobt. Rechtsgrundlage         Bzgl. des Model Pricing - Ansatzes werden für die einzelnen Tätigkeitsgebiete
hierfür ist § 6 Abs. 1 Nr. 2 Bundesstatistikgesetz (BStatG) vom 22. Januar 1987. Für die Er-   repräsentative Fälle entwickelt, deren Spezifikationen im Zeitverlauf konstant gehalten
hebungen im Rahmen dieser Pilotphase besteht nach § 6 Abs. 1 BStatG keine                      werden. Hiermit ist sichergestellt, dass die Anforderung der Preisstatistik, die Qualitäts- und
Auskunftspflicht.                                                                              Leistungsbeschreibung von Produkten und Dienstleistungen über einen bestimmten Zeitraum
                                                                                               konstant zu halten, erfüllt ist. Die Erstellung derartiger Modellfälle gestaltet sich als
In Deutschland gibt es für die Preisgestaltung von Rechtsanwälten, Notaren und                 schwierige Aufgabe, da preisstatistische Erfordernisse mit inhaltlich möglichst realitätsnahen
Steuerberatern gesetzlich vorgegebene Regulierungen. So wird die Preisgestaltung von           Fällen zu vereinbaren sind. Nachteilig ist, dass es sich bei den Modellfällen um fiktive, nicht
Rechtsanwälten und Steuerberatern teilweise gesetzlich reguliert. Notare unterliegen sogar     real auf dem Markt stattfindende Transaktionen handelt. Preisbewegungen auf der
einer 100%igen Preisregulierung und rechnen ausschließlich auf der Basis der gesetzlichen      Grundlage von Änderungen in der Gebührenordnung sind in Deutschland selten. Diese sind
Gebührenordnung ab. Für die Rechtsanwälte und Steuerberater bestehen zwei Arten der            im Bereich der Gebührenordnungen vornehmlich auf Veränderungen bei den
Honorarabrechnung: 1. Honorare auf der Grundlage freier Preisbildung; 2. Honorare auf der      Gegenstandswerten zurückzuführen. Die Schwierigkeit besteht nun darin, adäquate
Grundlage einer Gebührenordnung. Die Wirtschaftsprüfer rechnen für das Tätigkeitsfeld          Indikatoren zu finden, mit deren Hilfe sich die preislichen Veränderungen der
„Wirtschaftsprüfung“ ausschließlich auf freier Honorarbasis ab.                                Gegenstandwerte im Zeitverlauf fortschreiben lassen.

Das Untersuchungsdesign zum Aufbau von EPI umfasst zwei Stufen:                                Die nach Abschluss der Pilotphase 1 und 2 vorläufig berechneten Erzeugerpreisindizes für
Phase 1: Erstellung eines Wägungsschemas; Phase 2: Laufende Beobachtung von Preisen            das Jahr 2004
und deren Entwicklung.                                                                         (mit Basis 2003 = 100) lauten wie folgt:
Zunächst ist die Erstellung eines Wägungsschemas wichtig, das eine Gewichtung der              Index für Rechtsanwälte 98,6; für Notare 100,9; für Steuerberater 100,3 und für
Tätigkeitsgebiete der einzelnen Sektoren nach deren Umsatzbedeutung sowie eine tiefer          Wirtschaftsprüfer 100,8.
gehende Gliederung nach Abrechnungsmodalitäten (wie Honorarbildung auf Basis freier
Honorargestaltung oder Gebühren auf Basis von Gebührenordnungen) vornimmt. Auf der
STEFAN NIERMANN
Universität Hannover

Die Optimierung der Anordnung von Zeilen und Spalten einer Tabelle mit
evolutorischen Algorithmen


Die Umsortierung der Zeilen und Spalten einer Tabelle kann erheblich dazu beitragen, die
Übersichtlichkeit der Tabelle zu erhöhen. Trotzdem wurde bisher kein allgemeines Prinzip
für diese Art der Umsortierung vorgeschlagen. In meiner Arbeit zeige ich, wie evolutorische
Methoden angewandt werden können, um prägnante Konfigurationen zu finden.

Literatur:
Niermann, S. (2005): Optimizing the order of rows and columns in tables with an
evolutionary algorithm. The American Statistician, 59(1), 41-46.
KARLHEINZ ZWERENZ
Fachhochschule München

Evaluation des Einsatzes von E-Learning in der Statistik-Grundausbildung



Wie wird E-Learning von Studierenden des Grundstudiums angenommen?
Erreichen die Autoren der E-Learning-Programme Ihre Ziele?
Was sind Erfolgsfaktoren des E-Learning-Einsatzes?
Inwiefern ergänzt oder ersetzt E-Learning bisher verwendete Medien?

Diese und weitere Fragen werden im Vortrag erörtert.

Basis der Ausführungen sind die Erfahrungen mit dem Einsatz des „Grundkurses Statistik I“
an der Virtuellen Hochschule Bayern und von E-Learning-Modulen in Lehrveranstaltungen
mit verschiedenen Gruppengrößen. Entsprechende Evaluationsergebnisse werden präsentiert.

Die Studierenden des Grundstudiums haben (noch) überraschend viele Berührungsängste
bezüglich Lernprogrammen. Sie sind es gewohnt „konservativ“ zu lernen (Mitschreiben …
Nachlesen … Prüfungsaufgaben trainieren) und wollen bei E-Learning-Kursen „rundum“
betreut werden.

Durch Einsatz von E-Learning-Modulen in der Lehrveranstaltung können DozentInnen eine
höhere Akzeptanz des neuen Mediums erreichen: Experimentelles Lehren/Lernen am
Bildschirm, Zusammenspiel von Tabelle und Grafik etc. werden demonstriert und bauen die
Verunsicherung ab. Dem „Hauptanliegen“ der Studierenden, der Prüfungsrelevanz des E-
Learning, kann durch modifizierte Klausuraufgaben entsprochen werden. Dies bedeutet eine
gewisse Abkehr vom Taschenrechner und eine stärkere Betonung des grundsätzlichen
Methodenverständnisses sowie der Interpretation von Ergebnissen.

Mittelfristig können durch den E-Learning-Einsatz folgende Ziele erreicht werden: Abbau
von Abneigungen gegenüber der Statistik, besseres Zahlenverständnis, offener Umgang mit
zwei-       und     mehrdimensionaler      Statistik,    besseres     Verständnis      der
Wahrscheinlichkeitsbegriffe und der Signifikanztests, bessere Vorbereitung für die spätere
(aktive und passive) Anwendung der Statistik in Studium und Beruf.

Neue Herausforderungen stellen sich durch die Verwendung von Laptops in den
Lehrveranstaltungen und in den Klausuren.
AMIT GHOSH , Ulrich Rendtel
FU Berlin

Statistik-Klausuren am Laptop



Statistik-Klausuren am Laptop. Der Einsatz des Statistik-Labors im Regelbetrieb des
Grundstudiums: Ein Erfahrungsbericht.

Das Statistiklabor ist eine Lernsoftware, die auf dem Programmpaket R basiert und für die
Statistikausbildung im Grundstudium konzipiert wurde. Das Labor ermöglicht einen Daten-
orientierten Zugang zur Statistik. Zudem können Daten-intensive Auswertungstechniken,
wie z.B. die Simulation von Zufallszahlen und der Bootstrap, für die Ausbildung
herangezogen werden.

Nach einer längeren Pilotphase mit freiwilliger Teilnahme an den Laborübungen wurde die
Benutzung des Labors nun für alle Teilnehmer zur Pflicht. Dies schloss auch die Klausur ein,
in der die Hälfte der Aufgaben mit dem Labor zu bearbeiten war. Diese Umstellung auf den
Regelbetrieb der Ausbildung hatte tiefgreifende Konsequenzen für den gesamten
Vorlesungs- und Übungsbetrieb. Die Logistik des Klausurbetriebs mit ca. 180 Teilnehmern
stellte besondere Anforderungen. Hier haben wir neue Wege beschritten, wobei die privaten
Laptops der Studenten zugelassen wurden.

Der Vortrag stellt die konzeptionellen Veränderungen im Übungs- und Klausurbetrieb vor.
Der Klausurerfolg wird in Abhängigkeit von der Laborbenutzung und der Bearbeitung der
Übungsaufgaben analysiert.
ELMAR WEIN
Statistisches Bundesamt

Selektive Fehlerbeseitigung –
Ein neues Konzept zur Fehlerbeseitigung bei amtlichen Statistiken


Die deutsche amtliche Statistik hat ein neues Konzept – das PL-Fachkonzept - zur
Beseitigung von Fehlern in erhobenen Daten entwickelt. Durch eine zunehmende Nutzung
von vorgeprüften Daten, den Einsatz von leistungsfähigeren Plausibilisierungs- und
Managementmethoden sollen die Aktualität statistischer Ergebnisse und Effizienz einer
Fehlerbeseitigung verbessert werden.

Eine wesentliche Komponente des PL-Fachkonzepts stellen Methoden der selektiven
Fehlerbeseitigung dar. Sie nutzen die Tatsache, dass Fehler statistische Ergebnisse
unterschiedlich beeinflussen. Selektive Plausibilisierungsmethoden liefern Hinweise auf
gravierende fehlerhafte Daten. Makro-Editiermethoden verdichten die Ergebnisse einer
selektiven Plausibilisierungsmethode und setzen so Prioritäten unter den Schichten einer
Erhebung.

Das Statistische Bundesamt hat eine Kombination aus einer selektiven Plausibilisierungs-
und Makro-Editiermethode für die Kostenstrukturerhebung im Verarbeitenden Gewerbe
entwickelt und erfolgreich im Jahr 2004 unter Produktionsbedingungen getestet. In einem
knapp bemessenen Zeitraum waren gravierende Fehler zu beseitigen, um die Plausibilität
von vorläufigen Ergebnissen schnell zu verbessern. Im Einzelnen werden die Ergebnisse des
Tests vorgestellt, Schlussfolgerungen im Hinblick auf die Integration dieser Methoden in den
Workflow einer Fehlerbeseitigung präsentiert und zukünftige Entwicklungen im Bereich der
Fehlerbeseitigung bei amtlichen Statistiken aufgezeigt.
CARSTEN KUCHLER
Statistisches Bundesamt, Forschungsdatenzentrum, Wiesbaden

Automatische Fehleridentifikation und -korrektur ─
Verfahren und Ergebnisse aus der amtlichen Statistik


Automatische Aufbereitungsverfahren müssen sich daran messen lassen, ob sie die
Aktualität und Genauigkeit statistischer Einzeldaten verbessern. Internationale
Vergleichsstudien zeigen, dass die Datenaufbereitung regelmäßig bis zu vierzig Prozent der
zeitlichen und personellen Ressourcen einer Erhebung bindet. Gleichzeitig hängen die
statistischen Eigenschaften von Schätzfunktionen auf dem aufbereiteten Datensatz davon ab,
an welchen Stellen und auf welche Weise er korrigiert wurde.

Verstößt ein Fall gegen mindestens eine Prüfregel, mit der die zulässigen Ausprägungen von
Variablenkombinationen festgelegt werden, so ist nicht begründbar, welche der involvierten
Ausprägungen den Verstoß verursachen. Gesucht wird die optimale Fehlerkonfiguration, das
heißt die Kombination von Ausprägungen, deren Korrektur am wenigsten in die Daten
eingreift. Im ersten Teil des Vortrags wird ein Algorithmus zur Lösung des zugrunde
liegenden NP-vollständigen Optimierungsproblems skizziert, der mit dem Programm missfix
im Statistischen Bundesamt prototypisch implementiert wurde.
Es schließt sich die Frage an, wie die Identifikation optimaler Fehlerkonfigurationen und die
Korrektur fehlender und fehlerhafter Werte methodisch zusammengeführt werden können.
Den Bezugspunkt bildet dabei die Einbettung verteilungsbasierter multipler Imputationen
nach Rubin in den Prozessfluss einer automatischen Datenaufbereitung.
Abschließend werden die Ergebnisse einer Fallstudie mit Daten der amtlichen Statistik
vorgestellt, in der die Performanz und Effizienz einer automatischen Datenaufbereitung
getestet und mit herkömmlichen manuellen Korrekturen verglichen wird.


Keywords: Datenqualität, Fellegi-Holt Ansatz, optimale Fehlerkonfigurationen,
Branch-and-Bound Strategie, missfix, multiple Imputation.
IRMTRAUD BEUERLEIN
Statistisches Bundesamt

Automatisierte Datengewinnung aus dem betrieblichen Rechnungswesen
- Eine Verfahrensinnovation zur Entlastung der Wirtschaft -


Ein Weg zur Optimierung der statistischen Datengewinnung ist die automatisierte
Übernahme der statistikrelevanten Daten aus dem betrieblichen Rechnungswesen der
Unternehmen und die medienbruchfreie Online-Übermittlung der Daten an die Statistischen
Ämter. Spezielle Softwarelösungen übernehmen das Extrahieren der gewünschten Daten aus
den unternehmensinternen Informationssystemen und sorgen für eine elektronische
Weiterleitung in die Aufbereitungsprozesse der amtlichen Statistik. Erklärtes Ziel ist die
Entlastung der Wirtschaft von statistischem Meldeaufwand. Außerdem sollen auf diese
Weise Aktualität und Qualität der Statistik verbessert werden.

Auf diesem Weg sind einige Hürden zu nehmen. Probleme bereiten vor allem die
Unterschiede in der Ausgestaltung des betrieblichen Rechnungswesens von Unternehmen zu
Unternehmen. Die Heterogenität der unternehmensinternen Informationssysteme erfordert
die Entwicklung firmenspezifischer Schnittstellen. Um zu kostengünstigen Lösungen zu
gelangen, müssen alle Möglichkeiten der Standardisierung ausgeschöpft werden.

Hierfür ist eine enge Kooperation zwischen Wirtschaft und Statistik erforderlich. Eine
Schlüsselrolle kommt dabei den Herstellern betriebswirtschaftlicher Software zu. In dem
Abstimmungsprozess zwischen Statistischen Ämtern und Softwarehäusern übernimmt die
Arbeitsgemeinschaft für wirtschaftliche Verwaltung (AWV) die Rolle des Vermittlers.

Inzwischen wurde mit eSTATISTIK.core die technische Infrastruktur für die Inbetriebnahme
des neuen Verfahrens geschaffen. Für die „Laufende Verdiensterhebung“ wurden die
fachlichen Fragen bezüglich der Erhebungsmerkmale geklärt, so dass im Laufe des Jahres
der Wirkbetrieb für diese Erhebung aufgenommen werden kann. Die Einführung der
automatisierten Datengewinnung ist bei weiteren Unternehmensstatistiken in Vorbereitung.
STEFFEN HENZEL, Timo Wollmershäuser
Ifo Institut für Wirtschaftsforschung

Quantifizierung qualitativer Inflationserwartungen des Ifo World Economic
Survey



Die Erwartungsbildung spielt eine zentrale Rolle in der Makroökonomie. In der
neukeynesianischen Makroökonomie treffen Unternehmen heute Entscheidungen aufgrund
ihrer Einschätzung der künftigen Grenzkosten und für Zentralbanken sind
Inflationserwartungen ein entscheidender Indikator der zukünftigen Preisentwicklung.
Die meisten empirischen Modelle beziehen sich dabei auf Muth (1961) und gehen von
rationaler Erwartungsbildung aus. Dieses Vorgehen hat den Nachteil, dass stets eine
verbundene Hypothese über das zugrunde liegende Modell und die Form der
Erwartungsbildung simultan getestet wird. Eine alternative Vorgehensweise bedient sich
„modellexogener“ Erwartungen, die insbesondere aus Umfragen abgeleitet werden können.
Die Form der Erwartungsbildung kann somit losgelöst vom betrachteten Modell untersucht
werden, da die Annahme der Rationalität der Akteure prinzipiell aufgehoben werden kann.
Der vorliegende Beitrag konzentriert sich auf die Gewinnung von quantitativen
Inflationserwartungen, die aus den qualitativen Umfragedaten des ifo World Economic
Survey (WES) errechnet werden. Die Umfrageteilnehmer haben die Möglichkeit, auf dem
Fragebogen ein Fallen, ein Gleichbleiben oder ein Steigen der Inflationsrate innerhalb der
nächsten sechs Monate anzuzeigen. Die Ergebnisse der Umfrage werden zur Zeit als Saldo
veröffentlicht, der anzeigt, in welche Richtung sich die Inflation nach der Erwartung der
Mehrheit der Umfrageteilnehmer im jeweiligen Land entwickelt. Obwohl diese
Vorgehensweise der Veröffentlichung vom Umfrageergebnissen recht verbreitet ist, sind die
gewonnenen Daten zur ökonometrischen Analyse oftmals ungeeignet. Außerdem geht die
Information über die Unsicherheit der Umfrageteilnehmer bei dieser Vorgehensweise
verloren.
Bisher angewandte Verfahren wie bei Carlson und Parkin (1975), Seitz (1988) oder Pesaran
(1984) stützen sich bei der Umrechnung auf vergangene Realisationen der betrachteten
Variable und nehmen unverzerrte Erwartungsbildung an. Dieses Vorgehen hilft aber deshalb
nicht weiter, da die Form der Erwartungsbildung schließlich gerade untersucht werden soll.
Die vorliegende Analyse verwendet analog zu Carlson und Parkin (1974) die so genannte
Probability Methode. Allerdings ohne bei der Quantifizierung auf die Eigenschaften
vergangener Realisationen der Inflationsrate zurückgreifen zu müssen. Stattdessen wird die
Quantifizierung umfragebasiert vorgenommen. Damit fließen keine Informationen aus
vergangenen Realisationen der Variable, deren Entwicklung einzuschätzen ist, in die
Erwartungsdaten ein. Im Zusammenhang mit der Quantifizierung der Umfragedaten soll
auch der Frage nachgegangen werden, ob es ein Publication Lag bei Inflationsraten gibt.
Außerdem wird der Frage nachgegangen, ob die Wahrnehmung der Inflationsrate mit dem
Wert der Inflationsrate selbst variiert, wie das so genannte Weber-Fechner Gesetz in der
Wahrnehmungstheorie nahe legt.
Die mit Hilfe der gewonnenen Erkenntnisse quantifizierten Daten zur Inflationserwartung
können dann hinsichtlich der Rationalität der Akteure bei der Erwartungsbildung untersucht
werden.
MICHAEL BEER
Universität Freiburg Schweiz

Bootstrap-Methoden für hedonische Preisindizes
Erfahrungen aus einer Anwendung für Gebrauchtwagen


Der Wert jedes hedonischen Preisindexes ist eine Schätzung eines unbekannten
ökonomischen Parameters. Er hängt in der Praxis von einer Stichprobe von Preisen und
Merkmalen eines bestimmten Gutes ab. Bootstrap-Verfahren wiederum stellen ein Werkzeug
dar, um Schätzfehler zu quantifizieren.

In dieser Arbeit werden, nach einigen grundsätzlichen Reflexionen über hedonische
Preisindizes, zwei Resampling-Methoden vorgestellt, die im Rahmen der Schätzung
hedonischer Preisindizes anwendbar sind. Es handelt sich dabei um eine fallbezogene und
eine modellbezogene Variante, die beide zur Schätzung eines Konfidenzintervalls führen.

Die Anwendung dieser Methoden auf einen Datensatz über Gebrauchtwagen in der Schweiz
führt zu empirischen Resultaten. Ein halblogarithmisches Modell wurde auf Monatsbasis
geschätzt und als Grundlage für die Berechnung hedonischer Indexwerte mittels alternativer
Indexformeln verwendet. Schätzungen von Bootstrap-Konfidenzintervallen für hedonische
Elementarpreisindizes vom jevonsschen Typ ergeben einen Anhaltspunkt über deren
Schätzgenauigkeit.
TIMM BEHRMANN, Stefan Linz, Ulf Becker
Statistisches Bundesamt

Preismessung auf dynamischen Märkten
Hedonik, Laspeyres und Lebenshaltungskosten


In einem Umfeld sich ständig ändernder Märkte und kürzer werdender Produktlebenszyklen
wird die Messung der Teuerung für die Statistischen Ämter zu einer großen
Herausforderung. Insbesondere bei Produkten mit hohem technischem Fortschritt, z. B. bei
PCs, Autos oder Digitalkameras, verändern sich die beobachteten Preise oft nur gering,
während die Produktqualität rapide ansteigt.

Die amtliche Preisstatistik verfolgt das Ziel, die „reine“ Preisentwicklung zu messen. Dazu
werden Güter und Dienstleistungen ausgewählt und deren Preise von Monat zu Monat
weiterverfolgt. Diese Vorgehensweise, das Laspeyres-Prinzip, gewährleistet, dass bei der
Preismessung „Gleiches mit Gleichem“ verglichen wird. Die Preise eines Gutes aus zwei
Monaten können aber nur dann aussagekräftig miteinander verglichen werden, wenn sich die
Produktqualität nicht verändert. Ändert sich jedoch die Qualität, etwa aufgrund des
technischen Fortschritts, dann wird deren Einfluss auf die Preisentwicklung durch so
genannte Qualitätsbereinigungsverfahren herausgerechnet.

Das Statistische Bundesamt verwendet seit 2002 zum Bereinigen von
Qualitätsveränderungen in ausgewählten Bereichen die hedonische Methode. So liegt die
Preisveränderung beispielsweise im Bereich der Personalcomputer seit der Einführung der
Hedonik bei jährlich etwa -21%. Preisrückgänge in dieser Größenordnung sind typisch für
die hedonische Methode. Dies hat dazu geführt, dass die hedonische Preismessung häufig als
Instrument zur Manipulation der gemessenen Preisentwicklung kritisiert wurde. Die Kritik
entzündet sich in der Regel daran, dass die starken Preisrückgänge der Wahrnehmung der
Konsumenten widersprechen.

Im Folgenden werden zwei Schwerpunkte unserer Forschung vorgestellt. So wurden zum
einen Untersuchungen durchgeführt, inwieweit die starken Preisrückgänge auf das
angewendete Qualitätsbereinigungsverfahren zurückzuführen sind. Diese Analyse basiert auf
Vergleichsrechungen zwischen verschiedenen Verfahren.

In einem zweiten Schritt wurde untersucht, welche Auswirkungen die Wahl des zugrunde
liegenden Konzeptes der Preismessung auf die Preisrückgänge besitzt. Hierfür haben wir
dem Güterpreiskonzept nach Laspeyres das Konzept der Lebenshaltungskosten
gegenübergestellt (Cost-of-Living Index). Dieses Konzept stellt nicht auf die „objektiv“
beobachtbaren Merkmale ab, sondern berücksichtigt den Verwendungszweck des Produktes
und den Nutzen, den der Konsument beim Ge- oder Verbrauch der Güter erfährt.
WALTER RADERMACHER, Thomas Körner
Statistisches Bundesamt

Fehlende und fehlerhafte Daten in der amtlichen Statistik
Neue Herausforderungen und Lösungsansätze


Die Datenerhebungsprozesse in der amtlichen Statistik unterliegen seit einigen Jahren einem
tief greifenden Wandel. Zu diesem Wandel haben verschiedene Faktoren beigetragen: So
verlangen die Auskunftgebenden oftmals eine spürbare Verringerung der Belastung durch
die Auskunftserteilung. Gleichzeitig wünschen viele Nutzer tiefer gegliederte Informationen
in einer wachsenden Zahl von Bereichen. Die Statistischen Ämter sehen sich dabei mit
immer neuen Budgetkürzungen konfrontiert, die ihre Reaktionsmöglichkeiten nicht selten
einschränken. Schließlich ist im Europäischen Statistischen System eine weitere
Harmonisierung der Datenerhebungsprozesse erforderlich.

Der Wandel der Datenerhebungsprozesse hat nahezu alle Bereiche der amtlichen Statistik
erfasst. Vielfach ersetzen heute Verwaltungsregister (wie im Fall des Unternehmensregisters
oder des geplanten registergestützten Zensus) traditionelle Totalerhebungen. Bei neuen
Statistiken tritt zumeist die Freiwilligkeit der Auskunftserteilung an die Stelle der
Auskunftspflicht. In der Unternehmensstatistik werden die Abläufe bei Befragung und
Aufbereitung darüber hinaus grundlegend verändert, wenn etwa die Unternehmen ihre
Angaben automatisch aus dem betrieblichen Rechnungswesen an das Statistische Amt
senden. In anderen Bereichen erfordert eine gesunkene Teilnahmebereitschaft an
Erhebungen den Einsatz zunehmend komplexer Stichprobenverfahren, wie etwa im Fall der
Dauerstichprobe befragungsbereiter Haushalte.

All diese Veränderungen haben erhebliche Auswirkungen auf die Messung und Behandlung
fehlender und fehlerhafter Daten. Die Konzepte zur Messung von Fehlern in statistischen
Erhebungen sind häufig noch immer ausgerichtet an der traditionellen Primärerhebung. Um
eine Bewertung der veränderten Ansätze in der Datenerhebung vornehmen zu können,
bedürfen die Fehlertypen daher einer konzeptionellen Neuausrichtung. So unterscheiden sich
z. B. registergestützte und traditionelle Erhebungen hinsichtlich der Konstruktion der
Grundgesamtheit grundlegend. Mit den genannten Veränderungen des Erhebungsprozesses
sind zugleich neue Ansätze zur Erkennung und Korrektur von Antwortausfällen erforderlich,
z. B. im Fall fehlender oder fehlerhafter Werte in Verwaltungsregistern. Unterschiede
zwischen den Merkmalsdefinitionen in Verwaltungsregistern und der amtlichen Statistik
können schließlich zu neuen Typen von Messfehlern führen, die bislang nur selten
Beachtung finden. Unser Papier schlägt eine Erweiterung der Perspektive bei der
Betrachtung fehlender und fehlerhafter Daten vor, die dem Wandel der Erhebungsprozesse
Rechnung trägt.
EDIN BASIC
Freie Universität Berlin

Estimation strategies in the presence of non-coverage in the MC:
An evaluation using SOEP data


The German Microcensus is a rotating panel, where the units stayin the survey for four
observations. Because of the very largesample size and the mandatory participation it
appears to be a valuable data base for short duration analysis. However, the German
Microcensus (MC) uses area sampling where participants are not followed if they leave the
area. Consequently, there is no information on participants after they moved. We propose
two different estimation strategies in the presence of missing data about residential movers.
To asses their performance we use the German Socio-Economic Panel (SOEP). The example
we analyze is the estimation of labour force flows. The results indicate that both estimation
strategies lead to estimates that are less biased.

Keywords: Labour market analysis, residential mobility, non-coverage bias, log-linear
modelling, inverse probability weighting.
BERNHARD BOOCKMANN, Tobias Hagen
Zentrum für Europäische Wirtschaftsforschung (ZEW)

Befristete Arbeitsverträge als Sortiermechanismus?
Die Wirkung befristeter Verträge auf Beschäftigungsstabilität und Löhne im
weiteren Erwerbsverlauf


In diesem Papier schätzen wir den Effekt einer anfänglichen Befristung des Arbeitsvertrags
auf die Beschäftigungsdauer und die Löhne im weiteren Verlauf des
Beschäftigungsverhältnisses. Die Grundlage bilden Daten des SOEP von 1985 bis 2002.
Unser wichtigstes Resultat ist, dass die Wahrscheinlichkeit einer langfristigen Beschäftigung
von mehr als fünf Jahren in Beschäftigungsverhältnissen, die zunächst befristet waren, nicht
geringer ist als in anderen Beschäftigungsspells. Mit Hilfe eines statistischen Matching-
Ansatzes finden wir, dass die Abgangsrate aus Beschäftigung bei Abschluss des
Arbeitsvertrages als befristetes Beschäftigungsverhältnis erwartungsgemäß zunächst deutlich
erhöht ist. Nach drei oder vier Jahren fällt die die Abgangsrate jedoch signifikant unter das
Niveau, das sich bei Arbeitsverhältnissen findet, die von Anfang an unbefristet waren. Die
Ergebnisse sind konsistent mit einem Sortierprozess, der durch befristete Arbeitsverträge
beschleunigt wird. Insofern findet sich Unterstützung für die These, dass befristete
Beschäftigungsverhältnisse als verlängerte Probezeiten verstanden werden können.
Hinsichtlich der Löhne finden wir nur geringe Unterschiede zwischen befristeten und
unbefristeten Verträgen.
Martin Becker, Ralph Friedmann, STEFAN KLÖßNER, Walter Sanddorf-Köhle
Universität des Saarlandes, Saarbrücken

Intratagesvolatilität: Ein Hausman-Test auf Brownsche Bewegung



Für die Spezifikation der Intratagesbewegung von Wertpapierpreisen werden Tests zur
Überprüfung der Brownschen Bewegung als Nullhypothese auf der Grundlage von
Tageseröffnungs-, Schluss-, Tiefst- und Höchstkursen hergeleitet.

Aus der gemeinsamen zweidimensionalen Verteilung von täglichen Schluss- und Höchst-
(Tiefst-) Renditen werden zwei stochastisch unabhängige, unverzerrte Schätzer für die
Volatilität bestimmt. Für einen Hausman-Spezifikationstest, der auf dem Vergleich eines
ML-Schätzers für die Varianz und der Stichprobenvarianz der Schlussrenditen basiert, wird
die Äquivalenz mit einem F-Test gezeigt, wobei die F-Statistik durch den Quotienten der
beiden unabhängigen Varianzschätzer gegeben ist. Die Güte des Tests gegen verschiedene
Alternativen konnte zum Teil exakt und im Übrigen durch Monte-Carlo-Simulationen
analysiert werden. Als Gegenhypothese werden unter anderem der Ornstein-Uhlenbeck-
Prozess und Irrfahrt-Prozesse mit unterschiedlichen Schrittzahlen und Verteilungsannahmen
betrachtet.

Eine empirische Anwendung des Tests auf die 30 DAX-Werte und sieben Indices führt
überwiegend zur Ablehnung der Brownschen Bewegung. Insbesondere wird für fast alle
DAX-Werte eine starke Überreaktion im Fall schlechter Nachrichten nachgewiesen. Neben
dem vorgeschlagenen F-Test wird ein Test auf Unkorreliertheit der Schlussrendite mit einem
Indikator für die Aufwärts- (Abwärts-) Volatilität, deren Unabhängigkeit im Fall einer
Brownschen Bewegung gezeigt wird, angewandt.
MARKUS HAAS
Universität München

Improved duration-based backtesting of value-at-risk



The value-at-risk (VaR) concept has emerged as one of the most prominent measures of
downside market risk. VaR can be defined in terms of the conditional quantile of the
portfolio return distribution for a given horizon (e.g., a day or a week) and a given shortfall
probability, p. In light of the practical relevance of the concept, both risk managers as well as
regulators are concerned with the evaluation, or backtesting, of the VaR-models maintained
by financial institutions.

As stressed by Christoffersen (1998) and Lopez (1999), a satisfactory backtesting method
should be able to detect both deviations from the unconditional nominal shortfall probability
p as well as violation clustering. Statistically, correct conditional coverage implies that the
sequence of violations is a random sample from a Bernoulli distribution with probability p.
This in turn implies that the number of days between two violations is geometric, implying a
constant hazard function.

Recently, Christoffersen and Pelletier (2004) proposed to test the iid-ness of the sequence of
violations via the lack of memory-property of the geometric distribution, i.e., by nesting it in
more flexible lifetime distributions such as the gamma and the Weibull and employing
likelihood ratio tests. In the applications of their approach, the authors use the continuous
counterpart of the geometric, i.e., the exponential. However, due to the discrete nature of the
problem, use of discrete lifetime distributions nesting the geometric will provide a better
basis for the analysis and interpretation of duration sequences derived from VaR forecasts.
Thus, the application of discrete counterparts of well-known continuous lifetime
distributions will be proposed in this talk. For example, Nakagawa and Osaki (1974) defined
a discrete Weibull distribution by the probability function f(d;a,b)=exp(-a(d-1)b)-exp(-adb),
where d is the discrete duration, and a,b>0 are parameters monitoring the mean duration and
the memory of the process, respectively. This nests the geometric(p) for b=1 and a=-log(1-
p). The survivor function is S(d)=1-exp(-a(d-1)b), and, thus, estimation with censored data is
straightforward. For b<1, we have a decreasing hazard, implying violation clustering.

Further discussion of the properties and advantages of discrete lifetime distributions will be
presented in the talk, as well as simulations indicating their superior power properties
compared to the continuous candidates, and an application to a real data set.
THORSTEN NEUMANN
Deka Investment GmbH bzw. Union Investment GmbH

Quantitative Finanzmarktanalyse
Ein Praxisbericht zum Know-How-Transfer


Der Vortrag diskutiert den ökonometrischen und statistischen Methodenspillover zwischen
Wissenschaft und Portfoliomanagement. Was unterscheidet die quantitativ-methodische
Arbeit in der Finanzmarktpraxis von der wissenschaftlichen Forschung? Wie ist der
methodische Stand im praktischen Portfoliomanagement? Wie ist die Zusammenarbeit
zwischen Wissenschaft und Praxis zu bewerten? Welche Strukturen verhindern einen
besseren Know-How-Transfer? Wie steht es um die wissenschaftliche Ausbildung und die
Eingliederung von akademischem Nachwuchs in die Praxis?

Herr Dr. Neumann übernimmt die Leitung des Quantitativen Strategie- und Risikoresearchs
der Union Investment GmbH und verfügt über umfangreiche Erfahrung durch seine
Tätigkeiten als quantitativer Kapitalmarktanalyst und Portfoliomanager bei der DZ Bank
sowie als Leiter Investmentprozess-Consulting bei der Deka Investment GmbH.
TORSTEN HARMS
Freie Universität Berlin

Gewichtung für Small-Area Schätzungen



Gewichtungsmethoden und Kalibrationsschätzer werden häufig in der amtlichen Statistik
angewandt. Neben ihrer einfachen Interpretation besitzen diese Verfahren auch den Vorteil,
dass sich in der Regel mit geringem Aufwand entsprechende Varianzschätzer konstruieren
lassen, welche unabhängig von Modellannahmen sind.

Eine häufige Aufgabenstellung, insbesondere in der amtlichen Statistik, ist die Schätzung
von Größen für Untergruppen der Gesamtbevölkerung. Hierbei kann die Stichprobengröße
pro Gruppe sehr klein oder sogar Null sein. Aus diesem Grund sind direkte Schätzer, welche
nur auf der Stichprobe basieren häufig eine schlechte Wahl. Dies gilt eingeschränkt auch für
Kalibrationsschätzer bei welchen die Elemente der Stichprobe mit Gewichten versehen
werden um eine Anpassung an Randverteilungen der Bevölkerung zu erreichten. Ist die
Untergruppe der Bevölkerung so klein, dass keine direkten Schätzverfahren mehr vertretbar
sind, so spricht man allgemein von Small Areas.

Für viele Fragestellungen im Zusammenhang mit Small Areas besitzt man jedoch häufig
detaillierte Kenntnisse über die einzelnen Regionen aus vorherigen Erhebungen. Die dort
gewonnen Daten sind jedoch meist veraltet und somit nicht ohne Korrektur für einen
Schätzer verwendbar. Hier bietet sich eine Modifikation des Kalibrationsschätzers von
Deville und Särndal (1992) an. Bei diesem neuen Ansatz werden die die Rollen im
Kalibrationsansatz vertauscht. Dies bedeutet, dass die alten Umfragedaten mit Gewichten
versehen werden um bestimmte Randvorgaben zu erfüllen.

Der vorgeschlagene Ansatz ist identisch zu den sogenannten Structure Preserving Estimates
von Rao (2003), sofern die interessierende Variable eine Zählvariable ist (sog. "Headcount").
In diesem Fall ist die zu schätzende Größe eine Anzahl oder ein Anteil von Elementen mit
bestimmten Eigenschaften pro Small Area. Es ist mit dem vorgestellten Verfahren allerdings
auch möglich andere Variablen zu verwenden, was den Anwendungsbereich deutlich
erweitert.

Neben der theoretischen Herleitung von Varianzschätzern und Parallelen zu modelbasierten
Schätzern werden auch empirische Ergebnisse auf Basis des Kanadischen Survey of Labour
and Income Dynamics (SLID) vorgestellt.

Keywords: Small-Area, Kalibration, Gewichtung, Strukturerhaltung
WOLFGANG HAUSCHILD
Statistisches Bundesamt

Methodisches Konzept zur Nutzung von Informations- und
Kommunikationstechniken in Unternehmen


Die Pilotstudie Nutzung von Informations- und Kommunikationstechnologien in
Unternehmen ist eine Stichprobenerhebung, die bei ca. 40.000 Erhebungseinheiten jährlich
durchgeführt wird.
Die Auswahlgesamtheit für die Pilotstudie ist die Gesamtheit aller Unternehmen und
Einrichtungen, deren hauptsächlich ausgeübte wirtschaftliche Tätigkeit in den NACE-
Abschnitten D bis K sowie in den Abteilungen 92 und 93 liegt. Sie wird anhand des bei den
Statistischen Ämtern des Bundes und der Länder geführten Unternehmensregisters bestimmt.
Die Unternehmen werden durch eine geschichtete Zufallsauswahl aus der
Auswahlgesamtheit gezogen. Die Teilnahme an der Befragung ist für die Unternehmen
freiwillig. Die Stichprobenziehung wird jedes Jahr anhand des jeweils aktuellsten
Unternehmensregisters als Datengrundlage wiederholt.
Die Zufallsstichprobe wird hierarchisch nach drei Kriterien geschichtet:
         1.       Unterteilung der Auswahlgesamtheit nach Bundesländern
         2.       Innerhalb jedes Bundeslandes nach Wirtschaftszweigen
         3.       Innerhalb jeder so gebildeten Schicht nach insgesamt 4
                  Beschäftigtengrößenklassen der Unternehmen
Hierbei differiert der Stichprobenumfang innerhalb der einzelnen Schichten erheblich
voneinander, d.h. es wird ein disproportionaler Auswahlsatz gezogen. Der Auswahlsatz
orientiert sich dabei insbesondere an der Anzahl der Unternehmen in den jeweiligen
Schichten. Als Totalschicht werden Unternehmen mit 250 und mehr Beschäftigten erhoben.
Schichten, die sehr schwach mit Unternehmen besetzt sind (weniger als 100 Einheiten in
Deutschland), werden ebenfalls total erhoben.
Die Ergebnisaufbereitung aller eingesammelten und plausibilisierten Daten fand im
Statistischen Bundesamt statt. Es wurde das Verfahren der so genannten gebundenen
Hochrechnung eingesetzt. Dabei erfolgte die Hochrechnung der einzelnen
Unternehmensangaben zu Ergebnissen für einen Wirtschaftszweig oder eine
Unternehmensgrößenklasse anhand der Ergebnisse von bereits existierenden
Strukturstatistiken.
Jedes Unternehmen wird somit einer Schicht zugeteilt und hochgerechnet, die sich aus den
Angaben des Unternehmens zu seiner hauptsächlich ausgeübten wirtschaftlichen Tätigkeit
und der Anzahl seiner tätigen Personen ergibt.
Dieses Verfahren bot sich an, um mit dem verhältnismäßig geringen Stichprobenumfang
dieser Erhebung und den Unwägbarkeiten beim Fehlen der Auskunftspflicht Ergebnisse in
annehmbarer Gliederungstiefe und Genauigkeit zu erlangen.
MATTHIAS SCHMID, Hans Schneeweiß
Ludwig-Maximilians-Universität München

Der Einfluss von Mikroaggregationsverfahren auf die Schätzung linearer
Modelle
Eine Simulationsstudie


Mikroaggregationstechniken werden zur faktischen Anonymisierung von stetigen Daten
verwendet. Da die Schutzwirkung von Mikroaggregation auf der Reduzierung des
Informationsgehalts von Datensätzen beruht, kann eine Verzerrung statistischer Analysen
mit mikroaggregierten Daten nicht ausgeschlossen werden. Der Vortrag beschäftigt sich mit
den Auswirkungen von Mikroaggregation auf die Kleinste-Quadrate-Schätzung eines
linearen Modells. Mit Hilfe einer umfassenden Simulationsstudie wird der Bias der
Schätzung der Steigungsparameter analysiert, der aus verschiedenen Varianten der
Mikroaggregation resultiert. Einige der betrachteten Mikroaggregationsverfahren garantieren
die konsistente Schätzung der Steigungsparameter, während andere Verfahren zu einer
asymptotischen Verzerrung des naiven Schätzers führen.
MANFRED EHLING
Statistisches Bundesamt

Statistikausbildung für die Praxis?
Anforderungen an das Studium in den Wirtschafts- und Sozialwissenschaften
aus der Sicht des Statistischen Bundesamtes


Die Diskussion um die Statistikausbildung hat eine lange Tradition, die nicht zuletzt durch
die von Sibylle Schmerbach und Peter von der Lippe initiierte Debatte um „Mehr
Wirtschaftsstatistik in der Statistikausbildung für Volks- und Betriebswirte“ (Allgemeines
Statistisches Archiv 87, 2003, S. 332-344 und folgende Hefte der Zeitschrift) neue
Aufmerksamkeit erlangt hat. Nach einem kurzen Überblick über die bisherigen
Diskussionsthemen werden ausgehend von der These, dass eine Weiterentwicklung der
Statistikausbildung nur im Dialog mit den Nutzern sinnvoll ist, einige Grundanforderungen
an die Statistikausbildung aus der Sicht des Statistischen Bundesamtes vorgestellt. Dazu
werden entlang der Grundprozesse der Statistikerstellung beginnend mit der Ermittlung des
Datenbedarfs, über die Erhebungsvorbereitung und Datengewinnung, die Aufbereitung,
Auswertung und Analyse bis hin zur Verbreitung und Statistikoptimierung die Elemente der
erwünschten Grundqualifikationen beschrieben. Im Ergebnis wird festgestellt, dass –
gemessen an den Berufsanfängern im Statistischen Bundesamt – viele Qualifikationen nicht
oder nur unzureichend im Studium vermittelt werden.

Im zweiten Teil des Vortrages sollen Wege aufgezeigt werden, wie diese Defizite abgebaut
werden können. Neben einer Reform der Statistikausbildung, in die nur eine geringe
Hoffnung gesetzt wird, soll vor allem die berufsbezogene Statistikfortbildung ausgebaut
werden, wobei hier eine stärkere Kooperation mit den Hochschulen, Forschungsinstituten
und den Wissenschaftsgesellschaften angestrebt wird. Neben einem breiteren Kursangebot
sollen Unterrichtsmaterialien als E-Learning-Angebot und als klassische Texteinführung
bereitgestellt werden, wobei vornehmlich auf vorhandene Unterlagen und Materialien
zurückgegriffen werden soll.
JOACHIM EICKEN
Statistisches Amt Stuttgart

Von der Religionszugehörigkeit zur „Religionsunzugehörigkeit“
- Kirchen im demografischen Wandel am Beispiel Stuttgart


Die fehlende Volkszählung in Deutschland zwingt Kommunen, nach Wege zu suchen, wie
demografische Datendefizite erfolgreich substituiert werden können.

Seit langen Jahren geht die Zahl der Mitglieder in den beiden großen christlichen
Volkskirchen zurück. Mit dem Rückgang der Mitgliedszahlen reduziert sich nicht nur die
Zahl der sonntäglichen Gottesdienstbesucher oder das Potential an ehrenamtlich tätigen
Personen für sozial - caritative Aufgaben. Mit dem Mitgliederschwund einher gehen aber
auch Kirchensteuer und Spendenaufkommen zurück. Die Finanzierung der von den Kirchen
getragenen Infrastruktur ist damit mehr und mehr gefährdet, obgleich in den aktuell
schwierigen wirtschaftlichen Zeiten die von den Kirchen getragenen sozial– caritativen
Dienste und Einrichtungen verstärkt nachgefragt werden. Aufgrund leerer öffentlicher
Kassen kann eine höhere Bezuschussung kirchlicher Dienste und Einrichtungen durch Bund
Land und Kommune kaum erwartet werden.
Nachhaltig wirksame Strategien zur Reduzierung der Ausgaben bzw. Effektivierung der
kirchlichen Aufgaben setzen umfassende Kenntnisse über Struktur und Entwicklung der
Mitglieder, über Ursachen und Wirkungen des Mitgliederrückganges wie auch über Bedarf
und Finanzvolumen voraus. Allerdings sind die für analytische und prognostische Zwecke
erforderlichen Basisdaten in der Administration der beiden großen Volkskirchen nur bedingt
aufbereitet bzw. nicht verfügbar. Mit der Aufbereitung der kommunalen Einwohnerstatistik
nach dem im Melderegister gespeicherten Merkmal „rechtliche Zugehörigkeit zu einer
Religionsgesellschaft“ kann jedoch Entwicklung und Struktur der Mitglieder im direkten
Vergleich zwischen den beiden christlichen Volkskirchen und im Vergleich zu den
Einwohnern, die keiner oder einer sonstigen Religionsgesellschaft angehören, durchgeführt
werden kann. In dem Vortrag wird die Entwicklung der Kirchenmitglieder am Beispiel der
Landeshauptstadt Stuttgart über einen Zeitraum von 1974 – 2004 untersucht. Soweit
statistisch erfasst, werden dabei die im demografischen Wandel und in der
Verhaltensänderung („Entfremdung“) der Bevölkerung liegenden Ursachen des
Mitgliederrückganges erläutet.
HELGA CHRISTIANS, Michael Konold, HEIKE WIRTH
Forschungsdatenzentrum der Statistischen Landesämter und Zentrum für
Umfragen, Methoden und Analysen (ZUMA)

Möglichkeiten kleinräumiger Analysen auf Basis des Mikrozensus



Seit einigen Jahren ist ein verstärktes Interesse an Regionalanalysen zu beobachten, und
zwar sowohl von Seiten der Wissenschaft als auch von Seiten der Städte und Gemeinden.
Ein Problem hierbei ist, dass es wenig verfügbare Daten gibt und diese zudem häufig zu
wenig Fälle für tiefergehende Analysen aufweisen. Der Mikrozensus kann mit seinem
großen Stichprobenumfang von ca. 390 000 Haushalten und ca. 830 000 Personen
bestehende Lücken schließen.

Bisher ist es mit dem Mikrozensus lediglich möglich, Auswertungen für sogenannte
regionale Anpassungsschichten – räumliche Einheiten von durchschnittlich 500 000
Einwohnern – durchzuführen. Vom Forschungsdatenzentrum der Statistischen Landesämter
wird in Zusammenarbeit mit dem Zentrum für Umfragen, Methoden und Analysen (ZUMA)
zur Zeit daran gearbeitet, die Auswertung des Mikrozensus auch auf der Ebene von Kreisen
bzw. Kreisregionen zu ermöglichen und die Daten unter anderem in Form eines
Mikrozensus-Regionalfiles der Wissenschaft zur Verfügung zu stellen.

Der Vortrag stellt die Möglichkeiten, die der Mikrozensus für kleinräumige Analysen bietet,
beispielhaft vor. Er zeigt auf, welche räumlichen Untergliederungen im Mikrozensus zur
Verfügung stehen und welches Analysepotential damit verbunden ist. Er geht weiterhin auf
die Frage ein, in welcher Form Hochrechnungsfaktoren auf Kreisebene bereit gestellt werden
könnten. Diskutiert wird ferner die Problematik des Stichprobenfehlers bei regional tief
gegliederten Daten.

Mit der Bereitstellung von Mikrozensusdaten auf Kreisebene wird eine wichtige Ergänzung
zu den bereits verfügbaren Mikrozensusdaten realisiert. Die Bedeutung des Mikrozensus als
Datenquelle für wirtschafts- und sozialwissenschaftliche Fragestellungen nimmt damit
weiter zu.
MARTIN ROSEMANN, Harald Strotmann
Institut für Angewandte Wirtschaftsforschung (IAW) Tübingen

Regionale Standortfaktoren und ihre Bedeutung für die Entwicklung von
Industriebetrieben in Baden-Württemberg



Bei unternehmerischen Standort- und Investitionsentscheidungen sowie auch bei der
Entscheidung, zusätzliche Arbeitsplätze bereitzustellen bzw. Arbeitsplätze abzubauen,
spielen eine Vielzahl möglicher Einflussfaktoren eine Rolle. Schon frühe Standorttheorien
weisen auf eine besondere Rolle des regionalen Umfeldes für das Entscheidungskalkül der
Unternehmen und den Erfolg eines Unternehmens am Markt hin.

Der Beitrag verfolgt das Ziel, mit Mikrodaten aus der amtlichen Industriestatistik für Baden-
Württemberg in der Kombination mit amtlichen Regionaldaten theoretische Hypothesen
über die Bedeutung verschiedener regionaler Einflussfaktoren der betrieblichen Entwicklung
einer empirischen Überprüfung zu unterziehen. Die Untersuchung der regionalen
Einflussfaktoren wird dabei eingebettet in eine gleichzeitige Berücksichtigung
betriebsspezifischer (Größe, Alter, Betriebstyp,...), branchenspezifischer Einflussfaktoren
(Nachfragebedingungen, Anbieterkonzentration, FuE-Intensität, Skaleneffekte,... ) sowie der
makroökonomischen Rahmenbedingungen. Determinanten der betrieblichen Entwicklung,
welche die Person des Geschäftsführers oder die Betriebsleitung betreffen, können aufgrund
der fehlenden Angaben in den amtlichen Statistiken leider nicht direkt berücksichtigt
werden. Ihre Einbeziehung ist jedoch zumindest insofern möglich, als in Panelmodellen
zeitkonstante unbeobachtete Heterogenität berücksichtigt werden kann. Im Zentrum dieses
Beitrags wird dabei die Analyse des Beschäftigungswachstums der Industriebetriebe stehen,
die einerseits mit Hilfe bivariater Tobit-Regressionen, andererseits mit Hilfe von
Panelmodellen erfolgen soll.

Die methodische Besonderheit der Vorgehensweise besteht darin, dass die amtlichen
Betriebsdaten aus der Industriestatistik zu einem Paneldatensatz verknüpft werden, der das
Nachvollziehen betriebsindividueller Beschäftigungsentwicklungen im Zeitablauf
ermöglicht. Den Daten aus den Monatsberichten im Produzierenden Gewerbe und der
industriellen Kleinbetriebserhebung werden ergänzend auf der Landkreisebene detaillierte
Regionalinformationen – möglichst auch in Panelform – zugespielt.
DANIEL WACHTLIN
SAM GmbH Aachen

Ein sequentielles Verfahren zur Konversion von Surveydaten



Im Rahmen dieser Arbeit wird erörtert, inwiefern ex post-harmonisierte Daten statistisch
miteinander vergleichbar sind und wie sich diese Vergleichbarkeit verbessern lässt.

Ex post-harmonisiert heißen solche Daten, die aus verschiedenen Erhebungen stammen und
im Nachhinein vergleichbar gemacht werden. Die Alternative zur Ex post-Harmonisierung
stellt die Input-Harmonisierung dar, bei der eine einheitliche Befragung für alle Personen
durchgeführt wird.

In dieser Arbeit werden mögliche Aspekte mangelnder statistischer Vergleichbarkeit ex post-
harmonisierter Surveydaten gegeneinander abgegrenzt, bevor eine Methode vorgestellt wird,
mit deren Hilfe solche Daten in einer Weise konvertiert werden, dass sie besser miteinander
vergleichbar sind als durch die Anwendung bisheriger Konversionsverfahren.

Die Konversionsmethode wird durch ein konkretes Beispiel erläutert, bei dem Daten, die für
das europäische Haushaltspanel ECHP, einer jährlichen Befragung europäischer Haushalte,
mit Hilfe von Daten aus dem Sozio-oekonomischen Panel (SOEP), einer
Wiederholungsbefragung privater Haushalte in der Bundesrepublik Deutschland, simuliert
worden sind, betrachtet werden.

Schließlich wird erörtert, unter welchen Bedingungen dem in dieser Arbeit entwickelten
Konversionsverfahren ähnliche Methoden anwendbar sind.
HERMANN GARTNER, Susanne Rässler
Institut für Arbeitsmarkt und Berufsforschung

Analyzing the changing gender wage gap based on multiply imputed right
censored wages



In order to analyze the gender wage gap with the German IAB-employment register we have
to solve the problem that the wages are censored at the upper limit of the social security
system. We treat this problem as a missing data problem, regarding the missingness
mechanism as not missing at random (NMAR, according to Little and Rubin, 1987, 2002) as
well as missing by design. The censored wages are multiply imputed by draws of a random
variable from a truncated distribution. The multiple imputations are based on a refined data
augmentation algorithm. We complete our dataset with this technique in order to apply a
Juhn-Murphy-Pierce-decomposition. As the main sources for the narrowing gender wage
gap from 1991 to 2001 we identify an improvement of women's positions within the wage
distribution.

Keywords: Juhn-Murphy-Pierce-decomposition, multiple imputation, missing data
MARTIN SPIESS
SOEP / DIW Berlin

Schätzung eines Zwei-Gleichungs-Panelmodells mit gemischt stetigen und
ordinalen Responsevariablen bei Vorliegen fehlender Werte


Das vorliegende Papier befasst sich mit der Schätzung eines Modells zur zeitlichen Dynamik
der Effekte der Variablen beruflicher Bildungsabschluss auf die Variablen Einkommen und
Sorge um die Sicherheit des Arbeitsplatzes in einem 9-Jahres-Intervall in den alten
Bundesländern. Das statistische Modell ist ein Zwei-Gleichungs-Panelmodell mit einer
stetigen und einer ordinalen Responsevariablen. Geschätzt wird das Modell mit Hilfe eines
GEE-artigen Ansatzes, bei dem nicht nur die Parameter des systematischen Teils des
angenommenen latenten Modells, sondern auch die Kovarianzstrukturparameter geschätzt
werden. Da die verwendeten Daten fehlende Werte aufweisen, werden zwei
Kompensationsstrategien angewandt: Zur Kompensation fehlender Einheiten bis zum Jahr
1991 werden Gewichte verwendet, die Kompensation fehlender Einheiten von 1991 bis 1999
und einzelner fehlender Werte basiert auf multiplen Imputationen. Die Ergebnisse stützen
weder die Annahme eines abnehmenden Effektes des beruflichen Bildungsabschlusses auf
das Einkommen noch einen sich ändernden Effekt auf die Variable Sorge um den
Arbeitsplatz. Weiterhin legen die Schätzergebnisse die, gegeben die Kovariablen, lineare
Unabhängigkeit dieser beiden Responsevariablen über die Zeit hinweg nahe.
OLIVER SERFLING
WWZ - Universität Basel

Rounding behavior of respondents in household surveys
Evidence from Swiss data


Rounding is a frequent phenomenon in self-reported income data. In the first five waves of
the Swiss Household Panel (SHP), more than 35 per cent of personal income statements are
rounded to multiples of 1,000 Swiss Francs (CHF). More than 85 per cent are multiples of
100 CHF. At 87 of hundred income statements at least the half of provided digits are
rounded off (zeros). In empirical studies the rounding error is typically ignored and treated
as noise in the data. This approach can have damaging effects on the consistency of
estimates, especially if rounding does not occur at random and rounding intensity is
correlated with the underlying true value. Furthermore, against the background of the
cooperation continuum hypothesis, rounding intensity may reflect respondents motivation
and may be an indicator of future survey or item non-response.

Using raw data from the SHP, I identify socio-demographic patterns of rounding intensity.
Most of the findings are in line with previous studies. Second, I show that interviewer effects
as well as interaction effects between respondents and interviewers are statistically
significant, but negligible with respect to their magnitude. This result is as expected, since
the SHP data are collected in telephone interviews. Since foregone results show that the
number of digits is positively correlated with the rounding probability, I thirdly attempt to
disentangle the amount-effect from the "number of digits"-effect. The results show that
rounding probability positively varies within (logarithmic) splines for each number of digits.
The ascertained positive effect of the household's wealth position remains stable. Lastly, I
investigate the effect of panel duration on the precision of the statement. I find positive panel
effects, which are robust with respect to selective panel attrition.
LEO KNÜSEL
Institut für Statistik, Universität München

Variablenkontrolle bei Normalverteilung mit unbekannter Varianz



Ein klassisches Gebiet der statistischen Qualitätskontrolle ist die sogenannte Variablen-
prüfung. Dabei sind für ein eindimensionales Qualitätsmerkmal X (z.B. Schraubenlänge)
Toleranzgrenzen vorgegeben; werden diese Grenzen überschritten, so gilt das produzierte
Stück als Ausschuss. Im klassischen Fall nehmen wir an, dass X bei einem zufällig aus der
laufenden Produktion ausgewählten Stück normalverteilt ist mit Erwartungswert µ und.
Standardabweichung σ.

Ein typischer Prüfplan besteht darin, dass n Stücke zufällig aus der laufenden Produktion
ausgewählt werden; aufgrund der n Messwerte soll dann bei der Qualitätsüberwachung
entschieden werden, ob die Produktion unverändert weiter laufen kann, oder ob in den
Prozess eingegriffen werden soll. Bei der Annahmeprüfung soll entschieden werden, ob Lose
aus dem Produktionsprozess angenomen oder zurückgewiesen werden sollen. Bei diesen
Entscheidungsverfahren spielt die Operationscharakteristik (OC-Kurve = Annahme-
wahrscheinlichkeit als Funktion des Ausschussanteils p) eine zentrale Rolle. Der Prüfplan
(Stichprobenumfang und Entscheidungsregel) soll nun so gewählt werden, dass die OC-
Kurve durch zwei vorgegebene Punkte verläuft.

Bei bekannter Standardabweichung σ kann unsere Aufgabe korrekt gelöst werden. Bei
unbekanntem σ existiert jedoch nur für einseitige Toleranzgrenzen eine korrekte analytische
Lösung (mit Hilfe der nicht-zentralen t-Verteilung). Bei der zweiseitigen Fragestellung bietet
bereits die Berechnung der OC-Funktion kaum lösbare analytische Probleme. Krumbholz-
Zöller (1995) berechnen Schranken für die OC-Funktion, welche zu OC-Bändern führen. In
DIN-ISO 3951 (1999) werden Tabellen zur Bestimmung der Prüfpläne angegeben. In der
vorliegenden Arbeit werden die analytischen Schwierigkeiten überwunden, indem die OC-
Funktion durch Simulation bestimmt wird. Weiter wird eine Schranke für die empirische
Standardabweichung S so bestimmt, dass die OC-Funktion auch für große Werte von σ die
gewünschten Vorgaben einhält.

Literatur:
Deutsche Gesellschaft für Qualität, DGQ (1999). Annahmestichprobenprüfung auf den
Anteil fehlerhafter Einheiten anhand normalverteilter Merkmale nach DIN ISO 3951. DGQ-
SAQ-Band 16-43.
Krumbholz, W. und Zöller, A. (1995). p-Karten vom Shewartschen Typ für die messende
Prüfung. Allg. Statistisches Archiv 79, 347-360.
RAINER DYCKERHOFF, Karl Mosler
Universität zu Köln

Zentralbereichsordnungen



Stochastische Ordnungen dienen dem Vergleich von Wahrscheinlichkeitsverteilungen
hinsichtlich verschiedener Aspekte wie z.B. Lage oder Streuung. Viele der bekannten
univariaten stochastischen Ordnungen können dadurch charakterisiert werden, dass gewisse
Interquantilsbereiche der einen Verteilung in den entsprechenden Bereichen der anderen
Verteilung enthalten sind.
In diesem Artikel beschreiben wir ein allgemeines Konzept von stochastischen Ordnungen
multivariater Wahrscheinlichkeitsverteilungen, welches es ermöglicht, zahlreiche
stochastische Ordnungen unter einem vereinheitlichten Blickwinkel zu untersuchen. Dieses
Konzept basiert auf dem Begriff der Zentralbereiche. Eine Familie von Zentralbereichen ist
eine parametrisierte Familie abgeschlossener konvexer Teilmengen des Rd, die bezüglich
Mengeninklusion geordnet sind und von der betrachteten Verteilung abhängen. Zwei
Wahrscheinlichkeitsverteilungen     sind      geordnet     bezüglich     einer    gegebenen
Zentralbereichsordnung, wenn die entsprechenden Zentralbereiche für jeden Wert des
Parameters geordnet sind. Sind die Zentralbereiche affin-äquivariant, so können sie als obere
Niveaumengen einer sogenannten Tiefe dargestellt werden. In diesem Artikel untersuchen
wir allgemeine Eigenschaften dieser stochastischen Ordnungen, wie z.B. Transformations-
und Erhaltungseigenschaften. Ein weiterer Schwerpunkt liegt auf der Untersuchung der
Ordnungen auf empirischen Verteilungen und Konvergenzeigenschaften. Wir zeigen, dass
sich viele bekannte Ordnungen als Zentralbereichsordnungen darstellen lassen. Mehrere
Spezialfälle werden ausführlich diskutiert, darunter insbesondere die Mahalanobis-Ordnung
und verwandte L1-Ordnungen, sowie die konvex-lineare Ordnung und die Halbraumordnung.
GABRIEL FRAHM*), Uwe Jaekel**)
*)
   Universität zu Köln (work performed at C&C Research Lab.)
**)
    C&C Research Lab., NEC Europe Ltd., Sankt Augustin

Estimating the covariance matrix of high-dimensional elliptical random vectors
with missing values


For estimating the covariance matrix of elliptical distributions in the case of missing data the
‘Full Information Maximum Likelihood’ (FIML-)method is utilized. FIML-estimation is
characterized by using all the available data for maximizing the respective likelihood
function. Basic conditions under which the FIML-approach leads to unbiased estimates are
discussed. FIML-estimation becomes computational expensive for high-dimensional data if
there are only a few variables missing for each observation and if the missing variables
permanently change over time (this situation is frequently encountered e.g. for financial
data). It is shown that the likelihood function can be re-formulated for the purpose of
recognizing missing values efficiently. Further, the ‘spectral density approach’ for estimating
the linear dependence structure of elliptical random vectors is presented. This is a completely
robust alternative to the usual ML-estimation approach relying on elliptical density
functions. Structural equation models (e.g. factor models) implicitly lead to restricted
covariance matrix estimation (i.e. the covariance matrix is supposed to have a specific
structure). It is shown that not only elliptical density functions but also the spectral density
function allow for restricted FIML-estimation of the covariance matrix elements. The
presented methods are motivated by covariance matrix estimation for stock market data on
the basis of a random effects model.
ALEJANDRO VEEN, Frederic Paik Schoenberg
University of California, Los Angeles

Assessing spatial point process models using weighted K-functions:
Analysis of California earthquakes


We investigate the properties of a weighted analogue of Ripley's K-function which was first
introduced by Baddeley, Møller, and Waagepetersen. This statistic, called the weighted or
inhomogeneous K-function, is useful for assessing the fit of point process models. The
advantage of this measure of goodness-of-fit is that it can be used in situations where the null
hypothesis is not a stationary Poisson model. We note a correspondence between the
weighted K-function and the mean of K-functions computed on a repeatedly thinned point
pattern, and derive the asymptotic distribution of the weighted K-function for a spatial
inhomogeneous Poisson process. We then present an application of the use of the weighted
K-function to assess the goodness-of-fit of a class of point process models for the spatial
distribution of earthquakes in Southern California.
David Hendry, MICHAEL MASSMANN
Universität Oxford bzw. Universität Bonn

Co-breaking: Recent advances and a synopsis of the literature



The purpose of this paper is twofold. First, it aims to provide a synopsis of the literature on
co-breaking which has been developing in several, seemingly disconnected, strands. This
includes establishing a consistent terminology, collecting theoretical results, delimiting co-
breaking to cointegration and common features, and reviewing recent contributions to co-
breaking regressions and the budding analysis of co-breaking rank. The second purpose of
the paper is to present new results in the field. In particular, the importance of co-breaking
for policy analysis takes centre stage, with special emphasis on impulse-response functions.
Moreover, a new procedure for co-breaking rank testing is presented, evaluated by means of
Monte Carlo experiments and illustrated using UK macroeconomic data.
SABINE STEPHAN
Institut für Makroökonomie und Konjunkturforschung (IMK) in der Hans-Böckler-
Stiftung

Außenhandelspreise und der Pricing to market-Effekt
Eine ökonometrische Untersuchung für Deutschland


In diesem Papier wird untersucht, in welchem Umfang Wechselkursveränderungen in die
deutschen Außenhandelspreise überwälzt werden. Den analytischen Rahmen bildet ein sog.
Mark up-Modell, wonach Unternehmen ihre Ausfuhrpreise bestimmen, indem sie einen
Aufschlag auf ihre Grenzkosten vornehmen. Dieser Aufschlag ist nicht fix, sondern kann
von den Unternehmen – aufgrund der Annahme segmentierter Märkte – in Abhängigkeit
von der Wettbewerbssituation auf dem jeweiligen Absatzmarkt variiert werden, um den
Angebotspreis zu steuern. Wir finden Evidenz dafür, dass deutsche Exporteure
wechselkursbedingte Preiserhöhungen in einem beträchtlichen Umfang an ihre Kunden
weitergeben, was dafür spricht, dass sie über eine starke Stellung im Markt verfügen.
Ausländische Anbieter praktizieren hingegen in einem großen Umfang Pricing to market,
d.h. sie neutralisieren wechselkursbedingte Preiserhöhungen großenteils durch eine
Reduktion ihrer Gewinnmarge, um ihre Marktanteile auf dem durch starken
Wettbewerbsdruck gekennzeichneten deutschen Absatzmarkt zu sichern.
CHRISTIAN MUELLER-KADEMANN
Swiss Federal Institute of Technology Zürich

Further results on monopolistic competition, markup pricing and the business
cycle in Switzerland



This paper investigates how firms' market power affects the price level. In a small macro-
model it is shown empirically that firms have structural markup pricing power and take
advantage of favourable business cycle fluctuations. To support this view empirically, a
multivariate time series model with double integrated variables is estimated. Thereby a
model-based business cycle indicator can be derived. Its information content is confronted
with survey data giving rise to what is going to be called semantic cross validation approach.
TIBERIU POSTELNICU
Institut für Mathematische Statistik, Bukarest

Sample size for case-control studies



Case-control studies represent a typical approach to the problem of the identification of risk
factors in certain data processing for applied statistics. An important example is in
biostatistics, where the interest focuses on establishing whether a risk factor increases the
chance of being affected by a disease or not. The proportions of subjects exposed to the risk
factor are determined in the two subgroups and are used to estimate the unknown
probabilities of being exposed to the agent in the case and control groups, respectively. The
association between the etiologic agent and the disease is standardly measured by the odds-
ratio, or by its logarithmic transformation. Unlike the relative risk, these quantities are
estimable not only in longitudinal studies, but also in case-control studies.

The choice of sample size is a pre-experimental decision problem: before observing the data,
we want to choose the minimal sample size such that a selected criterion is satisfied. Thus,
unlike standard Bayesian posterior analysis, randomness of the data must be taken into
account. Sample size determination in case-control studies is a complex problem: we must
decide the total size and how many subjects to allocate in the case and control groups. We
analyse the choice of sample size and allocation for both, estimation and hypothesis testing.

For dealing with the sample size criteria that were introduced, it is necessary to evaluate the
sampling distribution of posterior quantities: the lengths of credible sets and the probabilities
of hypotheses. A numerical procedure is also presented.

References:
Adcock, J. (1997), The Statistician, 46, 261-283.
Agresti, A. (1990), Categorical data analysis, J. Wiley.
Lindley, D.V. (1997), The Statistician, 46, 129-138.
Nurminem, M. And Mutanen, P. (1987), Scandinavian Journal of Statistics, 14, 67-77.
Weiss, R. (1997), The Statistician, 46, 209-226.
HENDRIK KLÄVER
Universität zu Köln, Graduiertenkolleg Risikomanagement

Testing for stochastic dominance using circular block methods



This paper investigates the performance of various tests on stochastic dominance for
dependent data.

We consider the tests of Schmid and Trede (1997), of Xu, Fisher and Willson (1997) and of
Linton, Maasoumi and Whang (2003). The dependence structures explored are the
contemporaneous correlation between samples and conditional heteroskedasticity within
samples. Simulations show that with the proposed bootstrap methods the tests perform rather
poorly for small samples.

We develop new circular bootstrap methods which make the tests of Schmid and Trede and
of Linton, Maasoumi and Whang robust to the mentioned dependence structures. We
determine the block lengths which make the tests keep the size and explore the power of the
tests. The tests are applied to the daily returns of some German stocks.
HANS SCHNEEWEISS, Sergiy Shklyar, Alexander Kukush
Universität Müpnchen, Kiev National University

Quasi Score ist besser als Corrected Score in einem polynomialen
Messfehlermodell


Wir betrachten ein polynomiales Regressionsmodell mit Messfehlern in der
Regressorvariable. Die Messfehlervarianz sei bekannt. Die Regressorvariable sei
normalverteilt. Quasi Score (SQ) und Corrected Score (CS) sind zwei konsistente
Schätzverfahren, wovon das erste von der Verteilung der Regressorvariablen Gebrauch
macht (strukturelles Verfahren), während das zweite von dieser unabhängig ist (funktionelles
Verfahren). Man mag daher vermuten, dass die erstere Methode (asymptotisch) effizienter
ist als letztere. Das lässt sich in der Tat beweisen. Der Beweis benutzt ein drittes
Schätzverfahren, das eine vereinfachte Version von QS darstellt und dessen Effizienz
zwischen QS und CS zu liegen kommt.
Ralph Wiechers
VDMA, Frankfurt

Begrüßung – Einführung in die Thematik
Die ganze Welt ist unser Feld – Möglichkeiten und Grenzen der statistischen
Analyse weltweit agierender Industrien am Beispiel des Maschinen- und
Anlagenbaus


Die zunehmende Internationalisierung der Wirtschaft stellt nicht zuletzt die Statistik vor
große Herausforderungen. Der Bedarf an international verfügbaren und vergleichbaren
Daten steigt ständig. Außenhandelsdaten reichen zur Abbildung der Markt- und
Wettbewerbssituation nicht mehr aus. In vielen Entwicklungsländern schreitet die
Industrialisierung voran. Dadurch werden sie nicht nur zu neuen Wettbewerbern, sondern
empfehlen sich auch als Produktionsstandorte für Unternehmen, die ihre Wertschöpfung
grenzüberschreitend neu organisieren. In einem kurzen Einführungsvortrag sollen am
Beispiel des deutschen Maschinen- und Anlagenbaus Notwendigkeit, Möglichkeiten und
Grenzen der statistischen Analyse einer weltweit agierenden Industriebranche dargestellt
werden.
REINHARD HILD
Ifo Institut für Wirtschaftsforschung, München

Die These der Basarökonomie
Analytische Restriktionen durch unzureichende Datenbasis auf disaggregierter
Ebene?


Unter Basarökonomie ist eine Wirtschaft zu verstehen, deren industrielle
Wertschöpfungsquote sich anhaltend rückläufig entwickelt, deren Industrie also in
wachsendem Ausmaß Vorleistungen aus anderen Bereichen, insbesondere aus dem Ausland
(offshoring, offshore outsourcing) verwendet. Als Wertschöpfungsquote gilt dabei der Anteil
der Eigenleistung (Wertschöpfung) am Output (Bruttoproduktionswert).

Der wirtschaftspolitisch relevante Sachverhalt ist dabei der, dass die Entwicklungen der
Inputfaktoren Arbeit und Kapital im Wesentlichen an die der Wertschöpfung (und nicht an
die der Bruttogrößen Umsatz und Bruttoproduktionswert) gebunden sind und dadurch z. B.
das Beschäftigungsvolumen durch eine rückläufige Wertschöpfungsquote negativ beeinflusst
werden kann, speziell dann, wenn der entsprechend wachsende Anteil des
Vorleistungseinsatzes überproportional auf Bezüge aus dem Ausland gerichtet ist. Zwar gibt
es hierbei auch kompensatorische Wirkungen (Steigerung der Wettbewerbsfähigkeit), die
jedoch, wenn die Prozesse zu schnell ablaufen, möglicherweise nicht ausreichen, negative
Beschäftigungseffekte zu verhindern. Für eine wirtschaftspolitische Bewertung der
relevanten Entwicklungstendenzen ist also eine umfassende Analyse des Gesamtprozesses
erforderlich.

Bei der empirischen Behandlung der Basarökonomie gibt es allerdings eine Reihe von
Messproblemen. Das beginnt mit der statistischen Zuordnung der Wertschöpfung zu
einzelnen Wirtschaftszweigen in der Volkswirtschaftlichen Gesamtrechnung nach dem
Schwerpunktprinzip. Der Anteil der hierbei in der (Waren produzierenden) Industrie
erfassten Dienstleistungen kann sich im Zeitablauf verändern und die Tendenz der
Wertschöpfungsquote nachhaltig beeinflussen. Auch Konzentrationsvorgänge (bei denen
ehemalige Marktströme zu unternehmensinternen Lieferungen werden) können sich auf die
Wertschöpfungsquote auswirken (organisatorische Dimension).

Am aktuellen Rand mangelt es der Analyse an zeitnahen Input-Output-Tabellen, die
Schätzungen für die relevanten Variablen werden durch eine unadäquate Aufbereitung der
Außenhandelsstatistik und vor allem durch Veränderungen in der Zuordnungssystematik
erschwert. Für eine vertiefte Analyse der inhärenten Strukturprozesse ist die sektorale
Gliederung auf Basis der NACE-Zweisteller teilweise zu grob (z. B. Gütergruppen
„sonstiger Fahrzeugbau“, „Metallerzeugnisse“). Eine Datenbasis für einen internationalen
Vergleich der Entwicklungstendenzen der industriellen Wertschöpfungsquoten ist praktisch
nicht gegeben.
BEATRIX STEJSKAL-PASSLER
Deutsche Bundesbank, Frankfurt

Globalisierung der deutschen Wirtschaft durch grenzüberschreitende
Unternehmensbeteiligungen
Die Bestandserhebung über Direktinvestitionen
– Erhebung, Auswertung, Aussagefähigkeit –


Seit 1976 führt die Deutsche Bundesbank auf der Grundlage des Außenwirtschaftsgesetzes
in Verbindung mit der Außenwirtschaftsverordnung eine Bestandserhebung über
Direktinvestitionen durch. Es werden sowohl deutsche Beteiligungen an Unternehmen im
Ausland als auch ausländische Beteiligungen an Unternehmen in Deutschland erfasst. Dabei
gelten – nach international harmonisierter Definition - grenzüberschreitende Beteiligungen
von 10 % und mehr am Kapital oder den Stimmrechten als Direktinvestitionen. Neben den
Kapitalbeteiligungen zählen auch die Kredite der Kapitaleigner und anderer verbundener
Unternehmen zu den Direktinvestitionen.

Im Rahmen der Globalisierungsbestrebungen sind infolge einer Vielzahl – teilweise auch
außerordentlich großer – Mergers- und Akquisitions-Aktivitäten vor allem um die
Jahrtausendwende die Direktinvestitionsbestände sprunghaft angestiegen. Dieser Trend hat
sich mittlerweile wieder beruhigt.

Bei der Analyse der Zahlen ist Vorsicht geboten. Steuerliche Aspekte finden ihren
Niederschlag in der Entwicklung der Direktinvestitionsbestände. So wird die
Wirtschaftszweiggliederung der unmittelbaren Direktinvestitionsbeziehungen durch die
zunehmende     Unternehmensstrukturierung      über  Holdinggesellschaften     verzerrt.
Konzerninterne Fremdkapitalfinanzierung wird zurück geführt, wenn dies steuerlich nicht
mehr attraktiv erscheint. Ebenso ist eine Zunahme der Anzahl der Beschäftigten in
Unternehmen im Ausland mit deutschen Kapitaleignern nicht mit einem
Beschäftigungsabbau in Deutschland gleichzusetzen.
JÖRG DÖPKE, Michael Funke, Sean Holly, Sebatian Weber
Deutsche Bundesbank/ Universität Hamburg / Universität Cambridge / Universität
Hamburg

The cross-sectional dynamics of German business cycles


We establish stylised facts of Germany’s business cycle at the firm level. Based on
longitudinal firm-level data from the Bundesbank’s balance sheet statistic covering, on
average, 55,000 firms per year from 1970 to 1998, we analyse the reallocation across
individual producers and, in turn, the connection of this reallocation to aggregate business
cycles. The empirical results indicate a pronounced heterogeneity of real sale changes across
firms. Moreover, the distribution of growth rates of firm’s real sales is influenced by
business cycle conditions. Particularly, the cross-section skewness of real sales changes is
strongly counter-cyclical. The results confirm most of the findings for the UK and the US by
Higson et al. (2002, 2004) and are, therefore, quite robust stylised facts of the business cycle.
Kurt Geppert, MARTIN GORNIG, Axel Werwatz
DIW Berlin

Agglomerationstendenzen trotz räumlicher Konvergenz –
Parametrische und nichtparametrische Ergebnisse zum Erklärungsbeitrag
sektorspezifischer Entwicklungen


Für Westdeutschland ist - ähnlich wie für die EU insgesamt - in den Jahren 1980 bis 2000
eine Einebnung der ökonomischen Disparitäten zwischen den Regionen festzustellen.
Gleichzeitig können sich einige reiche Regionen dieser Konvergenztendenz entziehen und
setzen sich vom durchschnittlichen Produktivitätsniveau immer mehr ab. In Westdeutschland
sind dies vor allem die großen Agglomerationen München, Rhein-Main und Hamburg.

In der vorliegenden Analyse wird gefragt, ob diese Entwicklung gegen den Trend räumlicher
Konvergenz auch auf verstärkte räumliche Konzentration einzelner Wirtschaftszweige
zurückgeführt werden kann. Mit einem sektoral tief disaggregierten Datensatz werden
insbesondere wissensintensive Dienstleistungen wie Wirtschaftsberatung, Filmwirtschaft
und Ingenieurbüros als Sektoren identifiziert, die sich in Westdeutschland zwischen 1980
und 2000 weiter räumlich konzentrieren haben.

Schätzungen mit einem einfachen Logit-Modell und mit nichtparametrischen Regressionen
bestätigen einen positiven Zusammenhang zwischen dem Anteil sich weiter räumlich
konzentrierender Sektoren in einer Region und der Wahrscheinlichkeit, dass sich diese
Region der Konvergenztendenz entzieht. Die nichtparametrischen Schätzungen können
allerdings nur bei im Bereich sehr hoher Anteilswerte der sich konzentrierenden Sektoren als
statistisch signifikant angesehen werden.
SONJA KUHNT
Fachbereich Statistik, Universität Dortmund

Ausreißer und ihre Identifizierung bei graphischen Modellen



Graphische Modelle dienen der multivariaten Modellierung von Abhängigkeitsstrukturen
zwischen mehreren Zufallsvariablen. Sie verknüpfen statistische Verteilungsannahmen mit
mathematischen Graphen, die der Darstellung von Markov-Eigenschaften dienen. Bei
Modellen mit ungerichteten Graphen und sowohl stetigen als auch diskreten Zufallsvariablen
wird die sogenannte Conditional-Gaussian(CG)-Verteilung eingesetzt (Edwards, 1995;
Lauritzen, 1996). Es hat sich gezeigt, dass übliche Modellwahlverfahren für derartige
graphische Modelle häufig anfällig gegenüber einzelnen, extremen Beobachtungen sind
(Kuhnt, Becker, 2003). Diese Anfälligkeit lässt sich auf den Einsatz von Maximum-
Likelihood-Schätzern zurückführen. Bisher existieren jedoch für graphische Modelle mit
CG-Verteilung weder Alternativen zu Maximum-Likelihood-Schätzern noch formale
Definitionen des Ausreißerbegriffs.

Es wird gezeigt, wie sich das Konzept der α-Ausreißer (Gather et al., 2003) auf Conditional-
Gaussian-Verteilungen übertragen lässt. Hierbei werden grob gesprochen Beobachtungen als
Ausreißer angesehen, wenn sie in einem Bereich des Trägers liegen, der nur mit sehr kleiner
Wahrscheinlichkeit realisiert wird. Sinnvolle Verfahren zur Erkennung von α-Ausreißern in
einem Datensatz basieren in der Regel auf robusten Schätzern der unbekannten Parameter
der betrachteten Verteilung. Es wird ein Schätzverfahren für graphische Modelle
vorgeschlagen, das auf der Ersetzung von empirischen Statistiken in den Likelihood-
Gleichungen durch robuste Alternativen basiert. Die so erhaltenen Schätzgleichungen sind
mit vorhandenen Algorithmen zur Lösung der Likelihood-Gleichungen lösbar.

Literatur:
Edwards, D. (1995). Introduction to graphical modelling, Springer, New York
Lauritzen, S.L. (1996). Graphical Models. Oxford Science Publication, Oxford.
Kuhnt, S., Becker, C. (2003). Sensitivity of Graphical Modeling against Contamination. In:
Schader, M.Gave, W., Vichi, M. (Hrsg.): Between Data Science and Applied Data Analysis.
Springer, 279-287
Gather U., Kuhnt S., Pawlitschko J. (2003). Concepts of Outlyingness for Various Data
Structures, In: Industrial Mathematics and Statistics, Narosa Publishing House, 545-585
Bernd Fitzenberger, RALF A. WILKE, Xuan Zhang
ZEW Mannheim

A note on implementing Box-Cox quantile regression



The Box-Cox quantile regression model using the two stage method introduced by
Chamberlain (1994) and Buchinsky (1995) provides an numerically attractive
implementation of nonlinear quantile regression techniques. However, the objective function
in stage two may not exists in an application. We suggest a simple solution modifying the
estimator slightly. This modification is easy to implement. The modified estimator is still
root-n consistent and we derive its asymptotic distribution. A simulation study confirms that
the modified estimator works well in situations, where the original estimator is not well
defined.



Keywords: Box-Cox quantile regression, iterative estimator
JEL: C13, C14
Hinweise zur Einreichung von Abstracts
Bitte verwenden Sie ausschließlich die Vorlage.

Füllen Sie bitte auch die linke Seite der Vorlage für jeden Teilnehmer einzeln und
VOLLSTÄNDIG aus. Die Angaben mit * werden unbedingt für das Teilnehmerverzeichnis
benötigt.

Der Fließtext wird in Times New Roman 9 geschrieben; der Kopf in Schriftgröße 10. Bei
Arbeiten, die mit Koautoren entstanden sind, werden alle Autoren aufgeführt, jedoch der
Vortragende in den Schrifttyp KAPITÄLCHEN gesetzt.

Bitte melden Sie sich unabhängig von der Einreichung des Abstracts auch gesondert für die
Teilnahme an der Statistischen Woche an.

Detaillierte Angaben zum Ausfüllen der Vorlage finden Sie im folgenden.


-------------------------------------------------------------------------------------------------

Detaillierte Angaben zum Ausfüllen der Vorlage für Abstracts

Seitenformatierung
DIN A4 Querformat
Alle Seitenränder: jeweils 1,5 cm
(oben, unten, links, rechts)
Spaltenformatierung
2 Spalten gleicher Breite mit 2,99 cm Abstand
Spaltenbreite jeweils 11,85 cm, Spaltenabstand 2,99 cm
(Einstellung in Word über Format/Spalten...)
Kopfformatierung
Times New Roman, Schriftgröße 10
Fett bzw. kursiv siehe in der Vorlage für den Abstract;
Alle Kopfzeilen einschl. führender Leerzeile und abschließender Folgezeile sind umrahmt
(vollständiger Rahmen).
Textformatierung
Times New Roman, Schriftgröße 9
Führende Leerzeile, Leerzeile zwischen Absätzen, Hervorhebungen fett oder kursiv;
möglichst nicht unterstrichen.
Autorendarstellung
Nur Vorname und Name (ohne Titel);
Autorengemeinschaft durch und oder , trennen; Vortragende(r) im Schrifttyp KAPITÄLCHEN
Zum Beispiel: Alfons Amann, BERTA BEFRAU und Cäcilie Cefrau
Organisation
Die Organisation Z. B: Universität Tübingen oder Stadt Bielefeld oder Bundesamt für
Bauwesen und Raumordnung

								
To top