Bearbeiter: V. Spokoiny
Kooperation: W. Härdle, O. Lepski, S. Sperlich (Humboldt-Universität Berlin), A. Juditsky (Rennes), A. Puhalskii (Moskau)
Förderung: SFB 373 ,,Quantifikation und Simulation ökonomischer Prozesse''
Beschreibung der Forschungsarbeit:
Modellenannahmen sind eine entscheidende Voraussetzung für jede statistische Datenanalyse. Wenn die Modelle spezifiziert sind, sind nur die relevanten Parameter durch Beobachtungen zu schätzen. Typische parametrische (endlichdimensionale) Modelle sind die in der angewandten Literatur dominierenden Probit- und logistischen Regressionsmodelle, siehe McCullagh and Nelder [9]. Hier wird die grundlegende Annahme getroffen, daß die Form der Link- und Indexfunktionen bekannt ist. Nichtparametrische oder semiparametrische Methoden weisen demgegenüber weit mehr Flexibilität auf; z. B. wird keine spezifische Form der Linkfunktion vorausgesetzt. Diese kann durch Beobachtungen geschätzt werden; hierzu ist Information über Glattheitseigenschaften dieser Funktion erforderlich (vgl. Horowitz [3] oder Severini und Stanisvalis [11]). Andererseits bilden aber parametrische Modelle häufig eine bessere Basis für eine weitere Datenanalyse; folglich werden Methoden benötigt, um parametrische gegen nicht- oder semiparametrische Modelle zu testen. Grundlegende Ergebnisse über nichtparametrische Hypothesentests wurden in den Arbeiten von Ingster [4,5] erzielt. Diese Resultate wurden in verschiedene Richtungen weiterentwickelt, um sie bei ökonometrischen Problemen zu verwenden, siehe Härdle und Mammen [1], Lepski und Spokoiny [8], Härdle, Sperlich und Spokoiny [2]. Die Anwendung dieser Ergebnisse wird wiederum dadurch behindert, daß die Tests Informationen über Glattheitseinschaften der Modellfunktion voraussetzen, die normalerweise nicht gegeben sind. Diese Schwierigkeit motiviert die Entwicklung adaptiver nichtparametrischer Tests. Dieses Problem wurde in [7] untersucht, wobei ein optimaler adaptiver Test konstruiert wurde. Damit verwandt sind die Ergebnisse zur adaptiven nichtparametrischen Schätzung in [8], wo gezeigt wurde, daß die durch nichtlineare Wavelet-Smoother erreichten optimalen Konvergenzgeschwindigkeiten über Besovschen Funktionenklassen auch durch gewisse alternative adaptive Schätzer angenommen werden.
Eine Vielzahl statistischer Problemstellungen mit einem auf dem Begriff großer Abweichungen basierenden Optimalitätskriterium wurde in [6] und [10] untersucht. Dieser Optimalitätsbegriff führt zu einer neuen Klasse von Tests und Schätzungen, die die Maximum-Likelihood-Methode verallgemeinern. Der Allgemeinheitsgrad dieser Untersuchungen führt in die Nähe der abstrakten Theorie der statistischen Experimente; ein Zusammenhang zur Theorie großer Abweichungen wird hergestellt.
Projektliteratur: