History


Help on query formulation
Mathematical statistics. (Mathematische Statistik.) (German)
Springer-Lehrbuch Masterclass. Heidelberg: Springer Spektrum (ISBN 978-3-642-41996-6/pbk; 978-3-642-41997-3/ebook). xi, 427~p. (2014).
Das vorliegende Buch ist aus Vorlesungen entstanden, die der Autor seit 1980 regelmäßig im Rahmen mathematischer Studiengänge an den Universitäten Aachen, Essen, Münster und Freiburg gehalten hat. Es wendet sich an Studierende, die bereits einen maßtheoretisch begründeten Kurs zur Wahrscheinlichkeitstheorie belegt haben und geht in seinem Umfang deutlich über den Stoff einer vierstündigen Vorlesung hinaus. Das vorliegende Buch gliedert sich in 13 etwa gleich große Kapitel und beginnt im Kapitel 1 mit einer ‘Einführung: Datenanalyse und mathematische Statistik’. Dem Leser wird hier durch Beispiele aus der linearen und nichtlinearen Regression, Bildverarbeitung und durch weitere Entscheidungsprobleme ein Eindruck von der großen Breite der modernen mathematischen Statistik vermittelt, die sich nicht nur auf Schätzen und Testen beschränkt. Es ist sehr zu begrüßen, dass der Autor einen konsequent entscheidungstheoretischen Zugang zur mathematischen Statistik wählt, weil nur so und auf der Basis eines klaren mathematischen Modells verschiedene Verfahren verglichen und bewertet werden können. Die notwendigen Begriffe aus der Entscheidungstheorie und deren Zusammenhänge werden im Kapitel 2 gegeben. Es beschränkt sich aber nicht auf eine Darstellung auf abstrakter Ebene, sondern gibt hier bereits zahlreiche Resultate zur Zulässigkeit von Schätzern und Tests. In diesem Zusammenhang spielen Eigenschaften Bayesscher Entscheidungen eine wichtige Rolle. Das Kapitel 3 ‘Verteilungsklassen ‒ statistische Modelle’ behandelt dominierte Modelle, gibt hinreichende Kriterien hierfür und stellt wichtige Eigenschaften von Exponentialfamilien zusammen. Statt der in einem solchen Kapitel üblichen Herleitung der Dichten der $χ^{2}$-, $t$- und $F$-Verteilung entscheidet sich der Autor für Gibbsmaße und leitet neuere Ergebnisse zur Bildrekonstruktion und zum Simulated Annealing ab. Damit setzt der Autor die Idee um, den Studierenden frühzeitig aktuelle und praktisch relevante Ergebnisse der modernen Statistik in diesem Lehrbuch nahe zu bringen. Dadurch wird der traditionelle Themenkreis einführender Bücher in die mathematische Statistik deutlich zu erweitert. Diese Idee wird dann in den Kapiteln 10‒13 systematisch fortgesetzt. Im Kapitel 4 ‘Suffizienz, Vollständigkeit und Verteilungsfreiheit’ werden zentrale Begriffe zur verlustfreien Datenreduktion bereitgestellt. Zunächst wird untersucht, unter welchen Bedingungen Durchschnitte und Erweiterungen von suffizienten $σ$-Algebren wieder suffizient sind. Die klassischen Faktorisierungsergebnisse für dominierte Modelle werden ergänzt durch die Aussagen, dass das arithmetische Mittel nur im Normalverteilungsmodell suffizient ist, und die Sätze von Dynkin und Denny. Sie besagen, dass für den Stichprobenraum $\mathbb{R}^{n}$ suffiziente Statistiken nur für Exponentialfamilien existieren. Auch im Hinblick auf nichtparametrische Modelle werden die Beziehungen zwischen Vollständigkeit und Verteilungsfreiheit umfassend behandelt, was dann unter anderem zu den Basuschen Sätzen führt. Wie für das gesamte Buch typisch, wird zur Vollständigkeit auch wieder ein Charakterisierungssatz gebracht (Wiener-Closure-Theorem). Er betrifft die Vollständigkeit von Lokationsmodellen. Die Anwendung der Ergebnisse über Suffizienz, Vollständigkeit und Verteilungsfreiheit auf nichtparametrische Modelle schließt Kapitel 4 ab. Das Kapitel 5 beginnt in 5.1 mit den Sätzen von Rao-Blackwell und Lehmann-Scheffé, gefolgt vom Satz von Barankin und Stein über lokal optimale Schätzer und den Zusammenhang zwischen optimalen Schätzern und Projektionen, was dann zur Herleitung der Chapman-Robbins-Ungleichung und der Cramér-Rao-Ungleichung verwendet wird. Ergebnisse über die Struktur gleichmäßig minimaler Schätzer führen dann zu den auf Bahadur zurückgehenden Umkehrungen des Satzes von Scheffé. Unverfälschte Schätzer werden mit Hilfe des Verlusts eingeführt. Für den Laplace-Verlust führt das auf Median-unverfälschte Schätzer und für den Gauß-Verlust auf erwartungstreue Schätzer für die im Nomalverteilungsmodell untere Risikoschranken abgeleitet werden. Allgemeine untere Risikoschranken für den quadratischen Verlust werden in Form der Cramér-Rao-Ungleichung formuliert. Hieraus und aus der asymptotischen Normalität des Maximum-Likelihoodschätzers ergibt sich dann seine asymptotische Optimalität innerhalb der Klasse der asymptotisch normalen Schätzer. Schließlich werden im Abschnitt 5.5 die Momentenmethode und die Methode der kleinsten Quadrate einschließlich des verallgemeinerten Gauß-Markov-Theorems behandelt. Das umfangreiche Kapitel 6 ist der Testtheorie gewidmet. Die Existenz optimaler Tests in Form eines Maximin-Tests und eines strengen Tests, der den maximalen Abstand zum lokal besten Test minimiert, wird nachgewiesen, wobei die im Buch bereitgestellte schwach-$\ast $-Folgenkompaktheit der Menge der Tests verwendet wird. Nach diesen Vorbereitungen folgen die Neyman-Pearson-Theorie und die Aussagen über gleichmäßig beste Tests bei monotonem Dichtequotienten, woraus sich dann bei einseitiger Fragestellung die Optimalität des Gauß-Tests, des $t$-Tests, des $ χ^{2}$-Tests und des $F$-Tests ergibt. Für zusammengesetzte Nullypothese und einfache Alternative werden mit Hilfe der Mischungsmethode beste Tests abgeleitet. Die Erweiterung der Mischungsmethode führt mit Hilfe des Maximin-Konzepts auf den Begriff der ungünstigsten Paare, die im Abschnitt 6.3 behandelt werden. Unverfälschte, ähnliche und bedingte Tests schließen das Kapitel über Tests ab. Speziell wird im hinteren Teil von Kapitel 6 die Optimalität bedingter Tests in Exponentialfamilien und von Permutationstests für das nichtparametrische Zweistichprobenproblem behandelt. Das Kapitel 7 über Konfidenzbereiche startet zunächst mit Beispielen für ein-und zweiseitige Konfidenzbereiche, die auf einer Pivotstatistik beruhen, und mit Konfidenzbereichen mit minimalem Volumen. Für streng unimodale Dichten auf der reellen Achse werden optimale äquivariante Konfidenzbereiche konstruiert. Der zweite Teil von Kapitel 7 enthält die Dualitätstheorie zwischen Tests und Konfidenzbereichen und die sich so aus der Testtheorie ergebenden Optimalitätsaussagen. In den früheren Kapiteln wurden die Reduktion durch Suffizienz und die Reduktion der Entscheidungen durch Einschränkung auf eine Teilklasse behandelt. Das umfangreiche Kapitel 8 ist den Konzepten Invarianz und Äquivarianz gewidmet und behandelt Schätz- und Testprobleme in gruppeninduzierten Modellen. Zunächst wird, wie auch in den meisten Büchern zur mathematischen Statistik, die Minimax-Eigenschaft des Pitmanschätzers nachgewiesen und dessen konkrete Gestalt für Lokations- und Skalenmodelle angegeben. Typisch für das vorliegende Buch ist aber, dass dann tiefer liegende Aussagen folgen, die gewisse Modelle, meist die Klasse der Normalverteilungen, durch Optimalitätseigenschaften bestimmter Entscheidungen charakterisieren. So ist beispielsweise für $ n\geq 3$ das arithmetische Mittel nur in Normalverteilungsmodellen der Pitmanschätzer. Der Abschnitt 8.2 über invariante Testprobleme hängt eng mit dem Konzept der amenablen Gruppen zusammen. Die hierzu notwendigen technischen Resultate werden ausführlich behandelt und das Hauptergebnis ist der Satz von Hunt und Stein, der dann im nächsten Abschnitt 8.4 zum Nachweis von Minimaxeigenschaften klassischer Tests in linearen Normalverteilungsmodellen verwendet wird. Darüber hinaus ist dieser Abschnitt auch eine sehr kompakte und klare Einführung in das allgemeine lineare Modell. Das Kapitel 9 behandelt mit den robusten Tests ein Teilgebiet der robusten Statistik und orientiert sich an der Monografie von {\it H. Rieder} [Robust asymptotic statistics. New York, NY: Springer-Verlag (1994; Zbl 0927.62050)]. Zentral ist der Begriff des ungünstigsten Paares, das unabhängig vom Testniveau ist. Seine Bestimmung führt auf eine Verallgemeinerung des Satzes von Radon-Nikodym für Kapazitäten. Als Anwendung werden optimale robuste Tests für Umgebungsmodelle einfacher Hypothesen konstruiert. Weiter werden robuste Tests für Umgebungsmodelle konstruiert, die durch Abhängigkeitsstrukturen definiert sind. Das Kapitel 10 behandelt sequentielle Tests und enthält als zentrales Ergebnis die Optimalität des sequential probability ratio tests von Wald und Wolfowitz, Näherungen für die mittlere Stichprobenlänge und die Konstruktion von Tests mit Schärfe 1, wobei das letzte Resultat eine interessante Verbindung zum Gesetz vom iterierte Logarithmus darstellt. Eine Einführung in die asymptotische Statistik gibt Kapitel 11. Dieses Kapitel, obwohl etwa gleichlang wie andere Kapitel, ist, gemessen um Umfang dieses Gebietes, verhältnismäßig kurz. Es enthält im ersten Teil für verschiedene Lokationsmodelle Aussagen über die asymptotische relative Effizienz des arithmetischen Mittels verglichen mit dem Median und im zweiten Teil Aussagen über Kerndichteschätzer. Die Einschränkung auf diese beiden Themenkreise ist begründet durch die Tatsache, dass der Autor mit dem Buch [Asymptotische Statistik. Stuttgart (FRG): B.G. Teubner (1988; Zbl 0661.62001)] eine umfangreiche Einführung in dieses Gebiet gegeben hat, woran das vorliegende Buch anschließt. Das Kapitel 12 zur Statistik für Zählprozesse und Martigalmethoden führt in ein aktuelles Gebiet der mathematischen Statistik ein, das über den Rahmen einer einführenden Standardvorlesung zur Statistik hinausgeht. Die Anwendung von Martigalmethoden ist aber für viele in der Praxis auftretenden Datensituationen die adäquate Technik. Nach der Zusammenstellung ausgewählter Hilfsmittel aus der Matingaltheorie sind die zentralen Themen: Nelson-Aalen-Schätzer, Aalen-Johansen-Schätzer, Cox partial Likelihood-Schätzer. Abschließend werden in diesem Kapitel Martingalmethoden verwendet, um verteilungsfreie Tests mit Hilfe des empirischen Prozesses mit geschätzten Parametern zu konstruieren. Das abschließende Kapitel 13 behandelt das Quantil hedging und erfordert Kenntnisse aus dem Gebiet der zeitstetigen Finanzmathematik. Das behandelte Problem betrifft die Absicherung eines Claims mit möglichst hoher Wahrscheinlichkeit, wenn nicht ausreichend Kapital vorhanden ist. Dieses Optimierungsproblem kann mit Hilfe von Ergebnissen aus der Testtheorie gelöst werden und ist eine überraschende Querverbindung zwischen der Statistik und der Finanzmathematik. Der Anhang enthält neben den Standardaussagen zum bedingten Erwartungswert und bedingten Verteilungen und ausgewählten Ergodensätzen auch eine sehr schöne und kompakte Einführung in die spieltheoretischen Grundlagen der Entscheidungstheorie. Was zeichnet dieses Buch aus? Die mathematische Statistik wird konsequent auf entscheidungstheoretischer Grundlage entwickelt, um so statistische Verfahren bewerten und vergleichen zu können. Klassische und moderne Konstruktions- und Reduktionsprizipien werden ausführlich behandelt und Beweise auch dann geführt, wenn technisch anspruchsvollere Hilfsmittel benötigt werden, die gegebenfalls dann bereitgestellt werden, etwa schwach-$\ast$-Kompaktheit. Gegebenenfalls wird für Beweise auf die Literatur verwiesen. Das Buch enthält nicht nur die bekannten finiten und asymptotischen Optimalitätsaussagen von Schätzern und Tests, sondern gibt auch zahlreichende Charakterierungsaussagen im Sinne des Buches von {\it A. M. Kagan}, {\it Yu. V. Linnik} and {\it C. R. Rao} [Characterization problems in mathematical statistics. Translated from Russian text by B. Ramachandran. New York etc.: John Wiley \& Sons (1973; Zbl 0271.62002)] an. Diese Aussagen zeigen, dass in vielen Fällen die Optimalität eines statistischen Verfahrens automatisch bestimmte Verteilungsannahmen impliziert. Die Kapitel 10, 11 und 12 sind gelungene Beispiele dafür, wie man in kurzer aber verständlicher Form so in neue und über den Standardstoff hinausgehende Gebiete der Statistik einführen kann, dass man sogar bis zu gewissen Hauptergebnissen dieser Gebiete gelangt. Ich habe den mathematischen Stil des Buches als sehr angenehm empfunden. Der Autor geht die Probleme möglichst direkt an und reduziert vorbereitende technische Betrachtungen auf ein Minimum. Diese werden erst dann gebracht, wenn sie nötig sind. Dadurch wird erreicht, dass man schnell zu den eigentlichen Resultaten gelangt. Der Autor ist stets bemüht, möglichst früh besonders instruktive Beispiele und Teilresultate zu bringen und diese nicht nur als Spezialfälle einer auf vielen Seiten entwickelten Theorie darzustellen. Dem Leser bleibt so stets das Ziel klar vor Augen. Das vorliegende Buch kann nachdrücklich allen Studierenden empfohlen werden, die an einer mathematisch fundierten Einführung in die Statistik interessiert sind. Gleichzeitig können sie durch die in sich geschlossenen Darstellungen in den Kapitel 9‒13 einen ersten Eindruck von modernen Teilgebieten der Statistik gewinnen und so vorbereitet schnell Anschluss an die Spezialliteratur finden. Lehrende profitieren von den vielen aufgezeigten Querverbindungen, der tiefgründigen Behandlung der Suffizienz und Invarianz und den vielfältigen Ergebnissen und Hinweisen zu Charakterisierungsaussagen im Sinne von Kagan, Linnik und Rao. Im Vorwort formuliert der Autor wesentliche Ziele: “Ein zentrales Ziel dieses Textbuches ist es zu zeigen, dass die Mathematische Statistik ein Gebiet mit vielen besonders schönen Ideen und Methoden und überraschenden Resultaten ist. Ziel ist es auch besonders, der zunehmenden Spezialisierung in der Statistik entgegenzuwirken und eine breite Orientierung über unterschiedliche Gebiete und Themenkreise der Statistik zu geben.” Diese Ziele hat der Autor in hervorragender Weise erreicht. Ich gratuliere ihm zu diesem Erfolg und bin mir sicher, dass dieses Buch eine Standardreferenz auf dem Gebiet der mathematischen Statistik im deutschsprachigen Raum wird.
Reviewer: Fritz Liese (Rostock)
Classification: K40 K70 K80 M10
Valid XHTML 1.0 Transitional Valid CSS!