Sie sind auf Seite 1von 16

Hauptseminar Mathematische Statistik

Bootstrap-Kondenzbereiche

Michael Geiger

17. Mai 2011

Inhaltsverzeichnis
1 Einleitung 2 Kondenzbereiche 3 Bootstrap-Kondenzbereiche 3.1 Bootstrap-t-Kondenzintervall . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Kondenzintervalle basierend auf Bootstrap-Perzentilen . . . . . . . . . . 3.3 Kondenzintervalle basierend auf bias-korrigierten Bootstrap-Perzentilen 3.4 Die Hybrid-Bootstrap-Methode . . . . . . . . . . . . . . . . . . . . . . . 4 Literatur 3 3 5 5 7 11 15 16

. . . .

Einleitung

In meinem Seminarthema betrachten wir eine Anwendung des Bootstrappings1 , die Konstruktion von Kondenzbereichen. Dazu werden wir verschiedene BootstrapKondenzbereiche einfhren. u

Kondenzbereiche

Seien X1 , . . . , Xn u.i.v.2 p-dimensionale Zufallsvektoren von einer unbekannten Verteilung F und sei = T (F ) der zu interessierende reellwertige Parameter fr T ein reellwertiges u Funktional. Denition 2.1 (Kondenzbereich) 3 Wenn Cn = Cn (X1 , . . . , Xn ) eine Teilmenge von R ist, die nur von X1 , . . . , Xn abhngt a und P( Cn ) 1 (1) erfllt, dann heit Cn Kondenzbereich fr zum Level 1 , falls (1) fr alle Veru u u teilungen F gilt. Hierbei ist eine gegebene Konstante mit 0 < < 1. Die Wahrscheinlichkeit auf der linken Seite von (1) wird als Uberdeckungswahrscheinlichkeit von Cn bezeichnet. Wenn die Gleichung in (1) erfllt ist, dann wird Cn u als Kondenzbereich bezeichnet mit Kondenz-Koezient 1 , oder kurz (1 )Kondenzbereich. Seien = n (X1 , . . . , Xn ) und = n (X1 , . . . , Xn ) zwei Statistiken, dann werden die Intervalle (, ] und [, ) als einseitige Kondenzintervalle bezeichnet und [, ] wird als zweiseitiges Kondenzintervall bezeichnet. ist die untere KondenzSchranke, die obere Kondenz-Schranke. Wenn und untere und obere (1 )Kondenz-Schranken fr sind, dann ist [, ] ein zweiseitiges (1 2)-Kondenzintervall u fr . u Das gewnschte Level des Kondenzbereiches wird als Nominallevel bezeichnet, welu ches gewhnlich gegeben ist. Wir wollen 1 und 1 2 fr die Nominallevels des o u einseitigen und respektive des zweiseitigen Kondenzintervalls verwenden. Ein Kondenzbereich wird als exakt bezeichnet, wenn die Uberdeckungswahrscheinlichkeit genau gleich dem Level ist.
Bootstrapping (von englisch bootstrap Stiefelschlaufe und bedeutet sinngem: sich wie Baron a Mnchhausen an den eigenen Stiefeln aus dem Sumpf herausziehen) ist in der Statistik eine Methou de des Resampling. Dabei werden wiederholt Statistiken auf der Grundlage lediglich einer Stichprobe berechnet. 2 u.i.v.: unabhngig und identisch verteilt. a 3 vgl. Shao/Tu (1996), S. 129.
1

In vielen Fllen werden Kondenzbereiche unter Beachtung einer reellwertigen a Pivot-Gre n = n (X1 , . . . , Xn ; F ) erstellt, deren Verteilung Gn bekannt ist und o unabhngig von F ist. Eine Pivot-Gre ist eine stochastische Gre, die eine Funktion a o o einer Stichprobe von X und des Parameters ist, deren Verteilung nicht vom Parameter abhngt. D.h. n = n (X1 , . . . , Xn ; F ) ist eine Zufallsvariable, die den Parameter a beinhaltet, deren Verteilung jedoch unabhngig von ist.4 a o Wenn wir von der Ungleichung L n U herleiten knnen, dann ist , ein Kondenzintervall mit einem bestimmtem Level (bei geeigneter Wahl von L und U ). Betrachten wir den Fall, wo der gesuchte Paramter ist, dann ist die Pivot-Gre n o n n ein Schtzer fr den wahren Parameter und a u im Allgemeinen von der Form n , wo 2 n der Varianzschtzer fr n ist und a u n n G1 (1 ), n n G1 () n n (2)

ein exaktes (1 2)-Kondenzintervall fr ist. Hierbei ist ein t-Quantil deniert als u 1 5 G (t) = inf{x : G(x) t} t (0, 1) und damit in der Herleitung (2.1) Gleichheit zwischen linker und rechter Seite besteht, sei Gn stetig. Herleitung 2.1 (Kondenzintervall) P G1 () n P G1 () n
n (X1 , . . . , Xn ; F )

G1 (1 ) = 1 2 n = 1 2

n G1 (1 ) n n

P G1 () n n G1 (1 ) n = 1 2 n n P n G1 (1 ) n n G1 () n = 1 2 n n P n n G1 (1 ), n n G1 () n n = 1 2

Pivot-Gren verwendet man, da die Abhngigkeit von verschwindet. Jedoch ist es in o a einem vorgegebenen Problem gewhnlich schwierig eine Pivot-Gre n zu nden, d.h. es o o ist nicht leicht, eine Pivot-Gre n mit einer bekannten Verteilung Gn zu nden. Wenn o die Verteilung Gn unbekannt ist, hat das Intervall von (2) keine praktische Bedeutung und wir mssen Gn geeignet approximieren. In dem traditionellen asymptotischen Ansatz u ersetzen wir die unbekannte Verteilung Gn durch ihre Grenzverteilung, falls eine solche existiert. Betrachten wir das Intervall (2): Wenn Gn eine bekannte Grenzverteilung hat (unabhngig von ), dann ersetzen wir Gn in (2) durch G. Wenn Gn die Grenzverteilung G a
4 5

vgl. Klein (2010), S. 188 f. vgl. Shao/Tu (1996), S. 4.

hat, die von einem unbekannten abhngt, dann ersetzen wir Gn in (2) durch G , wo a ein konsistenter Schtzer fr ist. Das Bootstrapping kann dazu angewandt werden, a u um einen Kondenzbereich einfach durch Ersetzen von Gn mit seinem Bootstrap-Schtzer a GBOOT zu erhalten. Bemerkungen 2.1 Wie wir in den vorhergehenden Vortrgen gehrt haben, ist der grte Nachteil des a o o traditionellen asymptotischen Ansatzes seine Voraussetzung, dass die Grenzverteilung G analytisch und explizit abgeleitet werden muss. Wegen der Verwendung von Nherungslsungen wird die Uberdeckungswahrscheina o lichkeit von vielen Kondenzbereichen geringer oder hher sein als ihr Nominalleo 6 vel. Zum Beispiel ist das Kondenzintervall in (2) exakt, wenn Gn bekannt ist. Jedoch wird es nicht das Level 1 2 fr festes n haben, wenn Gn unbekannt ist u und geschtzt wird. Fr konsistente Schtzer wird aber die Abweichung mit groem a u a n klein werden.

Bootstrap-Kondenzbereiche

Wir werden nun einige gebruchliche Bootstrap-Kondenzbereiche einfhren. Wegen der a u Ahnlichkeit von unterer und oberer Kondenzgrenze konzentrieren wir uns auf die untere Kondenzgrenze. In den folgenden Abschnitten muss, wie in den vorangegangen Vortrgen bereits era klrt, stets streng unterschieden werden, welches Wahrscheinlichkeitsma verwendet wird: a Es gibt die ursprngliche Verteilung P, aber auch die bedingte Verteilung P .7 u

3.1

Bootstrap-t-Kondenzintervall

{X1 , . . . , Xn } bezeichnet eine u.i.v. Bootstrap-Stichprobe von F , einem Schtzer von F . a

Die Bootstrap-t-Methode basiert auf einem gegebenen studentisierten8 Pivot n = wo n ein Schtzer fr den wahren Parameter und n ein Varianzschtzer fr a u 2 a u n ist. Wenn die Verteilung Gn von der Pivot-Gre n unbekannt ist, dann wird die o Verteilung durch den Bootstrap-Schtzer GBOOT geschtzt. a a
(n ) , n

vgl. Shao/Tu (1996), S. 169. vgl. Klenke (2008), S. 183. 8 Unter Studentisierung oder Studentisieren versteht man in der mathematischen Statistik eine Transformation der Realisationen einer Zufallsvariablen, so dass die resultierende Werte das arithmetische Mittel Null und die Stichprobenvarianz Eins besitzen.
7

Denition 3.1 (Bootstrap-t-Schtzer) a Der Bootstrap-t-Schtzer ist gegeben durch a

GBOOT (x) = P ( mit


n

x) ,

(3)

(n n ) . n

n und n sind das jeweilige Bootstrap-Analogon von n und von n .

Die untere Kondenzgrenze fr ist u BOOT BT := n n G1 (1 ), (4)

welche als Bootstrap-t-Kondenzintervalluntergrenze bezeichnet wird. Die Bootstrap-t-Untergrenze erhlt man dabei aus (2) durch ersetzen von Gn (1 ) a mit seinem Bootstrap-Schtzer GBOOT (1 ). a Beispiel 3.1 10 Seien X1 , . . . , Xn reellwertige u.i.v. Zufallsvariablen. Sei := E[X1 ], n := Xn und 2 die n ) (X gewhnliche Stichprobenvarianz. Damit erhalten wir das Pivot n = o . 2
n

Betrachten wir den parametrischen Fall, wo F (x) = F0 x , 2 = Var(X1 ) und F0 eine bekannte Verteilung sei. In diesem Fall hngt die Verteilung von n nicht von F ab, d.h. a das in dem parametrischen Fall die Bootstrap-t-Methode gleich dem traditionellen Ansatz ist und eine exakte untere Kondenzintervalluntergrenze fr alle n liefert. u Im parametrischen Fall verwendet der traditionelle Ansatz die Normalapproximation, um die Verteilung von n zu approximieren. Das Bootstrap-t-Verfahren generiert hierzu die Daten von der empirischen Verteilung Fn und errechnet GBOOT (1 ). Praktischer Algorithmus zur Berechnung:11 Annahme: Sei n ein Schtzer fr den wahren Parameter und sei n bekannt. a u 2
(1) Ziehe B Bootstrap-Stichproben {X1 , . . . , XB } aus {X1 , . . . , Xn }

(2) Berechne fr b = 1, . . . , B u

(b) =

(b) n n (b)

(3) Schtze das -Perzentil G1 () durch: a BOOT #{


vgl. Shao/Tu (1996), S. 131. vgl. Shao/Tu (1996), S. 131. 11 Eigene Uberlegung.
10 9

(b) G1 ()} BOOT = B

(4) Damit ergibt sich das Bootstrap-t-Kondenzintervall als n n G1 (1 ), n n G1 () BOOT BOOT Bemerkungen 3.1 Wir haben in dem obigen Algorithmus angenommen, dass n bekannt ist. Jedoch ist 2 dies meistens nicht der Fall. Dann kann aber die Varianz ebenfalls durch Bootstrapping geschtzt werden. Dies wird als sog. doppelter Bootstrap bzw. als genesteter a Bootstrap bezeichnet. o Wir werden im kommenden Vortrag sehen, dass die Kondenzgrenze BT die hchste asymptotische Genauigkeit unter den Bootstrapverfahren besitzt.12 Umsetzung in R in der Library boot: boot.ci(..., type = stud, ...) Interpretatives Problem der Bootstrap-t-Prozedur: Das Bootstrap-t-Intervall ist meist fr kleine Stichproben sehr erratisch und instau 13 bil.

3.2

Kondenzintervalle basierend auf Bootstrap-Perzentilen

Sei n ein Schtzer von und sei n sein Bootstrap-Analogon basierend auf der Bootstrapa Stichprobe X1 , . . . , Xn . Denition 3.2 (Bootstrap-Perzentil-Schtzer) a Der Bootstrap-Perzentil-Schtzer ist gegeben durch a
14

KBOOT (x) = P (n x). Die untere Kondenzgrenze fr ist u


1 BP = KBOOT (),

(5)

(6)

welche als Bootstrap-Perzentil-Kondenzintervalluntergrenze bezeichnet wird. Begrundung 3.1 P (n BP ) = Fr groe n gilt die obige Aussage fr beliebiges (0, 1) annhernd, aber kann gewhlt u u a a werden, damit Gleichheit zwischen linker und rechter Seite herrscht. Der Name Perzentil 1 kommt von der Tatsache, dass KBOOT () ein Perzentil der Bootstrap-Verteilung KBOOT in (5) ist.
12 13

vgl. Chernick (2007), S. 64. vgl. Shao/Tu (1996), S. 169. 14 vgl. Shao/Tu (1996), S. 132.

Wir liefern nun eine Rechtfertigung der Bootstrap-Perzentil-Methode, womit wir sehen, welche Annahmen fr eine gute Performance des Bootstrap-Perzentilu Kondenzbereiches notwendig sind. Angenommen, es existiert eine stetige und streng monoton wachsende Abbildung n , so dass P(n n () x) = (x) (7) fur alle zulssigen F gilt. Hierbei ist n = n (n ) und ist eine stetige, streng monotone a und symmetrische Verteilungsfunktion mit (x) = 1 (x), z = 1 () und z = z1 . Fr Annahme (7) knnen wir uns die exakte Kondenzuntergrenze herleiten: u o Herleitung 3.1 (exakte untere Kondenzgrenze) P(n n () x) = (x) P(n () x n ) = (x) P(n () n x) = (x) P( 1 (n x)) = (x) n (x) =
Stetigkeit 1

1 =
z =1 ()

x = (1 ) EXAKT = 1 (n n

z1

=
z =z1

+ z )

Nun werden wir sehen, dass die exakte untere Kondenzgrenze gleich der unteren Bootstrap-Perzentil-Kondenzgrenze ist. Wenn BP = EXAKT knnen wir die Kono denzgrenze selbst dann verwenden, wenn n und/oder unbekannt sind. Sei n = n (BP ) n . Auerdem sei erinnert, dass (7) auch fr alle mglichen F gilt, d.h. auch u o fr F = F , und = n (n ) gilt. u n Herleitung 3.2 (n ) =
n =n (BP )n

(n (BP ) n ) P ( n n (BP ) n ) n P ( n (BP )) n P (n (n ) n (BP )) P (n BP ) = 8

=
(7), F =F

= =
=n (n ) n

Mit der Tatsache, dass n und n = n (BP ) n gilt, knnen wir zeigen, dass BP = EXAKT gilt. o Herleitung 3.3 (BP = EXAKT ) z = n (BP ) n z + n = n (BP ) = 1 (z + n ) =
BP n

=
nach Herleitung 3.2

z = 1 ()

EXAKT

Damit haben wir gesehen, dass die untere Bootstrap-Perzentil-Kondenzgrenze fr alle n u exakt ist, solange Annahme (7) gilt.

Beispiel 3.2 15 Sei (X1 , Y1 ), . . . , (Xn , Yn ) eine Stichprobe aus einer bivariaten Normalverteilung mit Korrelationskoezient . Der Stichprobenkorrelationskoezient ist gegeben durch:
1 n 1 n n n

(Xi X)(Yi Y )
1 n n

(Xi X)(Yi Y )
n

n :=

i=1

= (Yi Y )2

i=1 n

(Xi X)2

(Xi X)2

(Yi Y )2

i=1

i=1

i=1

i=1

Mit Hilfe der Delta Methode kann gezeigt werden, dass n(n ) asymptotisch mit Mittelwert 0 und mit einer Varianz, die von dem dritten und fnften Momenten von X und u Y abhngt, verteilt ist. Diese Aussage gilt auch fr andere Verteilungen als die bivariate a u Normalverteilung, solange fr die zugrundeliegende Verteilung die fnften Momente exisu u tieren. Unter der Normalverteilungsannahme kann die asymptotische Varianz als Korrelation von X und Y ausgedrckt werden. u Mhsame Berechnungen ergeben dann: u n n N 0, (1 2 )2 Sei nun die folgende Transformation () =
15

1 1 1+ d = ln = tanh1 () 2 1 2 1

vgl. van der Vaart (2000), S. 30f.

gegeben. Dann konvergiert n(tanh1 (n ) tanh1 ()) fr jedes gegen die Standardnormalveru teilung. Vergleichen wir dies mit Annahme (7), so folgt asymptotisch der Standardnor malverteilung und n ist durch n = n tanh1 (n ) gegeben.16 Sei z = 1 (), dann fhrt dies fr den Korrelationskoezienten zu dem asymptotiu u schen Kondenzintervall z tanh tanh1 (n ) n z , tanh tanh1 (n ) + n .

Praktischer Algorithmus zur Berechnung:17


(1) Ziehe B Bootstrap-Stichproben X1 , . . . , XB

(2) Berechne die zugehrigen Bootstrap-Replikationen (b) fr b = 1, . . . , B. o u


1 (3) Sei KBOOT () das (100)%-Perzentil von (1), . . . , (B).

(4) Damit ergibt sich das Bootstrap-Perzentil-Kondenzintervall als


1 1 KBOOT (), KBOOT (1 )

Bemerkungen 3.2 Das Bootstrap-Perzentil-Verfahren besitzt weniger zufrieden stellende UberdeckungsWahrscheinlichkeiten, solange n nicht sehr gro ist.18 Im Allgemeinen ist n nicht-linear und der Bias von n n () verschwindet fr u 19 n nicht schnell genug. Umsetzung in R in der Library boot: boot.ci(..., type = perc, ...)

16 17

vgl. Annahme (7) S. 8 dieser Arbeit. Eigene Uberlegung. 18 vgl. Chernick (2007), S. 58. 19 vgl. Shao/Tu (1996), S. 133.

10

3.3

Kondenzintervalle basierend Bootstrap-Perzentilen

auf

bias-korrigierten

Die nachfolgende Methode beruht auf dem Bootstrap-Perzentil-Verfahren. Dafr nehmen u 20 wir in Annahme (7) einen Bias-Term auf. Bradley Efron schlgt hierfr die erweiterte a u Annahme P(n n () + z0 x) = (x) (8) vor. Dabei ist z0 eine Gre, die von F und n abhngen kann. n ist wie in Abschnitt o a 3.2 eine stetige und streng monoton wachsende Abbildung und ist wie im vorhergehenden Abschnitt 3.2 eine stetige, streng monotone und symmetrische Verteilungsfunktion. Annahme (8) reduziert sich zu Annahme (7), wenn z0 = 0. Beispiel 3.3 21 Sei (X1 , Y1 ), . . . , (Xn , Yn ) eine Stichprobe aus einer bivariaten Normalverteilung mit Kor relationskoezient . Sei der Stichprobenkorrelationskoezient n und tanh1 wie in Beispiel 3.2 gegeben.22 Jetzt sei zustzlich z0 aus (8) gegeben durch z0 = 2n . a In diesem Fall ist, fr kleine n, u n tanh1 (n ) tanh1 () 2 n

eine bessere Nherung von N (0, 1) als a n tanh1 (n ) tanh1 () .

Wenn n , z0 und bekannt sind, so knnen wir die exakte untere Kondenzgrene mit o EXAKT = 1 (n + z + z0 ) n angeben.
Bradley Efron (* Mai 1938 in St. Paul, Minnesota) ist ein US-amerikanischer Statistiker. Er ist Professor an der Stanford University und ist Urheber der Bootstrap-Methode. Efron studierte mit einem Stipendium am Caltech, wo er 1960 abschloss. Im selben Jahr ging er nach Stanford, wo er 1964 bei Rupert Miller und Herb Solomon promovierte (Problems in probability of geometric nature). Danach blieb er, von Gastprofessuren beispielsweise in Berkeley, dem Imperial College in London und der Harvard University abgesehen, in Stanford. Im Juli 2007 erhielt Bradley Efron fr seine Beitrge zur theoretischen und u a angewandten Statistik und insbesondere fr die Bootstrap-Methode die National Medal of Science, die u hchste wissenschaftliche Auszeichnung in den USA. Er ist Mitglied der National Academy of Sciences, o der American Academy of Arts and Sciences und der American Statistical Association. Die Universitten a von Madrid, Chicago und Oslo verliehen ihm die Ehrendoktorwrde. Auerdem ist er McArthur Fellow u und war Prsident des Institute of Mathematical Statistics (IMS). a 21 vgl. Shao/Tu (1996), S. 134. 22 vgl. S. 9 dieser Arbeit.
20

(9)

11

Beweis 3.1 P(n n () + z0 x) = (x) P(n () x z0 n ) = (x) P(n () n + z0 x) = (x) P( 1 (n + z0 x)) = (x) n (x) = 1 x = 1 (1 ) = z1 = z = 1 (n + z0 + z )
EXAKT n

Wenden wir nun Annahme (8) mit F = F an, so erhalten wir KBOOT (n ) = (z0 ). Beweis 3.2 (z0 ) =
(8), F =F

P ( n + z0 z0 ) n P ( n ) n P (n ( ) n (n ))
n

= =
=n (n ), n =n (n ) n

= =
Def inition 3.2

P (n n ) KBOOT (n )

Hierzu wenden wir nacheinander Annahme (8), = n (n ), n = n (n ) und Denition n 3.2 an. Dies impliziert z0 = 1 (KBOOT (n )). (10)

Da n (x) eine stetige und streng monotone Abbildung ist, kann man EXAKT nach z ausen: o EXAKT = 1 (n + z + z0 ) n n (EXAKT ) = n + z + z0 n ( ) z = n + z0
EXAKT

z = n n (EXAKT ) + z0

12

Auerdem folgt mit Annahme (8) und mit Annahme F = F : 1 = (z1 ) = (z ) = (n n ( = P ( n


EXAKT )

+ z0 )

n + z0 n n (EXAKT ) + z0 ) = P ( n n n (EXAKT )) n = P ( n n n (1 (n + z + z0 ))) n n = P ( n n (n + z + z0 ))


n

= P ( n n n z z0 ) n = P ( n n n z z0 ) n = P ( n z z0 )
n

= P ( n z z0 ) n = P (n ( ) n z z0 )
n

= Nach (5) folgt somit:

P (n

1 (n z z0 )) n

1 1 (n z z0 ) = KBOOT (1 ) n

(11)

Es gilt z = 1 () und mit der Symmetrie gilt z = z1 . Da (11) fr jedes gilt und u mit 0 < x < 1 folgt:
1 1 (n z z0 ) = KBOOT (1 ) n 1 1 (n + z1 z0 ) = KBOOT (1 ) n 1 (n + 1 (1 ) z0 ) = K 1 (1 ) n BOOT

1 KBOOT (x)

1 (n n

+ (x) z0 )

1 Mit (9), (10) und KBOOT (x) = 1 (n + 1 (x) z0 ) lsst sich die exakte untere Kona n denzgrenze umschreiben:

EXAKT = 1 (n + z + z0 ) n = 1 (n + z + 2z0 z0 )
n

= 1 (n + 1 (z + 2z0 ) z0 ) n
id

1 KBOOT ((z

+ 2z0 ))

Unter der Annahme, dass bekannt ist und mit der Folgerung (10) knnen wir die untere o bias-korrigierte Bootstrap-Perzentil-Kondenzgrenze wie folgt angeben:
1 BC = KBOOT ((z + 21 (KBOOT (n ))))

(12)

13

Beispiel 3.4 23 Angenommen F ist die Verteilung N (, 2 ). Sei := 2 und sei 1 n := n Desweiteren sei n (x) := und (x) :=
n

(Xi Xn )2 .
i=1

9(n 1) 2
x

nx 2 1+ n1 9(n 1)
1 t2

(2) 2 e 2 dt.

In diesem Fall gilt Aussage (8)24 P(n n () + z0 x) = (x) asymptotisch mit


2 P 3 (n n ( 2 )) + n (1) x (x) fr x . u

Hierbei gilt fr n von n (x) : u n (1) 0 da


3 1 nx x3 n1

1+

3 n

Des weiteren gilt fr die Varianz: u n ( 2 ) Somit ergibt sich fr n : u n ( 2 ) Und fr n gilt dementsprechend asymptotisch: u n 9 2 n 3 2 9 2 n 3 2 3
2

1+

3 n

1+

2 9n

9 n 2

23 24

vgl. Shao/Tu (1996), S. 135. vgl. Kapitel 3.3 S. 10 dieser Arbeit.

14

3.4

Die Hybrid-Bootstrap-Methode

Wir haben bisher behauptet, dass unter gewissen Annahmen die Bootstrap-t-Methode und die Bootstrap-BC-Methode genaue Kondenzbereiche liefern. Jetzt sei nachfolgend eine nicht so akkurate, aber einfacher zu verwendende Methode vorgestellt. Denition 3.3 (Hybrid-Bootstrap-Schtzer) a Der hybride Bootstrap-Schtzer ist gegeben durch a
25

HBOOT (x) = P (n (n n ) x), wobei eine xe Konstante ist.

(13)

1 Wir wissen aus vergangenen Vortrgen (z.B. mit = 2 ), dass HBOOT eine gute Approxia mation der Verteilung n (n n ) ist, so dass 1 1 P(n (n ) HBOOT (1 ))

gilt. Eine untere approximative Kondenzgrenze fr ist u


1 HB = n n HBOOT (1 ),

(14)

welche als Hybrid-Bootstrap-Kondenzintervalluntergrenze bezeichnet wird. Begrundung 3.2


1 1 P(n (n ) HBOOT (1 )) = P(n n H 1 (1 )) BOOT 1 = P( n + n HBOOT (1 )) = P( n n H 1 (1 )) BOOT

Dieses Verfahren behandelt die Perzentile der Bootstrap-Verteilung HBOOT als die Per zentile von Hn , also der Verteilung von n (n n ). Bemerkung 3.3 Die hybride Bootstrap-Methode ist in der Praxis die am hugsten angewandte Mea 26 thode.

25 26

vgl. Shao/Tu (1996), S. 140. vgl. Shao/Tu (1996), S. 141.

15

Literatur

Michael Chernick. Bootstrap Methods. Wiley-Verlag, 2. Auage, 2007. Bradley Efron. Better Bootstrap Condence Intervals. in: Journal of the American Statistical Association, Vol. 82, No. 397, 1987, S. 171 - 185. Bradley Efron, R. Tibshirani. Bootstrap Methods for Standard Errors, Condence Intervals and Other Measures of Statistical Accuracy. in: Statistical Science, Vol. 1, No. 1, 1986, S. 54 - 77. Hans-Otto Georgii. Stochastik. Einfhrung in die Wahrscheinlichkeitstheorie und u Statistik. de Gruyter, 3. Auage, 2007. Ingo Klein. Grundzge der Statistik. Eigendruck, 2. Auage, 2010. u Achim Klenke. Wahrscheinlichkeitstheorie. Springer-Verlag, 2. Auage, 2008. E.L. Lehmann. Testing Statistical Hypotheses. Wiley-Verlag, 1. Auage, 1986. Jun Shao, Dongsheng Tu. The Jackknife and Bootstrap. Springer-Verlag, 2. Auage, 1996. A. W. van der Vaart. Asymptotic Statistics. Cambridge Series in Statistical and Probabilistic Mathematics. Cambridge University Press, 2. Auage, 2000.

16

Das könnte Ihnen auch gefallen