Beruflich Dokumente
Kultur Dokumente
Yves Tillé
Groupe de Statistique, Université de Neuchâtel
Espace de l’Europe 4, Case postale 1825, 2002 Neuchâtel , Suisse
email : yves.tille@unine.ch
18 de enero de 2005
Índice general
2. Muestreo simple 7
2.1. Muestreo simple sin reemplazamiento (o muestro aleatorio simple m.a.s.) . . . . . . . . . . . . 7
2.2. La varianza del plan simple sin reemplazamiento . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3. Algoritmo de selección-rechazo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4. Planes simples con reemplazamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5. Comparación de los planes simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3. Estratificación 11
3.1. Población y estratos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2. Muestra, probabilidad de inclusión , estimación . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3. Probabilidad de inclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4. Plan estratificado con afijación proporcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5. Plan estratificado óptimo para el total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.6. Nota sobre la optimalidad en estratificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.7. Optimalidad y coste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.8. Tamaño de muestra mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1
5.7. El método de escisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.7.1. Escisión en dos partes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.7.2. Escisión en M partes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.7.3. Plan con un soporte mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.7.4. Escisión en planes simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.7.5. El método del pivote . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.7.6. Método de Brewer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.8. Varianza en planes con probabilidades desiguales . . . . . . . . . . . . . . . . . . . . . . . . . 36
6. Muestreo equilibrado 37
6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2. Representación por un cubo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3. Muestras equilibradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.4. La martingala equilibrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.5. Implementación de la fase de vuelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.6. Método simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.7. Implementación de la fase de aterrizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.8. Varianza en un plan equilibrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2
9. Estimación de la varianza por linealización 65
9.1. Orden de magnitud en probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
9.2. Aproximación de la varianza por linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.2.1. Linealisación de una función de totales . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.3. Estimación de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
9.4. Linealización por etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
9.5. Descomposición en etapas de la linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
9.6. Linealización del estimador de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.Referencias 74
3
Capítulo 1
U = {1, . . . , N }
de tamaño N .
La variable de interés y toma el valor yk , k ∈ U.
θ = f (y1 , . . . , yk , . . . , yN ).
El total y la media
X 1 X
Y = yk , e Y = yk .
N
k∈U k∈U
La varianza
1 X
σy2 = (yk − Y )2 .
N
k∈U
La cuasivarianza
1 X
Sy2 = (yk − Y )2 .
N −1
k∈U
s ⊂ U.
Un diseno muestral p(s) es una distribución de probabilidad sobre todas las muestras posibles
X
p(s) = 1.
s⊂U
P r(S = s) = p(s).
4
La probabilidad de inclusión X
πk = E(Ik ) = P r(k ∈ S) = p(s).
s3k
Además ½
πk (1 − πk ) si k = `
∆k` = Cov(Ik , I` )
πk` − πk π` si k =
6 `
Si el diseño muestral es de tamaño fijo, entonces
X
πk = n
k∈U
X
πk` = nπk (con )πkk = πk .
`∈U
e
1 X yk
Yb π = .
N πk
k∈S
5
La varianza puede estimarse por
³ ´ X y2 X X yk y` ∆k`
Vd
ar Ŷπ = k
2 (1 − πk ) + . (1.3)
πk πk π` πkl
k∈S k∈S `∈S
`6=k
1.4. Estimación de N
Como N es un total X
N= 1,
k∈U
1 X yk 1 X C 1 X 1 bπ
N
Yb π = = =C =C
N πk N πk N πk N
k∈S k∈S k∈S
6
Capítulo 2
Muestreo simple
Definición 1 Un diseño muestral es aleatorio simple si todas las muestras de mismo tamaño tienen la
misma probabilidad de ser seleccionadas.
donde µ ¶
N N!
= .
n n!(N − n)!
X X µ N ¶−1 µ
N −1
¶ µ ¶−1
N n
πk = p(s) = = = , para todo k ∈ U.
n n−1 n N
s3k s3k
7
2.2. La varianza del plan simple sin reemplazamiento
h i µ ¶2
−1 X X yk y`
V ar Ybπ = − ∆k` (2.2)
2 πk π`
k∈U `∈U
`6=k
µ ¶2
1 X X yk N y` N n(N − n)
= − (2.3)
2 n n N 2 (N − 1)
k∈U `∈U
`6=k
N (N − n) 1 XX 2
= (yk − y` ) (2.4)
n 2N (N − 1)
k∈U `∈U
`6=k
N − n Sy2
= N2 . (2.5)
N n
Teorema 1 En un m.a.s., la cuesivarianza de la población es
1 X
Sy2 = (yk − Y )2 ,
N −1
k∈U
Demostración
( )
1 X
E(s2y ) = E (yk − Yb π )2
n−1
k∈S
XX
1
= E (yk − y` )2
2n(n − 1)
k∈S `∈S
`6=k
1 XX
= (yk − y` )2 E (Ik I` )
2n(n − 1)
k∈U `∈U
`6=k
1 XX n(n − 1)
= (yk − y` )2
2n(n − 1) N (N − 1)
k∈U `∈U
`6=k
1 XX
= (yk − y` )2
2N (N − 1)
k∈U `∈U
`6=k
= Sy2 .
8
Algorítmo 1
La varianza de Yb CR es
m m
1 X 1 X 2 σy2
V ar(Yb CR ) = 2 V ar(e
yi ) = 2 σy = . (2.6)
m i=1 m i=1 m
y puede estimarse por
m
1 X
se2y = yi − Yb CR )2 .
(e
m − 1 i=1
La varianza del estimador de la media puede estimarse por
se2y
ar(Yb CR ) = .
Vd
m
9
2.5. Comparación de los planes simples
1X 1 X
Estimador de la media Yb SR = yk Yb CR = yk
n m
k∈S e
k∈S
³ ´ (N − n) 2 ³ ´ σy2
Varianza del estimador V ar Yb SR = Sy V ar Yb CR =
nN m
¡ ¢ ¡ 2¢
Esperanza de la varianza E s2y = Sy2 E sey = σy2
³ ´ (N − n) ³ ´ se2
ar Yb SR = ar Yb CR =
y
Estimador de la varianza Vd s2y Vd
nN m
Ejercicio 1
Seleccione una muestra de tamaño 4 en una población de tamaño 10 según un plan simple sin reemplazamiento
con el método de selección-rechazo. Use las realizaciones siguientes de una variable aleatoria uniforme [0, 1]
:
0, 375489 0, 624004 0, 517951 0, 0454450 0, 632912
0, 246090 0, 927398 0, 32595 0, 645951 0, 178048.
10
Capítulo 3
Estratificación
donde X
Yh = yk .
k∈Uh
H H
1 X 1 X X 1 X
Y = yk = yk = Nh Y h ,
N N N
k∈U h=1 k∈Uh h=1
2
Además, σyh representa la varianza del estrato h
2 1 X ¡ ¢2
σyh = yk − Y h
Nh
k∈Uh
2
y Syh la cuasivarianza
2 Nh
Syh = σ2 .
Nh − 1 yh
La varianza total σy2 se logra por
H H
1 X 1 X 1 X
σy2 = (yk − Y )2 = 2
Nh σyh + Nh (Y h − Y )2 . (3.1)
N N N
k∈U h=1 h=1
σy2 = σy(intra)
2 2
+ σy(inter)
11
2
donde σy(intra) es la varianza intra-estratos
H
2 1 X 2
σy(intra) = Nh σyh
N
h=1
2
y σy(inter) es la varianza inter-estratos
H
2 1 X
σy(inter) = Nh (Y h − Y )2 .
N
h=1
Sh representa la muestra aleatoria seleccionada en el estrato h con el plan ph (.), donde ph (sh ) = P r(Sh = sh ).
La muestra aleatoria total es
[H
S= Sh .
h=1
s1 s s
h H
12
3.3. Probabilidad de inclusión
Si la unidad k está en el estrato h,
nh
πk = , k ∈ Uh .
Nh
Para calcular las probabilidades de inclusión de segundo orden, tenemos que separar dos casos :
En el caso donde las unidades k y ` están en el mismo estrato
nh (nh − 1)
πk` = , k y ` ∈ Uh .
Nh (Nh − 1)
Se logra n N −n
h h h
si ` = k, k ∈ Uh
Nh Nh
∆k` = nh (Nh − nh ) (3.2)
− 2 si k y ` ∈ Uh , k 6= `
Nh (Nh − 1)
0 si k ∈ Uh y ` ∈ Ui , h 6= i.
El π-estimador
X yk H
X H
Nh X X
Ybestrat = = yk = Ybh ,
πk nh
k∈S h=1 k∈Sh h=1
y
H H
1 X yk 1 X Nh X 1 X
Yb strat = = yk = Nh Yb h .
N πk N nh N
k∈S h=1 k∈Sh h=1
Como la selecciones son independientes entre los estratos y que los planes son simples en los estratos :
ÃH !
³ ´ X XH ³ ´ X H
N h − nh 2
V ar Ybstrat = V ar Ybh = V ar Ybh = Nh Syh . (3.3)
nh
h=1 h=1 h=1
³ ´ XH
Nh − nh 2
Vd
ar Ybstrat = Nh syh , (3.4)
nh
h=1
donde X
1
s2yh = (yk − Yb h )2 , h = 1, ..., H.
nh − 1
k∈Sh
13
3.4. Plan estratificado con afijación proporcional
Un plan estratificado tiene una afijación proporcional, si
nh n
= , h = 1, ..., N.
Nh N
Suponemos que nh = nNh /N son enteros. El estimador del total es
H
X N X
Ybprop = Ybh = yk ,
n
h=1 k∈S
y el estimador de la media
H
1 X 1X
Yb prop = Nh Yb h = yk ,
N n
h=1 k∈S
2 2
Si N es grande, Syh ≈ σyh .
H 2
N −n X N − n σy(intra)
V ar(Yb prop ) ≈ Nh σ 2
yh = . (3.7)
nN 2 N n
h=1
N − n σy2
V ar(Yb srs ) ≈ . (3.8)
N n
La varianza del estimador de la media puede estimarse por :
H
N −n X
ar(Yb prop ) =
Vd Nh s2yh , (3.9)
nN 2
h=1
donde X
1
s2yh = (yk − Yb h )2 , h = 1, ..., H.
nh − 1
k∈Sh
14
en n1 , ..., nh , ..., nH sujeta a que
H
X
nh = n. (3.11)
h=1
∂L N2 2
= − 2h Syh + λ = 0, h = 1, ..., H, (3.12)
∂nh nh
y
H
∂L X
= nh − n = 0. (3.13)
∂λ
h=1
Luego
Nh
nh = √ Syh , h = 1, ..., H. (3.14)
λ
y
H
X PH
h=1Nh Syh
nh = n = √ .
h=1
λ
Obtenemos PH
√ Nh Syh
h=1
λ= . (3.15)
n
y finalmente
nNh Syh
nh = P H , h = 1, ..., H. (3.16)
h=1 Nh Syh
Nota
Hay un problema de redondeo,
Se puede obtener nh > Nh .
Syh
nh = √ , h = 1, 2,
λ
donde λ es el multiplicador de Lagrange. Como n1 + n2 = n, se logra
nSyh
nh = , h = 1, 2.
Sy1 + Sy2
15
3.7. Optimalidad y coste
El problema es estimar un total Y para un coste fijado C. Minimizamos la expresión (3.10) sujeta a que
H
X
nh Ch = C,
h=1
De (3.10),
H
X Nh − nah 2
V ar(Ybstrat ) = Nh Syh . (3.18)
nah
h=1
Buscamos entonces un valor mínimo de (3.18) en a1 , ..., aH , para un valor fijado V ar(Ybstrat ) representado
por V . Sustituyendo (3.18) en V ar(Ybstrat ) por V , se logra
H H
1 X Nh2 2 X
V = Sh − Nh Sh2 ,
n ah
h=1 h=1
h=1 ah Sh
n= PH . (3.19)
V + 2
h=1 Nh Sh
Entonces minimizamos PH 2
Nh 2
h=1 ah Sh
n= PH . (3.20)
V + 2
h=1 Nh Sh
en a1 , ..., aH , sujeta a que
H
X
ah = 1,
h=1
16
Se logra el mismo tipo de afijación . Finalmente se puede fijar el tamaño de la muestra
³P ´2
H
h=1 Nh Syh
n∗ = PH .
V + 2
Nh Syh
h=1
Ejercicio 2
Queremos estimar medias para las empresas de un departamento. Las empresas son clasificadas según el
volumen de negocios y son clasificadas en tres clases. Los datos de un censo son los siguientes :
Volumen de negocios Número de empresas
de 0 a 1 1000
de 1 a 10 100
de 10 a 100 10
Se quiere seleccionar una muestra de 111 empresas. Si se supone que la distribución es uniforme en cada
estrato, calcule la varianza del estimador de la media del volumen de negocios para un plan con representación
proporcional y para un plan estratificado óptimo.
17
Capítulo 4
X M X
X M
X
Y = yk = yk = Yi
k∈U i=1 k∈Ui i=1
y la media
M M
1 X 1 XX 1 X
Y = yk = yk = Ni Y i ,
N N i=1 N i=1
k∈U k∈Ui
1 X
Yi = yk , i = 1, ..., M.
Ni
k∈Ui
2
Además, σyi representa la varianza del conglomerado i
2 1 X¡ ¢2
σyi = yk − Y i
Ni
k∈Ui
2
y Syi la varianza corregida
2 Ni
Syi = σ2 .
Ni − 1 yi
Un plan es por conglomerados si
18
se selecciona una muestra de conglomerados sI con un plan pI (sI ), SI representa la muestra aleatoria
tal que P r(SI = sI ) = pI (sI ) y m = #SI , el número de conglomerados seleccionados.
Todas las unidades de los conglomerados seleccionados son observadas :
El tamaño de S es X
n= Ni .
i∈SI
πk = πIi , k ∈ Ui .
Para las probabilidades de inclusión del segundo orden hay que separar dos casos :
Si k y ` están en el mismo conglomerado i,
πk` = πIi , k y ` ∈ Ui .
πk` = πIij , k ∈ Ui y ` ∈ Uj , i 6= j.
19
y
1 X Ni Y i
Yb π = .
N πIi
i∈SI
La varianza
XM XM X M
Yi2 Yi Yj
V ar(Ybπ ) = (1 − πIi ) + (πIij − πIi πIj ). (4.1)
π
i=1 Ii
π π
i=1 j=1 Ii Ij
j6=i
Estimación de la varianza
X Y2 X X Yi Yj πIij − πIi πIj
Vd
ar(Ybπ )1 = i
2 (1 − πIi ) + . (4.3)
πIi πIi πIj πIij
i∈SI i∈SI j∈SI
j6=i
Cuando el número de conglomerados seleccionados es fijo, se puede construir otro estimador de esta varianza
mediante (4.2)
µ ¶2
1 X X Yi Yj πIi πIj − πIij
Vdar(Ybπ )2 = − .
2 πIi πIj πIij
i∈SI j∈SI
j6=i
donde P
j∈S cIj Yj /πIj
Yc∗
i = πIi P ,
j∈S cIj
y donde
m
cIi = (1 − πIi ).
m−1
En los planes por conglomerados, el estimador de Horvitz-Thompson tiene una mala propiedad.
Si la variable es constante (yk = C, para todos k ∈ U ), se logra
1 X Ni
Yb π = C .
N πIi
i∈SI
20
El tamaño de la muestra es aleatorio. Su esperanza es
à !
X X m Nm
E (nS ) = E Ni = Ni = ,
M M
i∈SI i∈UI
y de la media
M X
Yb π = Ni Y i .
Nm
i∈SI
La varianza es
M µ ¶2
M −mM X Y
V ar(Yb ) = Yi − , (4.5)
M − 1 m i=1 M
y puede estimarse sin sesgo por
à !2
M −mM X Yb
Vd
ar(Yb ) = Yi − . (4.6)
m−1 m M
i∈SI
21
Figura 4.2: Plan bietápico
U1 U2 U3 U 4 U 5 Ui-1 Ui Ui+1 UM-2 U U
M-1 M
22
Si dos unidades k y ` están en la misma unidad primaria Ui ,
XM X M
Yi Yj
VU P = ∆Iij ,
π π
i=1 j=1 Ii Ij
Demostración
La varianza se divide en dos partes :
h i h i h i
V ar Ybπ = V arE Ybπ |SI + EV ar Ybπ |SI .
Luego " #
h i X Yi XM X M
Yi Yj
V arE Ybπ |SI = V ar = ∆Iij .
πIi π π
i=1 j=1 Ii Ij
i∈SI
23
La esperanza de la varianza condicional es
" ¯ #
h i X Ybi ¯¯
EV ar Ybπ |SI = EV ar ¯ SI .
πIi ¯
i∈SI
Luego, h i h i
h i X V ar Ybi XM V ar Y bi
EV ar Ybπ |SI = E 2
= ,
πIi i=1
πIi
i∈SI
h i
donde V ar Ybi es dado en (4.9). 2
(con πIii = πIi ,) V̂U S es la parte de la varianza que se refiere a las unidades secundarias
X Vd
ar(Ybi )
V̂U S = ,
πIi
i∈SI
y
X X yk y` ∆k`|i
Vd
ar(Ybi ) = ,
πk|i π`|i πk`|i
k∈Si `∈Si
con πkk|i = πk|i .
Demostración
Como
h i ½
V ar(Ybi ) + Yi2 si i = j
E Ybi Ybj |SI =
Yi Yj si i =
6 j,
¯
X X Ybi Ybj ∆Iij ¯¯
E[V̂U P ] = EE ¯ SI
πIi πIj πIij ¯¯
i∈SI j∈SI
X X Yi Yj ∆Iij X V ar(Ybi )
= E + 2 (1 − πIij )
πIi πIj πIij πIi
i∈SI j∈SI i∈SI
M X
X M M
X µ ¶
Yi Yj 1
= ∆Iij + V ar(Ybi ) −1 .
i=1 j=1
πIi πIj i=1
πIij
24
De otra parte
" ¯ #
X Vd ar(Ybi ) ¯¯
E[V̂U S ] = EE ¯ SI
πIi ¯
i∈SI
" #
X V ar(Ybi )
= E
πIi
i∈SI
M
X
= V ar(Ybi )
i=1
M
X M
X µ ¶
V ar(Ybi ) b 1
= + V ar(Yi ) 1 − .
i=1
πIi i=1
πIi
Entonces tenemos
E[V̂U P ] + E[V̂U S ] = V ar[Ybπ ].
2
Es importante ver que V̂U P es un estimador sesgado de VU P y que V̂U S es un estimador sesgado de VU S . El
estimador V̂U P sobrestima VU P y prácticamente V̂U P es a veces más grande V̂U S .
De nuevo, hay un estimador más práctico, pero sesgado
X cIi µ ¶2 X
1 X ck|i ³ ´2
Vd ar2 (Ybπ ) = Ybi − Yc
c∗ + yk − ybk∗ , (4.10)
2 i 2
πIi πIi πk|i
i∈SI i∈SI k∈Si
donde P b
c∗ j∈S cIj Yj /πIj
Yci = πIi P ,
j∈S cIj
m
cIi = (1 − πIi ) ,
m−1
P
ck|i yk /πk|i
ybk∗ = πk|i k∈SPi ,
k∈Si ck|i
ni
ck|i = (1 − πk|i ) .
ni − 1
25
donde à !2
1 X Ybπ
s2I = Ybi − ,
m−1 M
i∈SI
y
à !2
1 X Ybi
s2i = yk − .
ni − 1 Ni
k∈Si
Se puede coger tamaños de muestras de unidades secundarios proporcionales a los tamaños de la población
Ni
ni = n0 ,
N
Se logra
n0
πk|i = , k ∈ Ui .
N
Al final, la probabilidad de inclusión para todo el diseño muestral
n0 mNi
πk = .
MN
Este plan tiene problemas importantes. El tamaño de la muestra nS es aleatorio, y es de media
à ! à !
X X Ni X Ni m mn0 Ni
E (nS ) = E ni = E n0 = n0 = .
N N M N
k∈SI k∈SI k∈UI
26
Usando exactamente el mismo desarrollo que por los planes bietápicos, la varianza del estimador de Horvitz-
Thompson es
XM X M XM
Yi Yj V ar(Ybi )
V ar(Ybπ ) = ∆Iij , + ,
π π
i=1 j=1 Ii Ij i=1
πIi
o por
X cIi µ ¶2 X d b
V ar(Yi )
Vd
ar2 (Ybπ )2 = Ybi − Yc
c∗ + ,
2 i
πIi πIi
i∈SI i∈SI
donde P
j∈S cIj Yj /πIj
Yc
i
∗ = πIi P ,
j∈S cIj
y donde
m
cIi = (1 − πIi ) .
m−1
Conclusión : la expresión es recursiva
El estimador de Horvitz-Thompson y su estimador de varianza se escribe como una función del estimador
del total y del estimador de la varianza calculada al nivel inferior.
³ ´
Ybπ = T Ybi , πIi , i ∈ SI ,
y ³ ´
Vd
ar(Ybπ ) = Q Ybi , Vd
ar(Ybi ), πIi , i ∈ SI .
El estimador Vd
ar(Ybi ) puede igualmente escribirse como una función de las etapas inferiores.
πak = P r (k ∈ Sa ) ,
πk = πak E(πbk ).
27
Pero esta probabilidad no puede ser calculada. Se estima el total por
X yk
YbE = ,
πak πbk
k∈Sb
que no es el estimador de Horvitz-Thompson, en efecto no se divide los yk por las probabilidades de inclusión.
Este estimador se llama : estimador por expansión. Es insesgado. En efecto,
à ¯ ! à !
³ ´ X yk ¯¯ X yk
E YbE = EE ¯ Sa = E .
πak πbk ¯ πak
k∈Sb k∈Sb
28
Capítulo 5
X
X= xk = 300,
k∈U
y entonces
nx1 1 nx2 9 nx3 1 nx4 7 nx5 9 nx6 6
= , = , = , = , = , = > 1.
X 100 X 100 X 10 X 10 X 10 X 5
La unidad 6 es seleccionada (con una probabilidad 1). Luego, volvemos a calcular las probabilidades de
inclusión X
xk = 180,
k∈U \{6}
29
y entonces
(n − 1)x1 1 (n − 1)x2 1 (n − 1)x3 1
P = ,P = ,P = ,
x
`∈U \{6} ` 90 x
`∈U \{6} ` 10 x
`∈U \{6} ` 9
(n − 1)x4 7 (n − 1)x5
P = ,P = 1.
x
`∈U \{6} ` 9 `∈U \{6} x`
Como · ¸ X
ỹi yk
E = pk = Y,
pi pk
k∈U
Varianza : Ã ! µ ¶2
1 X y2 1 X yk
V ar[YbHH ] = k
− t2y = pk −Y , (5.3)
m pk m pk
k∈U k∈U
30
5.4. Plan de Poisson
Cada unidad de U es seleccionada de manera independiente con una probabilidad de inclusión πk .
πk` = πk π` ,
sujeta a que X X
p(s) = πk , y p(s) = 1. (5.7)
s3k s∈Sn
s∈Sn
P
exp λk
k∈s
p(s) = P P
s∈Sn exp k∈s λk
Un algoritmo (ver Chen y Dempster, y Deville) permite calcular los πk a partir de los λk .
Sea
k
X
Vk = π` , para todos k ∈ U, con Vo = 0. (5.8)
`=1
31
- la segunda unidad seleccionada es tal que Vk2 −1 ≤ u + 1 < Vk2 y
- la jésima unidad seleccionada es tal que Vkj −1 ≤ u + j − 1 < Vkj .
Ejemplo 2. N = 6 y n = 3
π1 = 0, 2, π2 = 0, 7, π3 = 0, 8, π4 = 0, 5, π5 = π6 = 0, 4,
V1 = 0, 2, V2 = 0, 9, V3 = 1, 7, V4 = 2, 2, V5 = 2, 6, V6 = 3.
u = 0, 3658,
Las unidades 2, 3 y 5 son seleccionadas.
0 1 2 3
u u +1 u +2
32
π1
..
.
πk
.
..
πN
© HH
©
λ ©© HH 1−λ
©©
HH
© HH
¼©
© H
j
(1)
(2)
π1 π1
. .
.. ..
(1) (2)
πk πk
.. ..
. .
(1) (2)
πN πN
El problema es reducido a otro problema de muestreo con probabilidades desiguales. Si la escisión es tal
(1) (2)
que uno o algunos de los πk y de los πk son iguales a 0 o 1, el problema de muestreo será más simple en
la próxima etapa porque la escisión es aplicada a una población más pequeña.
0 ≤ λj ≤ 1 (j = 1, ..., M ),
M
X (j)
λj πk = πk ,
j=1
(j)
0≤ πk
≤ 1 (k ∈ U, j = 1, ..., M ),
X (j)
πk = n (j = 1, ..., M ).
k∈U
(j)
El método consiste en seleccionar uno de los vectores πk con probabilidades λj (j = 1, ..., M ). De nuevo,
(j)
los πk son tales que el problema de muestreo será más simple en la próxima etapa.
33
π1
..
.
πk
.
..
πN
© HHH
©
λ1 © © λj H λ
© HH M
© © HH
¼©
© ? H
j
(1)
(i)
(M )
π1 π1 π1
. . .
.. .. ..
(1) (i) (M )
πk ... πk ... πk
.. .. ..
. . .
(1) (i) (M )
πN πN πN
π(k)
1−λ if k ≤ N − n
(2)
π(k) =
π(k) − λ
if k > N − n.
1−λ
(1 − 0, 59) × 0, 585 = 0, 24; p({2, 3, 6}) = (1 − 0, 59 − 0, 24) × 0, 471 = 0, 08; p({1, 2, 3}) = (1 − 0, 59 − 0, 24 −
0, 08) × 0, 778 = 0, 07; p({2, 3, 4}) = 1 − 0, 59 − 0, 24 − 0, 08 − 0, 7 = 0, 02.
El diseño muestral viene dado por p({4, 5, 6}) = 0,59, p({3, 5, 6}) = (1−0,59)×0,585 = 0,24, p({2, 3, 6}) =
(1 − 0,59 − 0,24) × 0,471 = 0,08, p({1, 2, 3}) = (1 − 0,59 − 0,24 − 0,08) × 0,778 = 0,07, p({2, 3, 4}) =
(1 − 0,59 − 0,24 − 0,08 − 0,7) = 0,02.
34
5.7.4. Escisión en planes simples
Este método permite separar el vector de probabilidades de inclusiones en dos partes. Definimos
½ ¾
N N
λ = mı́n π(1) , (1 − π(N ) ) , (5.12)
n N −n
y calculamos, para k ∈ U,
n
(1) n (2) πk − λ N
π(k) = , π(k) = .
N 1−λ
(2) (2)
Si λ = π(1) N/n, entonces π(1) = 0; si λ = (1 − π(N ) )N/(N − n), entonces π(N ) = 1. En la próxima etapa, el
problema se reduce en la selección de una muestra de tamaño n − 1 o n en una población de tamaño N − 1.
En N − 1 etapas, el problema es reducido.
Ejemplo 2 Con los mismos πk que en el ejemplo 1, el resultado del método viene dado en la Tabla 2. El
problema consiste finalmente en seleccionar uno de los 6 planes simples definidos en las columnas de la Tabla
3. λ1 = 0,14, λ2 = (1 − 0,14) × 0,058 = 0,050, λ3 = (1 − 0,14) × (1 − 0,058) × 0,173 = 0,14, λ4 = (1 − 0,14) ×
(1 − 0,058) × (1 − 0,173) × 0,045 = 0,03, λ5 = (1 − 0,14) × (1 − 0,058) × (1 − 0,173) × (1 − 0,045) × 0,688 = 0,44,
λ6 = (1 − 0,14) × (1 − 0,058) × (1 − 0,173) × (1 − 0,045) × (1 − 0,688) = 0,200.
k λ1 = 0, 14 λ2 = 0, 050 λ3 = 0, 14 λ4 = 0, 03 λ5 = 0, 44 λ6 = 0, 200
1 0, 5 0 0 0 0 0
2 0, 5 0, 6 0, 5 0 0 0
3 0, 5 0, 6 0, 5 0, 667 0, 5 0
4 0, 5 0, 6 0, 5 0, 667 0, 5 1
5 0, 5 0, 6 0, 5 0, 667 1 1
6 0, 5 0, 6 1 1 1 1
35
Por otra parte, si πi + πj < 1, entonces
πi
λ= ,
πi + πj
πk k ∈ U \{i, j}
(1)
πk = πi + πj k=i
0 k = j,
πk k ∈ U \{i, j}
(2)
πk = 0 k=i
πi + πj k = j.
(N )−1
X πz (n − πz ) πj (n − πj )
λj = .
z=1
1 − πz 1 − πj
Luego, calculamos
πk (n − 1)
(j) si k 6= j
πk = n − πj
1 si k = j.
La validez del método se deriva del resultado siguiente :
Teorema 5
N
X (j)
λj πk = πk ,
j=1
para todo k = 1, . . . , N,
N πk (1 − πk )
bk = .
(N − 1)
Estimación de la aproximación de la varianza
X ck
Vd
ar(Ybπ ) =
2
(yk − ŷk∗ ) .
πk2
k∈S
con P
`∈S c` y` /π`
yk∗ = πk P
`∈S b`
nπk (1 − πk )
ck = .
(n − 1)
36
Capítulo 6
Muestreo equilibrado
6.1. Introducción
Thionet (1953)
Royall y Herson (1973)
Deville, Grosbras y Roth (1988),
Ardilly (1991),
Hedayat y Majumdar (1995)
Brewer (1999)
Definición 2 Un diseño muestral p(s) es equilibrado sobre las variables x1 , ..., xp , si verifica las ecuaciones
de equilibrio dadas por
Xb π = X, (6.1)
lo que se puede también escribir X xkj X
= xkj ,
πk
k∈s k∈U
para toda s ∈ S tal que p(s) > 0, y para todos j = 1, ..., p, o con otras palabras
³ ´
V ar Xb π = 0.
37
6.2. Representación por un cubo
Representación geométrica de un diseño muestral.
(111)
(011)
(010)
(110)
(101)
(000) (100)
El problema
Se elige un vértice del N -cubo (una muestra) que queda en el subespacio Q.
Si C representa el N -cubo en RN . Los vértices del N -cubo son las muestras de U , la intersección entre
C y Q es no-vacio, porque π es en el interior de C y pertenecen a Q.
La intersección entre el N -cubo està un subespacio lineal define un poliedro convexo K que es definido
por © ª
K = C ∩ Q = [0, 1]N ∩ (π + Ker A)
y tiene la dimensión N − p.
38
Ejemplo 6.
π1 + π2 + π3 = 2. P
xk = πk , k ∈ U y k∈S ck = 2.
(111)
(011)
(010) (110)
(101)
(000) (100)
Ejemplo 7.
6 × π2 + 4 × π3 = 5.
x1 = 0, x2 = 6 × π2 y x3 = 4 × π3 .
6c2 + 4c3 = 5.
(111)
(011)
(010) (110)
(101)
(000) (100)
Ejemplo 8.
π1 + 3 × π2 + π3 = 4.
39
(111)
(011)
(010)
(110)
(101)
(000) (100)
Figura 6.4: Algunos vértices de K son vértices del cubo y otros no le son
x1 = π1 , x2 = 3 × π2 y x3 = π3 .
c1 + 3c2 + c3 = 4.
40
6.6. Método simple.
Definimos un vector v(t) = [vk (t)].
−
X X
vk (t) − a0k a` a0` a` v` (t) k ∈ Ut−1
uk (t) =
`∈Ut−1 `∈Ut−1
0 k∈/ Ut−1 ,
³P ´− P
donde Ut = {k ∈ U |0 < πk (t) < 1} y `∈Ut−1 a` a0` es una generalización de `∈Ut−1 a` a0` .
lo que es equivalente a buscar un diseño muestral que da una muestra s∗ ⊂ U ∗ tal que
X X
ak ≈ ak πk∗ ,
k∈s∗ k∈U ∗
donde s∗ = U ∗ ∩ s.
Como q = #U ∗ es inferior o igual a p,
Solución
Aplicación del algoritmo del símplex sobre el programa lineal,
X
mı́n C(s∗ )p(s∗ ),
p(.)
s∗ ⊂U ∗
sujeto a que X
p(s∗ ) = 1,
s∗ ⊂U
X
p(s∗ ) = πk , k ∈ U,
s∗ 3k
0 ≤ p(s∗ ) ≤ 1, s∗ ⊂ U,
donde C(s∗ ) es el coste asociado a la muestra s∗ . Este coste aumenta si las ecuaciones de equilibrio (6.1) no
se verifican.
donde
Ek = yk − x0k B.
41
Capítulo 7
donde los pesos wk (S) pueden depender de la información auxiliar disponible y de los datos observados.
7.1. Postestratificación
7.1.1. El problema y la notación
Holt y Smith (1979), Jagers (1986); Jagers, Oden y Trulsson (1985).
La variable auxiliar es cualitativa y puede coger H valores distintos.
Partición de la población U = {1, ..., k, ..., N } en H subconjuntos, Uh , h = 1, .., H, llamados postestratos, tal
que
H
[ \
Uh = U y Uh Ui = ∅, h 6= i.
h=1
El número de elementos del postestrato es Nh .
H
X
Nh = N.
h=1
y la media :
H H
1 X 1 X X 1 X
Y = yk = yk = Nh Y h ,
N N N
k∈U h=1 k∈Uh h=1
2
Además, σyh representa la varianza del postestrato h
2 1 X ¡ ¢2
σyh = yk − Y h ,
Nh
k∈Uh
42
2
y Syh la varianza corregida
2 Nh
Syh = σ2 .
Nh − 1 yh
La varianza total σy2 se obtiene a partir de la formula clásica de descomposición de varianza.
H H
1 X 1 X 1 X
σy2 = (yk − Y )2 = 2
Nh σyh + Nh (Y h − Y )2 . (7.2)
N N N
k∈U h=1 h=1
El sesgo se escribe
H
X
EE(Ybpost |nh , h = 1, ..., H) = E Y − Nh Y h
h=1
nh =0
H
X
= Y − Nh Y h P r[nh = 0].
h=1
43
Como los nh tienen una distribución geométrica,
µ ¶µ ¶
Nh N − Nh
r n−r
P r[nh = r] = µ ¶ , r = 0, ..., n,
N
n
se obtiene
(N − Nh )[n]
P r[nh = 0] = ,
N [n]
donde
N!
N [n] = = N × (N − 1) × ... × (N − n + 2) × (N − n + 1),
(N − n)!
lo que da finalmente
H
X (N − Nh )[n]
E(Ybpost ) = Y − Nh Y h ≈ Y.
h=1
N [n]
La varianza
Por (7.3),
V arE(Ybpost |nh , h = 1, ..., H) ≈ 0,
y entonces
V ar(Ybpost ) ≈ EV ar(Ybpost |nh , h = 1, ..., H). (7.4)
Condicionalmente a los nh , el plan es m.a.s. en cada postestrato.
La varianza condicional es entonces la misma que para un plan estratificado
H
X Nh − nh 2
V ar(Ybpost |nh , h = 1, ..., H) = Nh Syh . (7.5)
nh
h=1
nh >0
La varianza no-condicional es
XH
N h − nh 2
V ar(Ybpost ) = E Nh Syh
nh
h=1
nh >0
H
X ½ µ ¶ ¾
1 2
≈ Nh Nh E − 1 Syh . (7.6)
nh
h=1
nh N nh
²=1− =1− ,
E(nh ) nNh
tenemos µ ¶ µ ¶
1 1 1
E = E .
nh E(nh ) 1−²
Cuando n es grande, podemos considerar que ² está cerca de cero y usar un desarrollo en serie.
µ ¶
1 1
E ≈ E(1 + ² + ²2 ).
nh E(nh )
Como
Nh Nh N − Nh N − n
E(nh ) = n y V ar(nh ) = n ,
N N N N −1
44
se obtiene
µ ¶ ( µ ¶ µ ¶2 )
1 1 nh N nh N
E ≈ E 1+ 1− + 1−
nh E(nh ) nNh nNh
½ 2
¾
N N V ar(nh )
= 1+0+
Nh n n2 Nh2
N (N − Nh )N N − n
= + . (7.7)
Nh n Nh2 n2 (N − 1)
Esta varianza se compone de dos partes. La primera es igual a la varianza del estimador de Horvitz-Thompson
para el plan estratificado con afijación proporcional.
( H
)−1
V ar(Ybpost ) N −n X 2
= Nh Syh
V ar(Ybprop ) n
h=1
( H H
)
N −n X 2 (N − n)N 2 X N − Nh 2
× Nh Syh + 2 Syh
n n (N − 1) N
h=1 h=1
ÃH !−1 H
N X Nh X N − Nh
2 2
= 1+ Syh Syh
n(N − 1) N N
h=1 h=1
−1
= 1 + O(n ).
El estimador lineal es X
Ybw = wk (S)yk , (7.10)
k∈S
donde los pesos wk (S) dependen de los nhi y de los totales marginales de la población Nh. y Nh. .
45
Cuadro 7.1: Frecuencias según dos variables
Buscamos una tabla que està próxima a la tabla de los ahi Con las márgenes bh. , h = 1, ..., H, y b.i , i = 1, ..., I.
Inicialización
(0)
bhi = ahi , h = 1, ..., H, i = 1, ..., I.
Luego se repite los dos afijaciones siguientes para j = 1, 2, 3, ....
46
El algoritmo puede verse como un problema de optimización donde se minimiza la entropía.
Se busca la tabla de los bhi que minimiza
H X
X I
bhi
bhi log ,
ahi
h=1 i=1
sujeta a que
I
X
bhi = bh. , h = 1, ..., H, (7.11)
i=1
y
H
X
bhi = b.i , i = 1, ..., H. (7.12)
h=1
L(bhi , λh , µi )
H X
I H
à I
!
X bhi X X
= bhi log + λh bhi − bh.
ahi
h=1 i=1 h=1 i=1
I
ÃH !
X X
+ µi bhi − b.i .
i=1 h=1
donde
1 X
Yˆ hi = yk
nhi
k∈Shi
T
y Shi = Uhi S.
El estimador es entonces linear y puede escribirse
X
Yb = wk (S)yk ,
k∈S
donde
bChi
N
wk (S) = , k ∈ Uhi .
nhi
Los pesos wk (S) son funciones no-lineales de los nhi y de los márgenes conocidos.
47
7.3. La variable auxiliar es cuantitativa
7.3.1. El problema
Supongamos que el total X de la variable auxiliar x es conocido,
X
X= xk ,
k∈U
donde x1 , ..., xk , ..., xN son los N valores tomados por la variable x sobre las unidades de U . Queremos
estimar X
Y = yk ,
k∈U
7.3.2. Notación
X = N −1 X y Y = N −1 Y representan las medias de las variables x y y en la población. Las varianzas
corregidas son
1 X
Sy2 = (yk − Y )2
N −1
k∈U
y
1 X
Sx2 = (xk − X)2 .
N −1
k∈U
y
1 X
Sxy = (xk − X)(yk − Y ),
N −1
k∈U
y
X
bπ = N
X b
xk = N X,
n
k∈S
donde
1X
Yb = yk
n
k∈S
y
b = 1 Xx .
X k
n
k∈S
Tenemos igualmente
1 X
s2y = (yk − Yb )2 ,
n−1
k∈S
1 X b 2
s2x = (xk − X)
n−1
k∈S
y
1 X b b
sxy = (xk − X)(yk − Y ).
n−1
k∈S
48
7.3.3. Estimación de diferencia
El estimador de diferencia viene dado por
YbD = Ybπ + X − X
bπ .
N (N − n) ¡ 2 ¢
Vd
ar(YbD ) = sy + s2x − 2sxy .
n
X Ybπ
Ybregr = .
Xbπ
Ybπ Ybπ − rX
bπ
YbR − Y = X −Y =X ,
Xbπ bπ
X
donde
Y
r= .
X
Si
bπ − X
X
²= ,
X
se puede escribir
Ybπ − rX
bπ
YbR − Y = .
1+²
Con un desarrollo de YbR − Y , se logra
YbR − Y = (Ybπ − rX
bπ )(1 − ² + ²2 − ²3 + ...)
≈ (Ybπ − rX
bπ )(1 − ²)
à !
Xbπ − X
≈ (Ybπ − rX
bπ ) 1 − . (7.15)
X
49
Si se supone que ² es pequeño cuando n es grande, se logra una aproximación del sesgo de este estimador
à !
bπ − X
X
E(YbR − Y ) ≈ E(Ybπ − rX bπ ) 1 −
X
≈ E(Ybπ − rXbπ )
n o n o
E Ybπ (Xbπ − X) − rE X bπ (X
bπ − X)
−
X
rV ar(Xbπ ) − Cov(X
bπ , Ybπ )
≈
X
N (N − n) rSx2 − Sxy
≈ .
n X
La esperanza del estimador de razón es entonces dada por
N − n rSx2 − Sxy
E(YbR − Y ) + Y ≈ Y + .
n X
El sesgo es despreciable cuando n es grande.
≈ V ar(Ybπ ) + r2 V ar(X
bπ ) − 2rCov(X bπ , Ybπ )
N (N − n) ¡ 2 ¢
≈ Sy + r2 Sx2 − 2rSxy .
n
Este error cuadrático medio puede estimarse por
¡ ¢
\ (YbR ) = N (N − n) s2y + r̂2 s2x − 2r̂sxy ,
ECM
n
donde
Ybπ
r̂ = .
Xbπ
donde
sxy
b̂ = ,
sx2
1 X b
sxy = (xk − X)yk.
n−1
k∈S
N 1 b
wk (S) = + bπ ) (xk − X) , k ∈ U.
(X − X
n n−1 s2x
50
No es posible calcular exactamente la esperanza matemática y la varianza del estimador de regresión. Pero,
donde
Sxy
b= .
Sx2
Si se suprime el último termino de la expresión (7.16),
Tenemos entonces n o
E(Ybregr ) ≈ E Ybπ + b(X − X
bπ ) ≈ Y
y
n o2
ECM (Ybregr ) ≈ E Ybπ + b(X − X
bπ ) − Y
N (N − n) ¡ 2 ¢
≈ Sy − 2bSxy + b2 Sx2
n
N (N − n) 2 ¡ ¢
≈ S y 1 − ρ2 ,
n
donde
Sxy
ρ= .
Sx Sy
Este error cuadrático medio puede estimarse por
¡ ¢
\ (Ybregr ) = N (N − n) s2y 1 − ρ̂2 ,
ECM
n
donde
sxy
ρ̂ = .
sx sy
La estimación de regresión puede ser generalizada al uso de varias variables auxiliares
N X
estimador HT Ybπ = yk Sy2
n
k∈S
de diferencia YbD = Ybπ + X − Xbπ Sy2 + Sx2 − 2Sxy
51
7.3.8. Comparación del estimador de diferencia y del estimador de Horvitz-
Thompson
V ar(Ybπ ) − V ar(YbD )
N (N − n) 2 N (N − n) © 2 ª
= Sy − Sy + Sx2 − 2Sxy
n n
N (N − n) © ª
= 2Sxy − Sx2 .
n
El estimador de diferencia es entonces mejor que el estimador de Horvitz-Thompson cuando
es decir, cuando
r r
b> si r > 0 y b < si r < 0.
2 2
es decir cuando
2(1 − r)b > (1 − r2 ).
52
ECM (YbD ) − ECM (YbRY )
N (N − n) 2 N (N − n)
≈ (Sy + Sx2 − 2Sxy ) − (1 − ρ2 )Sy2
n n
N (N − n) Sxy 2
≈ (Sx − ) ≥ 0,
n Sx
y
53
Capítulo 8
54
lo que da X X
ck xk yk = ck xk x0k b.
k∈U k∈U
Si X
T= ck xk x0k
k∈U
y X
t= ck xk yk
k∈U
y X ck xk yk
b
t= ,
πk
k∈S
donde
1 n b π )0 T
o
b −1 ck xk .
wk (S) = 1 + (X − X
πk
Otra presentación viene dada por
Ybgreg = b + Ybπ − X
X0 b b0 b b
π
X ek
= b+
X0 b ,
πk
k∈S
donde
b
ek = yk − x0k b.
Los ek son los residuos : las diferencias entre los valores observados y los valores predichos. En algunos casos
X ek
πk
k∈S
55
Demostración
X ek X 1 ³ ´
= b
yk − x0k b
πk πk
k∈S k∈S
X 1 ³ 0
´
= b
yk − ck λ xk x0k b
πk
k∈S
X ck λ0 xk x0
k b −1b
= Ybπ − T t
πk
k∈S
0
X ck xk yk
= Ybπ − λ
πk
k∈S
= Ybπ − Ybπ
= 0.
2
En el caso donde la condición suficiente del teorema 6 es verificada, el estimador de regresión puede escribirse
simplemente
b
Ybgreg = X0 b.
El estimador es
bj,greg = X
X b π + (X − X b=X
b π )0 b bjπ + (Xj − X
bjπ ) = X .
j j
y por (8.2)
b b
b π ) Yπ = X Yπ ,
Ybgreg = Ybπ + (X − X (8.3)
Xbπ bπ
X
que es el estimador de razón.
56
Ybπ
X
t= N
b
xk yk ,
n
k∈S
N X 2 N X
n b
Yπ xk − b
X π xk y k
b −1b
T t= 2 2 n n ,
N sx (n − 1) k∈S k∈S
2
N sxy
donde à !
n 1X 2 X b2
s2x = xk − π2 ,
n−1 n N
k∈S
y à !
n 1X bπ Ybπ
X
sxy = xk yk − .
n−1 n N2
k∈S
b xπ = (0, X − X
Como X − X bπ )0 , tenemos finalmente
³ ´0 ³ ´
Ybgreg = Ybπ + X − X bπ T b −1b bπ sxy ,
t = Ybπ + X − X
s2x
que es el estimador de regresión clásico.
Como existe une infinidad de pesos wk que verifican la relación (8.4), vamos a buscar pesos próximos a los
pesos πk−1 del estimador de Horvitz-Thompson , lo que va dar un pequeño sesgo.
Definimos
1
dk = , k ∈ S,
πk
El objetivo consiste entonces en la búsqueda a los pesos wk próximos de los dk que verifican la calibración.
Pseudo-distancia Gk (wk , dk ), (la simetría no es requerida.)
Gk (wk , dk ) es positiva, derivable con respecto a wk estrictamente convexa, tal que Gk (dk , dk ) = 0.
Los pesos wk , k ∈ S, se logran minimizando
X Gk (wk , dk )
qk
k∈S
L(wk , k ∈ S, λj , j = 1, ..., J)
J
( )
X Gk (wk , dk ) X X
= − λj wk xkj − Xj ,
qk j=1
k∈S k∈S
57
donde los λj son los multiplicadores de Lagrange.
J
∂L(wk , k ∈ S, λj , j = 1, ..., J) gk (wk , dk ) X
= − λj xkj = 0, (8.5)
∂wk qk j=1
donde
∂Gk (wk , dk )
gk (wk , dk ) = .
∂wk
Como Gk (., dk ) es estrictamente convexo y positivo y
Gk (dk , dk ) = 0,
Según los diferentes valores de α, logramos varias pseudo-distancias. Les distancias más usadas son los casos
α = 2 (khi-cuadrado) y α = 1 (entropía).
58
Cuadro 8.1: Pseudo-distancias para la calibración
(wk −dk )2 wk
2 2dk dk −1 1 + qk u Khi-cuadrado
wk wk
1 wk log dk + dk − wk log dk exp(qk u) Entropía
√ √ ³ q ´
1/2 2( wk − dk )2 2 1 − wdkk (1 − qk u/2)−2 Distancia de Hellinger
dk dk
0 dk log wk + wk − dk 1− wk (1 − qk u)−1 Entropía Inversa
³ ´
(wk −dk )2 d2k
−1 2wk 1− wk2 /2 (1 − 2qk u)−1/2 Khi-cuadrado inverso
25
20
15
10
0
0 10 20 30 40
(wk − dk )2
G2 (wk , dk ) = ,
2dk
obtenemos una función lineal
Fk (u) = 1 + qk u.
Las ecuaciones de calibración son
à J
!
X X
Xj = xkj dk 1 + qk λi xki , j = 1, ..., J,
k∈S i=1
59
3
-1
0 10 20 30 40
-2
-4
-4 -2 0 2 4
Si cogemos qk = ck , k ∈ U .
60
14
12
10
0 10 20 30 40
-1
-2
-3
-4
-5
-6
-5 0 5 10 15 20 25 30
70
60
50
40
30
20
10
0
-4 -2 0 2 4
61
donde βj = exp λj . Los βj son calculados mediante la ecuación
X Y
dk xkj βi = Xj , j = 1, ..., J.
k∈S i|Ui 3k
1.5
0.5
0 10 20 30 40
0.5
0.4
0.3
0.2
0.1
-0.1
0 10 20 30 40
2.5
1.5
0.5
0
-4 -2 0 2 4
62
donde
wk wk H −L
ak = − L, bk = H − ,A = .
dk dk (1 − L)(H − 1)
Obtenemos
L(H − 1) + H(1 − L) exp(Aqk u)
Fk (u) = .
H − 1 + (1 − L) exp(Aqk u)
Tenemos Fk (−∞) = L, Fk (∞) = H. Los pesos obtenidos estan entonces siempre en el intervalo [Ldk , Hdk ].
20
15
10
0 10 20 30 40
-1
0 10 20 30 40
2.5
1.5
0.5
0
-4 -2 0 2 4
(wk − dk )2
Ldk < wk < Hdk
G(wk , dk ) = dk
∞ sino.
63
Obtenemos una función lineal truncada
1 + qk u si (L − 1)/qk ≤ u ≤ (H − 1)/qk
Fk (u) = H si u > (H − 1)/qk ≥ H
L si u < (L − 1)/qk ≤ L
64
Capítulo 9
Las funciones de interés estimadas por muestreo son a veces funciones mas complejas que simples totales,
por ejemplo coeficientes de regresión, de correlación, varianza, índices de desigualdades. Además, se usa
generalmente una información auxiliar para la calibración de los estimadores, lo que da una forma mas
compleja a los estimadores.
Es posible aproximar la varianza por las técnicas de linealización para estimar la precisión de estos
estimadores. Las técnicas de linealizsación han sido introducida por Woodruff (1971). Las aplicaciones en la
teoría de muestreo han sido desarrolladas por Binder (1983), Binder y Patak (1994), Wolter (1985), Deville
(1999).
Se escribe
fn = o (hn ) .
Definición 5 Una sucesión de números fn , n = 1, 2, ... està acotada por hn > 0, n = 1, 2, ..., si existe M > 0
tal que
| fn |≤ M hn ,
para todo n = 1, 2, .... Se escribe
fn = O (hn ) .
Se puede también definir el orden de magnitud en probabilidad.
Definición 6 Una sucesión de variables aleatorias Xn converge en probabilidad hacia una variable aleatoria
X si, para todo ² > 0,
lı́m P r [| Xn − X |> ²] = 0.
n→∞
Se escribe
p lı́m Xn = X,
n→∞
o mas simplemente
P
Xn −→ X.
65
La convergencia en probabilidad permite introducir la noción de orden de magnitud aleatoria :
Definición 7 Sea Xn una sucesión de variables aleatorias, Xn se dice que es inferior en probabilidad a
hn > 0, si
Xn
p lı́m = 0.
n→∞ hn
Se escribe
Xn = op (hn ) .
Definición 8 Sea Xn una sucesión de variables aleatorias, Xn se dice que està acotada por hn > o en
probabilidad por hn > 0 si para todo ² > 0, existe un número M² > 0 tal que
P r [| Xn |≥ M² hn ] ≤ ²,
Xn = op (hn ) e Yn = op (gn ),
Demostración
(i) Si Xn = op (hn ) e Yn = op (gn ), entonces
·¯ ¯ ¸
¯ Xn ¯
lı́m P r ¯¯ ¯ > ² = 0, (9.1)
n→∞ hn ¯
y ·¯ ¯ ¸
¯ Yn ¯
¯ ¯
lı́m P r ¯ ¯ > ² = 0.
n→∞ gn
para todo ² > 0. Lo que implica que
aXn = op (hn ).
(ii) Como ·¯ ¯ ¸ ·¯ ¯ ¸
¯ Xn ¯ ¯ X n ¯α
¯
Pr ¯ ¯ ¯
> ² = Pr ¯ ¯ α
>² ,
hn ¯ hn ¯
se obtiene | Xn |α = op (hαn ).
(iii) Luego, tenemos que, para todo ² > 0,
·¯ ¯ ¸ ·¯ ¯ ¸ ·¯ ¯ ¯ ¯ ¸
¯ Xn ¯ ¯ Yn ¯ ¯ Xn ¯ ¯ Yn ¯
Pr ¯ ¯ ¯ ¯ ¯
> ² + Pr ¯ ¯ > ² ≥ Pr ¯ ¯ ¯ > ² donde ¯ ¯>²
hn ¯ gn hn ¯ ¯ gn ¯
·¯ ¯ ¸
¯ Xn Yn ¯
≥ P r ¯¯ ¯ > ²2 ,
hn gn ¯
66
Teorema 8 Sean Xn y Yn los dos sucesiones de variables aleatorias, tales que
Xn = Op (hn ) e Yn = Op (gn ),
si a es un real y α > 0,
aXn = Op (hn ),
| Xn |α = Op (hα
n ),
Xn Yn = Op (hn gn ),
Xn + Yn = Op (máx(hn , gn )) .
Los demostraciones son similares a la precedente. 2
Teorema 9 Desigualdad de Bienaymé-Tchebychev (caso discreto) Sean α > 0 y X una variable
aleatoria discreta tal que E[X α ] < ∞, entonces para todo ² > 0 y para todo A ∈ R,
E [| X − A |α ]
P r [| X − A |≥ ²] ≤ .
²α
Demostración
Si se nota X1 , ..., Xi , ..., XI , a los valores posibles X, se puede escribir
I
X
E [| X − A |α ] = | Xi − A |α P r[X = Xi ]
i=1
I
X
= | Xi − A |α P r[X = Xi ]
i=1
|Xi −A|<²
I
X
+ | Xi − A |α P r[X = Xi ]
i=1
|Xi −A|≥²
I
X
≥ ²α P r[X = Xi ]
i=1
|Xi −A|≥²
α
= ² P r [| X − A |≥ ²] .
2
Teorema 10 Sea Xn una sucesión de variables aleatorias tal que
£ ¤
E Xn2 = O(hn ),
√
entonces Xn = Op ( hn ).
Demostración
£ ¤
Como E Xn2 = O(hn ) entonces existe un MA > 0 tal que
£ ¤
E Xn2 ≤ MA hn
√
para todo n. Por otro lado, con α = 2, A = 0, y ² = MB hn , por la desigualdad de Bienaymé-Tchébichev,
se tiene
h p i E £X 2 ¤
n
P r | Xn |≥ MB hn ≤ .
M B hn
Si tomamos, MB ≥ MA α, se tiene £ ¤
E Xn2 MA
= ≤ α,
M B hn MB
lo que da h i
p
P r | Xn |≥ MB hn ≤ α,
√
y entonces Xn = Op ( hn ). 2
67
Teorema 11 Sea Xn una sucesión de variables aleatorias tales que
£ ¤
E (Xn − E[Xn ])2 = O(hn ),
y que p
E [Xn ] = O( hn ),
√
entonces Xn = Op ( hn )
Demostración
Como £ ¤ £ ¤
E Xn2 = E (Xn − E[Xn ])2 + E[Xn ]2 = O(hn ),
el resultado viene del teorema 11. 2
Ejemplo 9. Sea X1 , ..., Xn , n variables independientes con la misma distribución de media µ y con desviación
tipica σ. La variable
n
1X
X̄n = Xn
n i=1
tiene varianza
£ ¤ σ2
V ar X̄n = ,
n
y entonces X̄n = Op (n−1/2 ).
Teorema 12 Sea Xn una sucesión de variables aleatorias tales que Xn = x0 + Op (hn ), f (x) una función
derivable α veces con derivadas continuas en el punto x = x0 , y hn una sucesión de números positivos tales
que lı́mn→∞ hn = 0,
α−1
X f (i) (x0 )
f (Xn ) = f (x0 ) + (Xn − x0 )i + Op (hα
n ),
i=1
i!
Demostración
Con un desarrollo en Serie de Taylor, tenemos
α−1
X f (i) (x0 ) f (α) (b)
f (Xn ) = f (x0 ) + (Xn − x0 )i + (Xn − x0 )α ,
i=1
i! α!
donde b varia entre x0 y Xn . Puesto que f (α) (.) es una función continua, f (α) (b) està acotado, en probabilidad,
i.e. f (α) (b) = Op (1). Se obtiene
f (α) (b)
(Xn − x0 )α = Op (hα
n ).
α!
2
Teorema 13 Sean X1n , ..., Xjn , ..., Xpn , p sucesiones de variables aleatorias tales que Xjn = xj0 +Op (hn ), j =
1, ..., p, f (x1 , ..., xp ) una función continua cuyas derivadas parciales existen y son continuas en los puntos
xj = xj0 , y hn una sucesión de números positivos tales que lı́mn→∞ hn = 0, entonces
+ Op (h2n ).
68
Demostración
Aplicando un desarrollo en Serie de Taylor, se logra
Xp X p ¯
(Xjn − xj0 )(Xin − xi0 ) ∂ 2 f (x1 , ..., xp ) ¯¯
+ ¯ ,
j=1 i=1
2! ∂xj ∂xi xj =bj
¡ ¢
donde los bj están entre Xjn y xj0 . Como en el teorema precedente, (Xjn − xj0 )(Xin − xi0 ) = Op h2n que
multiplica una cantidad acotada en probabilidad. 2
donde los Ybj son los estimadores (eventualmente sesgados) de los Yj . Generalmente los Ybj son los estimadores
de Horvitz-Thompson, pero pueden también ser estimadores de razón, de regresión o más complejos.
Definición 9 Si N −α θ está acotado para todo valor de N, entonces θ se dice que es de grado α.
1. Los Ybj son lineales homogéneos, es decir que pueden ser escritos de la manera siguiente
X
Ybj = wk (S)ykj , j = 1, ..., p, (9.2)
k∈S
donde ykj es el valor tomado por la j-isima variable sobre la unidad k. El caso más simple viene dado
por el estimador de Horvitz-Thompson donde wk (S) = 1/πk .
2. µ ¶
Ybj − Yj 1
= Op √ , j = 1, ..., p.
N n
³ ´
3. Tenemos un estimador de la varianza de cada uno de los Ybj que se nota por Vd
ar Ybj .
³ ´−1/2 ³ ´
4. Las Vd
ar Ybj Ybj − Yj tienen una distribución normal centrada reducida.
Estas cuatro hipótesis son bastante simple y son verificadas para los planes simples y los planes estrati-
ficados (si el numero de estratos es n) y para los planes con conglomerados (si el numero de conglomerados
crece con n).
69
Definición 10 La variable
p
X ¯
∂f (a1 , ..., ap ) ¯¯
vk = ykj ¯ , k ∈ U, (9.3)
j=1
∂aj a1 =Y1 ,...,ap =Yp
N −α θb = N −α f (N Yb 1 , ..., N Yb j , ..., N Yb p )
= N −α f (N y1 , ..., N yj , ..., N yp )
Xp ³ ´ ∂f (N a , ..., N a ) ¯¯
+N −α b
Y j − yj
1 p ¯
∂a j
¯
j=1 a1 =y1 ,...,ap =yp
µ ¶
1
+Op
n
= N −α θ
Xp ³ ´ ∂f (a , ..., a ) ¯¯
b
−α 1 p ¯
+N Yj − Yj ¯
j=1
∂a j a1 =Y1 ,...,ap =Yp
µ ¶
1
+Op
n
³ ´ µ ¶
−α −α b 1
= N θ+N V − V + Op .
n
³ ´ 2
Observar que N −α Vb − V = Op (n−1/2 ). La varianza del estimador de la función de interés puede ser
aproximada simplemente. En efecto,
h i
V ar N −α θb
· µ ¶¸
−α −α b 1
= V ar N θ + N (V − V ) + Op
n
· µ ¶¸ " µ ¶ #
h i 1 1
2
−α b −α b
= V ar N V + 2E N (V − V ) × Op + E Op
n n
" # µ ¶
Vb 1
= V ar α
+ EOp 3/2
.
N n
¡ ¢
Considerando que EOp n−3/2 es despreciable, se puede construir una aproximación de la varianza
h i
AV ar[θ]b = V ar Vb .
70
9.3. Estimación de la varianza
Para estimar la varianza, no se puede usar directamente los vk , porque los vk dependen de los totales de
la población Yj quienes son desconocidos. Se aproximan los vk combinado los totales desconocidos por los
estimadores, y vbk es la aproximación de la variable linealizsada. Deville (1999) ha probado que si el número
de totales a estimar en vk no crece con n, entonces la aproximación de la varianza lograda con los vbk es
válida para grandes tamaños de muestra.
b se usa un estimador de la varianza. Si los Ybj son estimadores de
Al final, para estimar la varianza de θ,
Horvitz-Thompson, se puede usar de manera general el estimador de la varianza de Horvitz-Thompson :
h i X vb2 X X vbk vb` πk` − πk π`
ar θb =
Vd k
2 (1 − πk ) + .
πk πk π` πk`
k∈S k∈S `∈S
`6=k
Ejemplo 10. El problema más clásico consiste en estimar la razón R = Y /X y la varianza en un plan
simple. Primero, se define f (a1 , a2 ) = a1 /a2 y entonces
R = f (Y, X).
b
b = f (Y,
R b = Y.
b X)
b
X
Luego, se calculan las derivadas parciales
¯
∂f (a1 , a2 ) ¯¯ 1
¯ =
∂a1 a =Y,a2 =X X
¯ 1
∂f (a1 , a2 ) ¯¯ Y
¯ = −
∂a2 a1 =Y,a2 =X X2
71
Ejemplo 11. En un plan complejo con probabilidades de inclusión de segundo orden positivas, se quiere
estimar la varianza del vector de coeficientes de regresión
à !−1
X ck xk x0 X ck xk yk
b=
b k
.
πk πk
k∈S k∈S
Si se nota por X
T= ck xk x0k ,
k∈U
Ejemplo 12. Para un plan con probabilidades de orden 1 y 2 conocidas, queremos calcular la varianza del
cuadrado del estimador de razón de Hájek dado por
à !−1
b X 1 X yk
YH = .
πk πk
k∈S k∈S
72
Aplicando el método de linealización por etapas, la linealizada de y2 es
2y
vk = 2yuk = (yk − y) .
N
Se estima vk por
2Yb H ³ ´
vbk = yk − Yb H .
b
N
uk = yk − x0k b + (tx − tx )0 vk
= yk − x0k b (9.6)
= ek ,
73
Capítulo 10
Referencias
74
travail n◦ 9604, Méthodologie statistique, INSEE.
Caron, N. (1999), Le logiciel POULPE aspects méthodologiques, Actes des Journées de Méthodologie statistique, des
17 y 18 mars 1998, INSEE Méthodes 84-85-86, pp. 173-200.
Cassel, C.-M., Särndal, C.-E. y Wretman, J.H. (1976), Some results on generalized difference estimation and gener-
alized regression estimation for finite population, Biometrika, 63, 615-620.
Cassel, C.-M., Särndal, C.-E. y Wretman, J.H. (1993), Foundations of Inference in Survey Sampling, New York,
Wiley.
Causey, B.D. (1972), Sensitivity of raked contingency table totals to change in problem conditions, Annals of Math-
ematical Statistics, 43, 656-658.
Chao, M.T. (1982), A general purpose unequal probability sampling plan, Biometrika, 69, 653-656.
Chaudhuri, A. (1988), Optimality of sampling strategies,in Krishnaiah, P.R. y Rao, C.R. Éds., Handbook of Statistics,
Vol 6 (Sampling), New York, Elsevier Science Publishers, pp. 47-96.
Chen, X.-H., Dempster, A.P., y Liu, S.L. (1994), Weighted finite population sampling to maximize entropy, Biometri-
ka, 81, 457-469.
Cochran, W.G. (1939), The use of the analysis of variance in enumeration by sampling, Journal of the American
Statistical Association, 24, 492-510.
Cochran, W.G. (1942), Sampling theory when the sampling units are of unequal sizes, Journal of the American
Statistical Association, 37, 199-212.
Cochran, W.G. (1946), Relative accuracy of systematic and stratified random samples for a certain class of population,
Annals of Mathematical Statistics, 17, 164-177.
Cochran, W.G. (1961), Comparison of methods for determining stratum boundaries, Proceedings of the International
Statistical Institute, 38, 245-358.
Cochran, W.G. (1977), Sampling Techniques, 3ème édition, New York, Wiley.
Connor, W.S. (1966), An exact formula for the probability that specified sampling units will occur in a sample drawn
with unequal probabilities and without replacement, Journal of the American Statistical Association, 61, 384-490.
Cornfield, J. (1944), On samples from finite populations, Journal of the American Statistical Association, 39, 236-239.
Deming, W.E. (1950), Some Theory of Sampling, New York, Dover Publications.
Deming, W.E. (1948), Statistical Adjustment of Data, New York, Wiley.
Deming, W.E. (1960), Sample Design in Business Research, New York, Wiley.
Deming, W.E. y Stephan, F.F. (1940), On a least square adjustment of sampled frequency table when the expected
marginal totals are known, Annals of Mathematical Statistics, 11, 427-444.
Deville, J.-C. (sans date), Cours de Sondage, Chapitre III : Les Outils de Base, Polycopié, Paris, ENSAE.
Deville, J.-C. (1988), Estimation linéaire y redressement sur informations auxiliaires d’enquêtes par sondage,in Mon-
fort, A. y Laffond, J.J. Éds., Essais en l’honneur d’Edmond Malinvaud, Paris, Economica, pp. 915-929.
Deville, J.-C., (1992), Constrained samples, conditional inference, weighting : three aspects of the utilisation of
auxiliary information, Proceedings of the Workshop Auxiliary Information in Surveys, Örebro (Suède).
Deville, J.-C. (1998a), Une nouvelle (encore une!) méthode de tirage à probabilités inégales, Document de travail
n◦ 9804, Méthodologie statistique, INSEE.
Deville, J.-C. (1998b), La correction de la non-réponse par calage ou par échantillonnage équilibré,in Recueil de la
Section des méthodes d’enquêtes des communications présentées au 26ème congrès de la Société Statistique du
Canada, Sherbrooke, pp.103-110.
Deville, J.-C. (1999), Estimation de variance pour des statistiques y des estimateurs complexes : techniques de résidus
y de linéarisation, Variance estimation for complex statistics ans estimators : linealization and residual techniques,
Techniques d’enquête, Survey methodology, 25, 219-230 (fr.), 193-204 (angl.).
Deville, J.-C. (2000a), Note sur l’algorithme de Chen, Dempster y Liu, Note manuscrite, CREST-ENSAI.
Deville, J.-C. (2000b), Generalized calibration and application to weighting for non-response, Communication invitée,
Utrecht, COMPSTAT.
Deville, J.-C. y Dupont, F. (1993), Non-réponse : principes y méthodes,in Actes des Journées de Méthodologie statis-
tique des 15 y 16 décémbre 1993, INSEE Méthodes n◦ 56-57-58, Paris, INSEE, pp. 53-70.
Deville, J.-C. y Grosbras, J.-M. (1987), Algorithmes de tirage,in Droesbeke, J.-J., Fichet, B. y Tassi, P. Éds., Les
Sondages, Paris, Economica, pp. 209-233.
Deville, J.-C., Grosbras, J.-M., y Roth N. (1988), Efficient sampling algorithms and balanced sample, COMPSTAT,
Proceeding in computational statistics, Physica Verlag, pp. 255-266.
Deville, J.-C., y Särndal, C.-E. (1990), Estimateur par calage y technique de ratissage généralisé dans les enquêtes
par sondage, Document de travail, Paris, INSEE.
Deville, J.-C., y Särndal, C.-E. (1992), Calibration estimators in survey sampling, Journal of the American Statistical
75
Association, 87, 376-382.
Deville, J.-C., Särndal, C.-E. y Sautory, O. (1993), Generalized Raking procedure in survey sampling, Journal of the
American Statistical Association, 88, 1013-1020.
Deville, J.-C., y Tillé, Y. (1998), Unequal probability sampling without replacement through a splitting method,
Biometrika, 85, 89-101.
Deville, J.-C., y Tillé, Y. (2000), Balanced sampling by means of the cube method, Document de travail, Rennes,
CREST-ENSAI.
Deroo, M. y Dussaix, A.-M. (1980), Pratique y analyse des enquêtes par sondage, Paris, P.U.F.
Durbin, J. (1953), Some results in sampling when the units are selected with unequal probabilities, Journal of the
American Statistical Association, 61, 384-490.
Dussaix A.-M. (1987), Modèles de surpopulation,in Droesbeke, J.-J., Fichet, B. y Tassi, P. Éds., Les Sondages, Paris,
Economica, pp. 66-88.
Dussaix A.-M. y Grosbras, J.-M. (1992), Exercices de sondages, Paris, Economica.
Fan C.T., Muller, M.E. y Rezucha I. (1962), Development of sampling plans by using sequential (item by item)
selection techniques and digital computer, Journal of the American Statistical Association, 57, 387-402.
Fienberg, S.E. (1970), An iterative procedure for estimation in contingency tables, Annals of Mathematical Statistics,
41, 907-917.
Frielander, D., (1961), A technique for estimating a contingency table, given the marginal totals and some supple-
mentary data, Journal of the Royal Statistical Society, A124, 412-420.
Fuller, W.A., y Isaki, C.T. (1981), Survey design under superpopulation models, inCurrents topics in survey sampling,
Eds Krewski, D., Platek, R., Rao, J.N.K., y Singh, M.P., New York, Academic Press, 196-226.
Fuller, W.A. (1976), Introduction to Statistical Time Series, New York, Wiley.
Gabler, S. (1984), On unequal probability sampling : sufficient conditions for the superiority of sampling without
replacement, Biometrika, 71, 171-175.
Gabler, S. (1990), Minimax solutions in sampling from finite populations, Lecture Notes in Statistics, 64, Berlin,
Spinger Verlag.
Ghiglione, R, y Matalon, B. (1991), Les enquêtes sociologiques : théorie y pratique, Paris, Armand Colin.
Hájek, J. (1960), Limiting distributions in simple random sampling from finite population, Matematikai Kutató
Intézeténk közleményei (Publication of the Mathematical Institute of the Hungarian Academy of Sciences), A5,
361-374.
Hájek, J. (1964), Asymptotic theory of rejective sampling with varying probabilities from a finite population, Annals
of Mathematical Statistics, 35, 1491-1523.
Hájek, J. (1971), Comment on a paper of D. Basu,in Godambe, V.P. y Sprott, D.A. Éds., Foundations of Statistical
Inference, Toronto, Holt, Rinehart y Winston, p.236.
Hájek, J. (1981), Sampling in Finite Population, New York, Marcel Dekker.
Hanif, M. y Brewer, K.R.W. (1980), Sampling with unequal probabilities without replacement : a review, International
Statistical Review, 48, 317-335.
Hansen, M.H., Dalenius, T.D. y Tepping B.J. (1985), The development of sample survey in finite population,in
Atkinson, A. y Fienberg, S. Éds., A Celebration of Statistics, The ISI Centenary Volume, Springer-Verlag. pp.
327-353.
Hansen, M.H., Hurwitz, W.N. (1943), On the theory of sampling from finite populations, Annals of Mathematical
Statistics, 14, 333-362.
Hansen, M.H., Hurwitz, W.N. (1949), On the determination of the optimum probabilities in sampling, Annals of
Mathematical Statistics, 20, 426-432.
Hansen, M.H., Hurwitz, W.N. y Madow, W.G. (1953a réimprimé en 1993), Sample Survey Methods and Theory, I,
New York, Wiley.
Hansen, M.H., Hurwitz, W.N. y Madow, W.G. (1953b réimprimé en 1993), Sample Survey Methods and Theory, II,
New York, Wiley.
Hansen, M.H. y Madow, W.G. (1974), Some important events in the historical development of sample survey,in Owen,
D., Éd. On the History of Statistics and Probability, New York, Marcel Dekker.
Hansen, M.H., Madow, W.G. y Tepping B.J. (1983), An evaluation of model dependent and probability-sampling in-
ferences in sample surveys, Journal of the American Statistical Association, 78, 776-793, Comments and rejoinder,
794-807.
Hanurav, T.V. (1962a), Some sampling schemes in probability sampling, Sankhyā, A24, 421-428.
Hanurav, T.V. (1962b), On Horvitz and Thompson estimator, Sankhyā, A24, 429-436.
76
Hanurav, T.V. (1965), Optimum Sampling Strategies and some Related Problems, Thèse de doctorat, Indian Statistical
Institute.
Hanurav, T.V. (1966), Some aspects of unified sampling theory, Sankhyā, A28, 175-204.
Hanurav, T.V. (1967), Optimum utilization of auxiliary information : IIPS sampling of two units from a stratum,
Journal of the Royal Statistical Society, B29, 374-391.
Hanurav, T.V. (1968), Hyper-admissibility and optimum estimators for sampling finite population, Annals of Math-
ematical Statistics, 39, 621-642.
Hartley, H.O. y Rao, J.N.K. (1962), Sampling with unequal probabilities and without replacement, Annals of Math-
ematical Statistics, 33, 350-374.
Hartley, H.O. y Rao, J.N.K (1968), A new estimation theory for sample survey, Biometrika, 55, 547-557.
Hedayat, A.S., Majumdar, Dibyen (1995), Generating desirable sampling plans by the technique of trade-off in
experimental design, Journal of Statistical Planning and Inference, 44, 237-247.
Hedayat, A.S., y Sinha, B.K. (1991), Finite Population Sampling, New York, Wiley.
Hedayat, A.S., Bing-Ying Lin y Stufken, J. (1989), The construction of ΠP S sampling designs through a method of
emptying boxes, Annals of Statistics, 4, 1886-1905.
Holt, D. y Smith, T.M.F. (1979), Poststratification, Journal of the Royal Statistical Society, A142, Part 1, 33-46.
Horvitz, D.G. y Thompson, D.J. (1952), A generalization of sampling without replacement from a finite universe,
Journal of the American Statistical Association, 47, 663-685.
Ireland, C.T. y Kullback, S. (1968), Contingency tables with given marginals, Biometrika, 55, 179-188.
Isaki, C.T. y Fuller, W.A. (1982), Survey design under a regression population model, Journal of the American
Statistical Association, 77, 89-96.
Jagers, P. (1986), Poststratification against bias in sampling, International Statistical Review, 54, 159-167.
Jagers, P., Odén, A. y Trulsson, L. (1985), Poststratification and ratio estimation : usages of auxiliary information
in survey sampling and opinion polls, International Statistical Review, 53, 221-238.
Jessen, R.J. (1978), Statistical Survey Techniques, New York, Wiley.
Johnson, N.L. y Smith, H. Éds. (1969), New Developments in Survey Sampling, New York, Wiley.
Johnson, N.L, Kotz, S. y Kemp, A.W. (1992), Univariate Discrete Distributions, New York, Wiley.
Keverberg, Baron de, (1827), Notes,in Quetelet, A., Nouveaux Mémoires de l’Académie royale des Sciences y Belles
Lettres de Bruxelles, 4, 175-192.
Kiaer, A. (1896), Observations y expériences concernant des dénombrements représentatifs, Bulletin de l’Institut
International de Statistique, Berne, 9, livre 2, 176-183.
Kish, L. (1965), Survey Sampling, New York, Wiley.
Konijn, H.S. (1973), Statistical Theory of Sample Survey Design and Analysis, North-Holland, Amsterdam.
Konijn, H.S. (1981), Biases, variances and covariances of raking ratio estimators for marginal and cell totals and
averages of observed characteristics, Metrika, 28, 109-121.
Lanke, J. (1973), On the UMV-estimators in survey sampling, Metrika, 20, 196-202.
Lanke, J. (1975), Some contributions to the theory of survey sampling, Lund, AV-Centralen.
Lavallée, P. y Hidiroglou, M.A. (1987), On the stratification of skewed populations, Sur la stratification de populations
asymétriques, Survey Methodology, Techniques d’enquête, 14, 33-43.
Laplace, S.P., (1847), Théorie analytique des probabilités, Paris, Imprimerie royale.
McLeod, A.I. y Bellhouse, D.R. (1983), A convenient algorithm for drawing a simple random sampling, Applied
Statistics, 32, 182-184.
Madow, W.G. (1948), On the limiting distribution based on samples from finite universes, Annals of Mathematical
Statistics, 19, 535-545.
Madow, W.G. (1949), On the theory of systematic sampling, II, Annals of Mathematical Statistics, 20, 333-354.
Marcus, M. et Minc, H. (1964), A survey of matrix theory and matrix inequalities. Boston : Allyn and Bacon.
Montanari, G.E. (1987), Post sampling efficient QR-prediction in large sample survey, International Statistical Review,
55, 191-202.
Narain, R.D. (1951), On sampling without replacement with varying probabilities, Journal of Indian Society for
Agricultural Statistics, 3, 169-174.
Neyman, J., (1934), On the two different aspects of representative method : the method of stratified sampling and
the method of purposive selection, Journal of the Royal Statistical Society, 97, 558-606.
Owen, D.B., Cochran, W.G. (1976), On the history of statistics and probability, Proceedings of a Symposium on the
American Mathematical Heritage, to celebrate the bicentennial of the United States of America, held at Southern
Methodist University, New York, M. Dekker.
77
Raj, D. (1968), Sampling Theory, New York, McGraw-Hill.
Raj, D. y Khamis, S.D. (1958), Some remarks on sampling with replacement, Annals of Mathematical Statistics, 29,
550-557.
Rao, T.J. (1971), Π-ps sampling designs and the H.T. estimator, Journal of the American Statistical Association, 66,
872-875.
Rao, C.R. (1971), Some aspects of statistical inference in problems of sampling from finite population,in Godambe,
V.P. y Sprott, D.A. Éds., Foundations of Statistical Inference, Toronto, Montréal.
Rao, J.N.K. (1975), On the foundations of survey sampling,in Shrivastava, J.N. Éds., A Survey of Statistical Design
and Lineal Models, La Haye, North Holland, pp. 489-505.
Rao, J. N. K. (1985), Conditional inference in survey sampling, Inférence conditionelle dans les enquêtes par sondage,
Survey Methodology, Techniques d’enquête, 11, 15-31.
Rao, J. N. K. (1994), Estimating totals and distribution functions using auxiliary information at the estimation stage,
Journal of Official Statistics, 10, 153-165.
Rao, J. N. K. (1997), Development in sample survey theory : an appraisal, Canadian Journal of Statistics, 25, 1-21.
Rao, J.N.K., Hartley, H.O. y Cochran, W.G. (1962), On a simple procedure of unequal probability sampling without
replacement, Journal of the Royal Statistical Society, B24, 482-491.
Rosen (1972a), Asymptotic theory for successive sampling I, Annals of Mathematical Statistics, 43, 373-397.
Rosen (1972b), Asymptotic theory for successive sampling II, Annals of Mathematical Statistics, 43, 748-776.
Royall, R., (1968), An old approach to finite population sampling theory, Journal of the American Statistical Asso-
ciation, 63, 1269-1279.
Royall, R., (1970), On finite population sampling theory under certain lineal regression models, Biometrika, 57,
377-387.
Royall, R., (1971), Lineal regression models in finite population sampling theory, in Godambe, V.P. y Sprott, D.A.
Éds., Foundations of Statistical Inference, Toronto, Montréal.
Royall, R., (1976), The lineal least squares prediction approach to two-stage sampling, Journal of the American
Statistical Association, 71, 657-664.
Royall, R. y Cumberland, W.G. (1981), An empirical study of the ratio estimator and its variance, Journal of the
American Statistical Association, 76, 66-77.
Royall, R. y Eberhardt, K.R. (1975), Variance estimates for the ratio estimator, Sankhyā, C37, 43-52.
Royall, R. y Herson, J. (1973a), Robust estimation in finite populations I, Journal of the American Statistical Asso-
ciation, 68, 880-889.
Royall, R. y Herson, J. (1973b), Robust estimation in finite populations II : stratification on a size variable, Journal
of the American Statistical Association, 68, 891-893.
Särndal, C.-E. (1980), On π-inverse weighting versus best lineal unbiased weighting in probability sampling, Biometri-
ka, 67, 639-650.
Särndal, C.-E (1982), Implication of survey design for generalized regression estimation of lineal functions, Journal
of Statistical Planning and Inference, 7, 155-170.
Särndal, C.-E. (1984), Inférence statistique y analyse des données sous des plans d’échantillonnage complexes, Mon-
tréal, Presses de l’Université de Montréal.
Särndal, C.-E. (1984), Design-Consistent versus Model dependent estimation for small domains, Journal of the Amer-
ican Statistical Association, 68, 880-889.
Särndal, C.-E. y Swensson, B. (1987), A general view of estimation for two phases of selection with applications to
two-phase sampling and non-response, International Statistical Review, 55, 279-294.
Särndal, C.-E., Swensson, B. y Wretman, J.H. (1989), The weighted residual technique for estimating the variance of
the general regression estimator of the finite population total, Biometrika, 76, 527-537.
Särndal, C.-E., Swensson, B. y Wretman, J.H. (1992), Model Assisted Survey Sampling, New York, Springer Verlag.
Särndal, C.-E. y Wright, R.L. (1984), Cosmetic form of estimators in survey sampling, Scandinavian Journal of
Statistics, 11, 146-156.
Scott, A.J. (1975a), On admissibility and uniform admissibility in the finite sampling, Annals of Statistics, 2, 489-491.
Scott, A.J. (1975b), Some comments on the problem of randomization in surveys, Proceedings of the 40th Session of
the International Statistical Institute, Varsovie.
Sen, A.R. (1953), On the estimate of the variance in sampling with varying probabilities, Journal of Indian Society
for Agricultural Statistics, 5, 119-127.
Sengupta, S. (1989), On Chao’s unequal probability sampling plan, Biometrika, 76, 192-196.
Serfling, R.J. (1980), Approximation Theorems of Mathematical Statistics, New York, Wiley.
Sheynin O.B. (1986), Adolphe Quetelet as a statistician, Archive for History of Exact Science, 36, 282-325.
78
Sinha, B.K. (1973), On sampling schemes to realize preassigned sets of inclusion probabilities of first two orders,
Bulletin of the Calcutta Statistical Association, 22, 89-110.
Skinner, C.J. (1991), On the efficiency of raking estimation for multiple frame surveys, Journal of the American
Statistical Association, 86, 779-784.
Smith, T.M.F. (1976), The foundations of survey sampling : a review, Journal of the Royal Statistical Society, A139,
183-204.
Stephan, F. (1942), An iterative method of adjusting sample frequency data tables when expected marginal totals
are known, Annals of Mathematical Statistics, 13, 166-178.
Stephan, F. (1945), The expected value and variance of the reciprocal and other negative powers of a positive
Bernoullan variate, Annals of Mathematical Statistics, 16, 50-61.
Stephan, F. (1948), History of the uses of modern sampling procedures, Journal of the American Statistical Associa-
tion, 43, 12-49.
Sukhatme, P.V, Sukhatme, B.V. (1970), Sampling Theory of Surveys with Applications, 2ème édition, London, Asia
Publishing House.
Sunter, A. (1977), List sequential sampling with equal or unequal probabilities without replacement, Applied Statistics,
26, 261-268.
Sunter, A. (1986), Solutions to the problem of unequal probability sampling without replacement, International
Statistical Review, 54, 33-50.
Thionet, P. (1953). La théorie des sondages. Etudes théoriquew 5, INSEE, Paris, Imprimerie nationale.
Thionet, P. (1959), L’ajustement des résultats des sondages sur ceux des dénombrements, Revue de l’Institut Inter-
national de Statistique, 27, 8-25.
Thionet, P. (1976), Construction y reconstruction de tableaux statistiques, Annales de l’INSEE, 22-23, 5-27.
Thompson, S.K. (1992), Sampling, New York, Wiley.
Tillé, Y. (1996a), An elimination procedure of unequal probability sampling without replacement, Biometrika, 83,
238-241.
Tillé, Y. (1996b), Some remarks on unequal probability sampling designs without replacement, Annales d’ Économie
y de Statistique, 44, 177-189.
Tillé, Y. (1996c), A moving stratification algorithm, Un algorithme de stratification mobile, Survey Methodology,
Techniques d’enquête, 22, 1, 85-94.
Tillé, Y. (1998), Estimation in surveys using conditional inclusion probabilities : simple random sampling, Interna-
tional Statistical Review, 66, 303-322.
Tillé, Y. (1999), Estimation in surveys using conditional inclusion probabilities : complex design, Estimation dans les
enquêtes par sondage en utilisant des probabilités d’inclusion conditionnelles : plans complexes, Survey Method-
ology, Techniques d’enquête, 25, 57-66.
Tillé, Y., Newman, J.A. y Healy, S.D. (1996), New tests for departures from random behavior in spatial memory
experiments, Animal Learning and Behavior, 24, 327-340.
Tillé, Y., (2001), Théorie des sondages, : échantillonnage et estimation en populations finies, Paris, Dunod.
Tschuprow, A. (1923), On the mathematical expectation of the moments of frequency distributions in the case of
correlated observation, Metron, 3, 461-493, 646-680.
Wolter, K.M. (1985), Introduction to Variance Estimation, New York, Springer-Verlag.
Woodruff, R.S. (1971), A simple method for approximating de variance of a complicated estimate, Journal of the
American Statistical Association, 66, 411-414.
Wynn, H.P. (1977), Convex sets of finite population plans, Annals of Statistics, 5, 414-418.
Wright, R.L. (1983), Finite population sampling with multivariate auxiliary information, Journal of the American
Statistical Association, 78, 879-884.
Yates, F. (1949), Sampling Methods for Censuses and Surveys, London, Griffin.
Yates, F. y Grundy, P.M. (1953), Selection without replacement from within strata with probability proportional to
size, Journal of the Royal Statistical Society, B15, 235-261.
79