Sie sind auf Seite 1von 38

Curso de Modelos no Param´etricos

Pedro Delicado

Departament d’Estad´ıstica i Investigaci´o Operativa

Universitat Polit`ecnica de Catalunya

14 de julio de 2008

´

Indice general

Prefacio

V

1. Contrastes no param´etricos cl´asicos

 

1

1.1. Introducci´on .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

1

1.2. Contrastes de bondad de ajuste

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

1

1.2.1. La funci´on de distribuci´on emp´ırica

.

.

.

.

.

.

.

.

.

.

.

2

1.2.2. El contraste de Kolmogorov-Smirnov

.

.

.

.

.

.

.

.

.

.

7

1.2.3. Bondad de ajuste a un modelo param´etrico.

.

.

.

.

.

.

9

1.3. Contrastes de localizaci´on

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

1.3.1. El test del signo

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

1.3.2. Test de Wilcoxon de los rangos signados

.

.

.

.

.

.

.

.

12

1.4. Comparaci´on de dos muestras independientes

 

.

.

.

.

.

.

.

.

.

15

1.4.1. Test de Kolmogorov-Smirnov para dos muestras

 

16

1.4.2. Test de Mann-Whitney-Wilcoxon

 

.

.

.

.

.

.

.

.

.

.

.

.

17

1.5. Comparaci´on de m´as de dos muestras .

.

.

.

.

.

.

.

.

.

.

.

.

.

19

1.5.1. Muestras independientes: Test de Kruskal-Wallis

 

19

1.5.2. Muestras relacionadas: Test de Friedman

.

.

.

.

.

.

.

.

20

1.6. Medida de la dependencia

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

21

1.6.1. Coeficiente τ de Kendall

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

22

1.6.2. Coeficiente de correlaci´on de rangos de Spearman

.

.

.

23

1.7. Comentarios finales

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

25

2. Introducci´on a los m´etodos de suavizado

 

29

2.1. Introducci´on .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

2.2. Usos de los m´etodos de

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

3. Estimaci´on no param´etrica de la densidad

 

39

3.1. La estimaci´on de la densidad .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

39

3.2. El histograma y el pol´ıgono de frecuencias

.

.

.

.

.

.

.

.

.

.

.

40

3.2.1.

Motivaci´on del histograma

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

41

i

ii

´

INDICE GENERAL

3.2.2. Caracter´ısticas del histograma

.

.

.

.

.

.

.

.

.

.

.

.

.

.

42

3.2.3. Algunos conceptos y resultados matem´aticos

 

44

3.2.4. Propiedades locales del estimador histograma

 

.

.

.

.

.

47

3.2.5. Propiedades globales del estimador histograma

 

49

3.2.6. Elecci´on del par´ametro de suavizado b

 

.

.

.

.

.

.

.

.

.

51

3.2.7. El pol´ıgono de frecuencias

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

53

3.2.8. Comportamiento asint´otico del pol´ıgono de frecuencias

54

3.3. Estimador n´ucleo de la densidad

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

3.3.1. Comportamiento asint´otico del estimador n´ucleo de la

 

densidad

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

61

3.3.2. Problemas de los estimadores n´ucleo y algunas soluciones 71

3.4. Selecci´on autom´atica del par´ametro de suavizado

 

.

.

.

.

.

.

.

79

3.4.1. Regla de referencia a la normal

 

.

.

.

.

.

.

.

.

.

.

.

.

.

79

3.4.2. Sobresuavizado

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

79

3.4.3. Validaci´on cruzada por m´ınimos cuadrados .

.

.

.

.

.

.

81

3.4.4. Plug-in directo

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

83

3.4.5. Validaci´on cruzada por m´axima verosimilitud

.

.

.

.

.

85

3.4.6. Otros m´etodos

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

85

3.5. Inferencia basada en la estimaci´on de la densidad

.

.

.

.

.

.

.

87

3.5.1. Bandas de variabilidad

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

89

3.5.2. Contraste de normalidad

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

91

3.5.3. Bandas de referencia normal

 

.

.

.

.

.

.

.

.

.

.

.

.

.

93

3.5.4. Contraste de independencia

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

94

3.5.5. Bootstrap en la estimaci´on de la densidad

.

.

.

.

.

.

.

96

3.5.6. Contraste de igualdad de distribuciones

 

.

.

.

.

.

.

.

97

3.6. Estimaci´on de la densidad multivariante

 

.

.

.

.

.

.

.

.

.

.

.

.

98

3.6.1. Elecci´on de la matriz ventana

 

.

.

.

.

.

.

.

.

.

.

.

.

.

. 101

3.6.2. Representaci´on de densidades tri-variantes

.

.

.

.

.

.

. 102

3.6.3. La maldici´on de la dimensionalidad

 

.

.

.

.

.

.

.

.

.

.

. 104

3.7. Otros estimadores de la densidad

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 106

3.7.1. Los k vecinos m´as cercanos

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 106

3.7.2. Desarrollos en series de funciones ortogonales

.

.

.

.

. 107

3.7.3. M´axima verosimilitud penalizada

 

.

.

.

.

.

.

.

.

.

.

.

. 109

3.7.4. Verosimilitud local

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 111

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 111

3.7.5. Representaci´on general .

3.8.1. Estimaci´on de la densidad en R

3.8. Software

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 111

. 111

3.8.2. Estimaci´on de la densidad en MATLAB

.

.

.

.

.

.

.

. 111

´

INDICE GENERAL

iii

4. Estimaci´on de la funci´on de regresi´on

113

4.1. El modelo de regresi´on no param´etrica

.

.

.

.

.

.

.

.

.

.

.

.

. 115

4.2. Estimadores n´ucleo y polinomios locales

.

.

.

.

.

.

.

.

.

.

.

. 117

4.2.1. Derivaci´on directa del estimador n´ucleo de la regresi´on

123

4.2.2. Expresi´on matricial del estimador por polinomios locales125

4.2.3. Propiedades locales de los estimadores por polinomios

locales

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 126

4.2.4. Comportamiento en la frontera del soporte de x

 

129

4.2.5. Elecci´on del grado del polinomio local

 

.

.

.

.

.

.

.

. 129

4.3. Elecci´on del par´ametro de suavizado

 

.

.

.

.

.

.

.

.

.

.

.

.

.

. 132

4.3.1. Error de predicci´on en una muestra test

.

.

.

.

.

.

.

. 133

4.3.2. Validaci´on cruzada

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 133

4.3.3. Validaci´on cruzada

 

.

.

.

.

.

.

.

.

. 134

4.3.4. Plug-in

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 137

4.3.5. Comportamiento asint´otico de selectores de h

.

.

.

.

. 141

4.3.6. Ventana variable

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 141

4.4. Verosimilitud local

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 142

4.4.1. Discriminaci´on no param´etrica

 

.

.

.

.

.

.

.

.

.

.

.

. 142

4.4.2. Modelo de verosimilitud local

 

.

.

.

.

.

.

.

.

.

.

.

.

.

. 151

4.5. Inferencia en el modelo de regresi´on no param´etrica

.

.

.

.

.

. 153

4.5.1. Bandas de variabilidad

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 153

4.5.2. Contraste de ausencia de efectos

 

.

.

.

.

.

.

.

.

. 155

4.5.3. Contraste de un modelo lineal

.

.

.

.

.

.

.

.

.

.

.

.

.

. 157

4.5.4. Contraste de un modelo lineal generalizado

 

.

.

. 158

4.5.5. Igualdad de curvas de regresi´on

 

.

.

.

.

.

.

.

.

.

.

.

.

. 159

5. Estimaci´on por splines

 

163

5.1. Estimaci´on m´ınimo cuadr´atica penalizada

 

.

.

.

.

.

.

.

.

.

.

. 163

5.2. Splines y splines c´ubicos. Interpolaci´on por splines

 

.

.

.

.

. 165

5.3. Suavizado por splines .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 168

5.4. Propiedades del estimador spline de m(x)

 

.

.

.

.

.

.

.

.

.

. 171

5.5. B-splines .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 172

5.6. Ajuste de un modelo no param´etrico general

.

.

.

.

.

.

.

.

.

. 175

6. Regresi´on m´ultiple y modelo aditivo generalizado

 

177

6.1. Regresi´on m´ultiple

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 177

6.2. Modelos aditivos

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 181

6.3. Regresi´on projection pursuit

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 184

6.4. Modelos aditivos generalizados

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 185

6.5. Modelos semiparam´etricos

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 186

iv

Referencias

´

INDICE GENERAL

188

Prefacio

Modelos param´etricos versus no param´etricos

Sea X variable aleatoria con distribuci´on de probabilidad dada por la funci´on de distribuci´on F . Diremos que la v.a. X sigue un modelo pa- rametrico´ si su distribuci´on de probabilidad F pertenece a una familia de distribuciones indexada por un par´ametro θ de dimensi´on finita:

X F ∈ F Θ = {F θ : θ Θ R k }.

La familia de distribuciones F Θ recibe el nombre de modelo estad´ıstico parametrico´ . Diremos que la v.a. X sigue un modelo estad´ıstico no parametrico´ si sobre su distribuci´on F unicamente´ se suponen algunas condiciones de regularidad. Algunos ejemplos de estas condiciones son los siguientes:

es una funci´on de distribuci´on absolutamente continua,Algunos ejemplos de estas condiciones son los siguientes: es sim´etrica en torno a su mediana, tiene

es sim´etrica en torno a su mediana,es una funci´on de distribuci´on absolutamente continua, tiene funci´on de densidad f con dos derivadas continuas.

tiene funci´on de densidad f con dos derivadas continuas. f con dos derivadas continuas.

F

F

F

Las restricciones impuestas sobre F indican que esta distribuci´on pertenece a un subconjunto de todas las posibles distribuciones de probabilidad, pero este subconjunto tiene dimensi´on infinita (no se puede indexar por un par´ametro de dimensi´on finita).

M´etodos no param´etricos

Son m´etodos de inferencia estad´ıstica v´alidos cuando no se hacen hip´otesis param´etricas sobre la distribuci´on de los datos. Distinguiremos dos familias de m´etodos. La primera fue desarrollada principalmente en las d´ecadas de los 40 y 50 del siglo XX, y la segunda en el ultimo´ tercio de ese siglo.

v

vi

PREFACIO

M´etodos no param´etricos cl´asicos

Tienen por objetivo hacer inferencia sobre la distribuci´on de probabilidad F de X o sobre alguna caracter´ıstica suya que est´e bien definida sea cual sea la distribuci´on F (por ejemplo, la mediana o el rango intercuart´ılico de F ). Como no se conoce la distribuci´on F los m´etodos que se proponen se basan en estad´ısticos cuya distribuci´on en el muestreo no depende de F . Por ello se conocen como metodos´ libres de la distribucion´ de los da- tos, o metodos´ de distribucion´ libre (una mala traducci´on del t´ermino distribution-free en ingl´es).

´

Estos son los m´etodos que trataremos en el Cap´ıtulo 1. Concretamente

nos centraremos en contrastes de hip´otesis no param´etricos.

Estimaci´on no param´etrica de curvas

Son t´ecnicas que permiten estimar funciones relacionadas con la distri- buci´on de probabilidad de los datos. Por ejemplo se puede tener inter´es en estimar la funci´on de distribuci´on F (x), la funci´on de densidad f (x), la tasa de fallo λ(x) = f (x)/(1 F (x)), la funci´on de regresi´on m(x) = E(Y |X = x) o la varianza condicional σ 2 (x) = V (Y |X = x). A estas t´ecnicas se dedicar´an los restantes cap´ıtulos.

Cap´ıtulo 1

Contrastes no param´etricos cl´asicos

Referencias: Pratt y Gibbons (1981), Gibbons y Chakraborti (1992), Gibbons (1993a), Gibbons (1993b), Gibbons (1997), Hollander y Wolfe (1999), Leach (1982)

1.1. Introducci´on

En este cap´ıtulo presentamos algunos de los contrastes de hip´otesis no param´etricos cl´asicos. Todos tienen en com´un que no precisan hacer hip´otesis param´etricas sobre la distribuci´on de probabilidad F de los datos, pues se basan en estad´ısticos cuya distribuci´on en el muestreo no depende de F . Son por tanto contrastes libres de la distribucion´ de los datos (distrbution-free tests). Veremos en primer lugar contrastes de bondad de ajuste basados en la distribuci´on emp´ırica de los datos. Despu´es veremos contrastes de localizaci´on para una muestra (o para dos muestras apareadas), contrastes que igualdad de dos muestras, versiones no param´etricas de los contrastes ANOVA cl´asicos y, por ultimo,´ medidas no param´etricas de la dependencia entre dos variables.

1.2. Contrastes de bondad de ajuste

Nos planteamos el problema de saber si una variable aleatoria sigue o no una distribuci´on determinada. Sea X v.a. con funci´on de distribuci´on F desconocida. Sea F 0 una funci´on de distribuci´on conocida. Se desea contrastar

=

H 0 : F = F 0 frente a H 1 : F

1

F 0 .

´

´

´

2 CAP ITULO 1. CONTRASTES NO PARAM ETRICOS CL ASICOS

, X n de

X. Tambi´en consideramos las hip´otesis alternativas unilaterales H 1 : F(x) > F 0 (x) para todo x, o H 1 : F(x) < F 0 (x) para todo x. Vamos a estudiar el contraste de Kolmogorov-Smirnov (existen otras for- mas de realizar contrastes de bondad de ajuste, por ejemplo los contrastes de la χ 2 , basados en la categorizaci´on de los datos). El contraste de Kolmogorov-Smirnov se basa en calcular una distancia entre la funci´on de distribuci´on emp´ırica de los datos, F n , y la funci´on de distribuci´on F 0 postulada bajo H 0 . Recordemos la definici´on y propiedades de la funci´on de distribuci´on emp´ırica.

Para ello se dispone de una muestra aleatoria simple (m.a.s.) X 1 ,

1.2.1. La funci´on de distribuci´on emp´ırica

Sea la variable aleatoria X con funci´on de distribuci´on F . Consideramos

, X n v.a.i.i.d.

una muestra aleatoria simple de tama˜no n de X, es decir, X 1 ,

con distribuci´on dada por F . Sea x 1 ,

, x n una realizaci´on de esa m.a.s.

Se llama funcion´

de distribucion´

emp´ırica a la funci´on

F n (x) =

1

n #{x i x : i = 1

n} = 1

n

n

i=1

I (−∞,x] (x i ),

donde

I (−∞,x] (x i ) =

1,

0,

si x i x si x i > x,

que a cada n´umero real x le asigna la proporci´on de valores observados que son menores o iguales que x. Es inmediato comprobar que la funci´on F n as´ı definida es una funci´on de distribuci´on:

1. F n (x) [0, 1] para todo x R.

2. F n es continua por la derecha.

3. F n es no decreciente.

4. l´ım x F n (x) = 0.

5. l´ım x F n (x) = 1.

Concretamente, F n es la funci´on de distribuci´on de una variable aleatoria discreta (que podemos llamar X e ) que pone masa 1/n en cada uno de los n puntos x i observados:

1.2. CONTRASTES DE BONDAD DE AJUSTE

3

x

i

x 1

x 2

···

 

x n

p i = P(X e = x i )

1/n

1/n

·

·

·

1/n

emp´ırica asociada al

conjunto de valores {x 1 ,

Obs´ervese que si fijamos el valor de x y dejamos variar la muestra, lo que obtenemos es una variable aleatoria. En efecto, se tiene entonces que

A la distribuci´on de X e se le llama distribucion´

, x n }.

F n (x) = 1

n

n

i=1

I (−∞,x] (X i ),

donde

I (−∞,x] (X i ) =

1,

0,

si X i x si X i > x

y, por lo tanto, cada t´ermino I (,x] (X i ) es una variable aleatoria de Bernoulli con probabilidad de ´exito

p = P(I (,x] (X i ) = 1) = P(X i x) = F(x).

De ah´ı se deduce que F n es una variable aleatoria y que nF n (x) tiene distri- buci´on binomial con par´ametros n y p = F (x). De lo anterior se sigue que la funci´on de distribuci´on emp´ırica es un pro- ceso estoc´astico: si consideramos un espacio probabil´ıstico (Ω, A, P ) donde est´an definidas las sucesiones de variables aleatorias {X n } n1 a partir de las cuales definiremos la funci´on de distribuci´on emp´ırica, tenemos que

F n :

(Ω , A , P ) × ( R , B ) ( ω, x )

−→

−→

[0 , 1] F n (x)(ω) =

[0 , 1] F n ( x )( ω ) =

n 1 i=1 n I (,x] (X i (ω)).

Fijado x, F n ( x )( · ) : (Ω , A , P ) −→ [0 , 1] es una variable aleatoria. Fijado ω , F n ( · )( ω ) : R −→ [0 , 1] es una funci´on de distribuci´on (en la notaci´on usual

se omite la dependencia de ω Ω). Por lo tanto, la funci´on de distribuci´on emp´ırica es una funci´on de distribuci´on aleatoria. El siguiente teorema recoge algunas de las propiedades de la funci´on de distribuci´on emp´ırica.

Teorema 1.1 Sea {X n } n1 , sucesi´on de variables aleatorias independientes e id´enticamente distribuidas definidas en el espacio de probabilidad (Ω, A, P )

con funci´on de distribuci´on com´un F . Se denota por F n la funci´on de distri-

buci´on emp´ırica obtenida de las n primeras variables aleatorias X 1 , Sea x R. Se verifica lo siguiente:

, X n .

(a)

j

P(F n (x) = n ) = n F(x) j (1 F (x)) nj , j = 0,

j

, n.

´

´

´

4 CAP ITULO 1. CONTRASTES NO PARAM ETRICOS CL ASICOS

(b)

E(F n (x)) = F (x), Var (F n (x)) = (1/n)F (x)(1 F (x)).

(c)

F n ( x ) −→ F ( x ) casi seguro.

(d)

n(F n (x) F (x))

F (x)(1 F (x))

−→ D Z,

donde Z es una variable aleatoria con distribuci´on normal est´andar y la convergencia es convergencia en distribuci´on.

Demostraci´on: Los apartados (a) y (b) son consecuencia inmediata del

hecho de que nF n (x) B(n, p = F (x)). Por otro lado, si definimos Y i =

¯

Y n , la media aritm´etica de las variables

aleatorias Y 1 ,

la ley fuerte de los grandes n´umeros y el apartado (d) es consecuencia del

teorema central de l´ımite.

El siguiente teorema refuerza el resultado (c) anterior, puesto que afirma que la convergencia de F n (x) a F (x) se da uniformemente.

, Y n . As´ı, el apartado (c) es una aplicaci´on inmediata de

I (,x] (X i ), se tiene que F n (x) =

Teorema 1.2 (Teorema de Glivenko-Cantelli) Sea {X n } n1 una suce- si´on de variables aleatorias independientes e id´enticamente distribuidas de- finidas en el espacio de probabilidad (Ω, A, P ) con funci´on de distribuci´on

com´un F . Se denota por F n la funci´on de distribuci´on emp´ırica obtenida de

las n primeras variables aleatorias X 1 ,

, X n . Entonces,

sup |F n ( x ) F ( x ) | −→ 0 casi seguro .

xR

Demostraci´on: Presentamos aqu´ı la demostraci´on que hacen V´elez y Garc´ıa (1993), p. 36. (otras demostraciones pueden encontrarse en Garc´ıa-Nogales 1998, p. 88, y en Crist´obal 1992, p. 66). En el Teorema 1.1 se prob´o que, por la ley fuerte de los grandes n´umeros, F n ( x ) −→ F ( x ) casi seguro, es decir, para cada x R existe A x ∈ A tal que P(A x ) = 1 y l´ım n F n (x)(ω) = F (x) si ω A x . Se ha denotado por F n (x)(ω) a la funci´on de distribuci´on emp´ırica

obtenida al observar X 1 (ω),

, X n (ω), siendo ω un elemento del espacio Ω.

De la ley fuerte de los grandes n´umeros tambi´en se sigue (tomando ahora I (,x) en vez de I (,x] ) que para cada x R, existe B x ∈ A tal que

B x , donde g(x ) denota el

l´ımite por la izquierda de una funci´on g en x .

, k, se consideran los puntos

P(B x ) = 1 y l´ım n F n (x )(ω) = F (x )

si

ω

Para cada n´umero natural k, y cada j = 1,

x jk = m´ın x R : F(x ) k j

F(x)

1.2. CONTRASTES DE BONDAD DE AJUSTE

5

y los sucesos de A siguientes:

A jk

= A x jk

= {w Ω : F n (x jk ) −→ F ( x jk )}

B jk = B x jk = {w Ω : F n (x jk ) −→ F(x

D k =

k

j=1

(A jk B jk ), D

=

k=1

D k .

jk )}

D k es el suceso definido por la condici´on de que la funci´on de distribuci´on emp´ırica converja a la te´orica para todos los puntos x jk (y tambi´en para los l´ımites por la izquierda), para un k fijo. D es el suceso en que esto ocurre simult´aneamente para todo k. Seg´un la ley fuerte de los grandes n´umeros, P(A jk ) = P(B jk ) = 1 para todo j y todo k, luego P(D k ) = 1 para todo k y, por tanto, P(D) = 1. Obs´ervese que si x [x jk , x (j+1)k ), por ser F y F n funciones de distribu- ci´on se tiene que

F(x jk ) F(x) F(x (j+1)k

),

y F n (x jk ) F n (x) F n (x

(j+1)k ).

Como adem´as F (x (j+1)k

) F(x jk ) 1/k,

F n (x) F(x) F n (x (j+1)k

) F(x jk ) F n (x

(j+1)k ) F(x (j+1)k

) +

1

k

y

F