Sie sind auf Seite 1von 489

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.

com/libreria

,//*PROBABILIDAD
Y APLICACIONES
ESTADÍSTICAS
Edición revisada
Paul L. =er
Wushington Stute University
""

Versión en español
Carlos Prado Campos
Universidud Cutólica de Chile
' Con la colaboración de
I

Germán Ardila Cuéllar


Universidud Nucional de Colombiu
Edición revisada y corregida por
Sergio Octavio Esparza
Instituto Politécnico Nacional, México
Y
Raúl Montes de Oca M.
Universidad Autónoma Metropolitana
Unidud Iztupcdapa, México

*
vv ADDISON-WESLEY IBEROAMERICANA
Argentina Brasil Chile Colombia Ecuador Espana
Estados Unidos Mexico Perú Puerto Rico (1 Venezuela

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Versión e n español de la segunda edición de la obra IntroductoT P1-obability


a w l Statistical A~,l,lications, d e Paul L. Rleyer, publicada originahnente e n in-
ql6s por Addison-Wesley Publishing Company, Inc., Reading, hlassachusetts,
E.U.A. 0 1 9 7 0 .

Esta edici6n en español es la única autorizada


‘ 6,”
i ’ .1.

, < I

Diseño de portada:Arrnando Jiménez

@ 1973 por Fondo Educativo Interamericano

@ 198G, 1992 por ADDISON-WESLEY IBEROAMERICANA, S. A.


Wilmington, Delaware, E.U.A.

Impreso enlos Estados Unidos. Printed i n the U.S.A.

ISBN 0-201-5 1877-5


4 5 6 7 8 9 lO-CRs-9796S594

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Prólogo a la edición en español

El creciente empleo d e la estadística en diversas áreas del conocimiento


hace cada vez m& imperiosa l a necesidad de contarcon textos adecua-
dos para iniciarel estudio deesta disciplina. En consecuencia, creoque
la traducción d e esta obra del profesor Paul Meyer vendrá a satisfacer
dicha demanda entre los estudiantes d e habla hispana. Mi experiencia
pedagógica en escuelas d e ingeniería y d e matemáticas con estudiantes
que por primera vez toman un curso deestadística me indica que este
testo, que contiene una gran variedad de prciblemas aplicados d e actua-
lidad, muchos ejemplos desarrollados y comentarios útiles acerca d e los
aspectos teóricos d e la materia, es fundamental paral a comprensión d e
un curso d e esta naturaleza.
Suntiugo de Chile CARLOS CAMPOS
PRADO
1973

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Prólogo a la edición revisada

La calurosa acogida que recibió la edición en espaliol d e esta obra


nos impulsóamejorarlaendiversosaspectos. Nos dimospuesa la
tarea de revisar el texto nuevamentey corregir las erratas de la edici6n
previa. Durante esta labor contamos con el apoyo incondicional del Dr.
Sergio Octavio Esparza, del Instituto Politécnico Nacional, México, y
del M. e n C. Raúl Montes d e Oca M., d e la Universidad Autónoma
Metropolitana, unidad Iztapalapa, México, a quienes agradecemos su
valiosa colaboraci6n.
Deseamos manifestar también quela presente edición es un homena-
j e póstumo a nuestro autor, el DI-. Paul L. "eyer.
México, 1992 ADDISON- W E S L E Y
IBEROAMERICANA

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Prefacio a la primera edición

Este texto está destinado para u n curso de un scmestreo para dos cur-
sos trimestrales de introducción ala teoría dlc la probabilidad y algunas
de sus aplicaciones. El prerrequisito es un mío d c cálculo diferencial e
integral. No se supone conocimiento prcvio de probabilidad o estadísti-
ca. E n la Mhshington StateUniversity, cl cuIso para cl cual se desarroll6
este texto ha sido impartido durantevarios aíios, principalmente a es-
tudiantcs que se especializarán cn ingcnieríao en ciencias naturales. La
mayoría d e ellos sólo pucdcn dcdicar un semcstrc a l estudio de esta ma-
teria. Sin enlbargo, comoya cstin hniliarizados con cl cálculo, pueden
empczar dicho cstudiom i s allh clcl nivel estrictamente elemental.
Muchos tcmas matcmriticos pucden prcsentarse en diversos grados
de dificultad, y esto es cspecialmente en probabilidad. En este texto
sc pretende aprovechar la ventaja que suponcn los conocimientos ma-
temáticos del lector, sin sobrepasarlos. En (51 sc usa un lenguaje mate-
málico prcciso, pero se tiene cuidadod e no prorundizar demasiado en
dctallcs matemáticos innecesarios. e s t e n o es ciertamente u n “libro d e
cocina”. Aunque se prescntan y exponcn varios conccptos de manera
informal, las dcfinicioncs y los teoremas sc enuncian con cuidado. Si
no es posible o deseable la dcmostración detallada de un teorema, al
menos se da 1111bosquejo d e las ideas mhs importantes. Una de las ca-
racterísticas distintivasd e este textoson las “Observaciones” que siguen
a la ma)-oría de los teoremas y definiciones; en cllas, el resultado par-
ticular o el conccpto prcsentado se esamin;an desde un punto d e vista
intuitivo.
Dcbido ala restricción autoimpuestade escribir un testo relativamen-
te b r e w sobrc una matcriaquc abarca una extensa área, h l h o necesidad
de hacer una sclccción para incluir o excluir cicrtos temas. Parece scr
que no hay manera obvia d e resolver estc problcma. Ciertamente, no
sostengo que para algunos de los temas excluidos no se podría haber
encontrado sitio, ni prctendo que no haya alguna parte que se pudiera
haber omitido. Sin embargo, en gran partese ha hccho hincapik en las
nociones Tkdamentales, presentirdolas con detalle considerable. S610
el capítulo 11, sobre confiabilidad, puede considerarse “artículo de lu-
jo”; pero, aun aquí, creo que las nociones asociadas con problemas d e
confiabilidad son d e interés para muchas personas. Ademhs, los con-

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

vi Prefacio a la primera edicwn

ccptos de confiabiliclad son u11medio excelente para ilustrar muchasd e


las ideas prescntadas antes q1le ellos en el libro.
Arln si se picnsa qllc l a cxtcnsiGn ha sido limitada por el tiempo dis-
ponible, se ha logrado ulla sclccci6n amplia y razonable d e temas. Una
ojeada al ínclicc general muestra dem a n e r a evidente que unas tres cuar-
tas p a r t e s del texto trata de temas probabilísticos, mientras la cuarta
parte restante est5 dedicada a una esposición d e inferencia estadísti-
ca. Aunque no hay nada de extraordinario en esta división particular
dcl knfasis entre probabilidad y estadística, creo que un conocimiento
profundo de los principios lhicos de la probabilidad es imperativo pa-
ra una comprensi6n adccuada delos nlbtodos estadísticos. Idealmente,
a un curso en probalilidad debería seguir otro en teoría estadística y
metodología; sin embargo, como se indicó antes, la mayoría d e los es-
tudiantes que toman este curso no tienen tiempo para dos semestres de
esposición d e estas materias y, por tanto, me sentí obligado a exponer
a l menos algunos d e los aspectos más importantes en el área general d e
la inferencia estadística.
El éxito potencial dc una presentación particular de la materia no de-
bería juzgarse solamente enf u n c i h d elas ideas específicas aprendidas
y de las tkcnicas especificas atlquiritlas; el juicio final también debe tener
en cuenta si cl cstudiante est5 bien preparado para continuar estudian-
do el tema ya sea por sí mismo o por medio de un curso formal adicional.
Si se considera que este criterioes importante, se hace evidente que de-
biera insistirse en los conceptos bhicos y en las técnicas fundamentales,
rclcgando al mismo tiempo los métodos y temas muy especializados a
un papel secundario. Esto tan1bii.n resultó ser un factor importante en
l a decisión sobre los temas por incluir.
Es dificil exagerar la importancia d e la teoría d e la probabilidad. El
modelo matemático apropiado para el estudio de un grannúmero d e fe-
nBmenos observables es probabilístico en vez de determinista.AdemLis,
el tema completo d e la inferencia estadística está basado en considera-
ciones probal)ilísticas. Las técnicas estadísticas se cuentan entre algunas
d e las herramientas más importantes de científicos e ingenieros. Para
poder utilizar esas tbcnicas inteligentemente se requiere una profunda
comprensicin de los conceptos probabilisticos.
Se espera que, adenlás de Gmiliarizarse con muchos métodos y con-
ceptos específicos el lector desarrolle cierto criterio: pensar probabilísti-
canlente sustituyendo preguntas tales como: “(Durante cuánto tiempo
funcionar5 este mecanismo?” por “(Cuáles la probabilidad de que este

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Prefacio a la primera edición vii

mecanismo funcione durante más de cien horas?”. En muchas situa-


ciones, la segunda pregunta puede no sólo ser la más atinada sino, d e
hecho, la única pertinente.
Como es ya tradicional, muchos d e los conceptos importantes d e
la probabilidad se han ilustrado con la ayuda de varios ‘tjuegos d e
azar”: lanzar monedas o dados, sacar cartas de una baraja, hacer girar
una ruleta, etc. Aunque no he evitado por completo referirme a tales
juegos, porque sirven para ilustrar bien nocionesbásicas, he intentado
poner en contactoal estudiante con ilustraciones más pertinentes d e las
aplicaciones d e la probabilidad: la emisión d e partículas (Y de una fuente
radiactiva, muestre0 d e lote, la duración de instrumentos electrónicos
y los problemas asociados d e mecanismos y confiabilidad del sistema,
etcétera.
Estoy reacio a mencionar una d e las características más obvias en
cualquiertexto d e matemáticas: los problemas; y, sinembargo, es
posible que valga la pena señalar que trabajar con problemas debe
considerarse parte integrante del curso.Sólo mediante el acto personal
de plantear y resolver los ejercicios, es colno el estudiante tendrá la
posibilidad d e desarrollar una comprensión y apreciación d e las ideas,
así como familiarizarse conlas técnicas pertinentes. Es por eso que enel
libro se incluyen más d e 330 problemas y, al final del texto, figuran las
respuestas a más d e la mitad d e ellos. Además d e los problemas para cl
lector, hay muchos ejemplos resueltos en diferentes partesloalargo del
libro.
Este libro se ha escrito
en forma bastante consecutiva: la comprensión
d e la mayoría d e los capítulos requiere familiaridad con los anteriores;
sin embargo, es posible tratar superficialmentelos capítulos 10 y 11 si se
está interesado, en particular, en dedicar más tiempo a las aplicaciones
estadísticas examinadas en los capítulos 13 a 15.
Como debe suceder a quienquiera que escribe un texto, debo estar
agradecido a muchas personas: amis colegas, por muchas conversacio-
nes estimulantes y útiles; a mis propios profesores, por el conocimiento
del tema y su interés en éI; a los revisores d e las primeras versiones
del manuscrito, porsus muchas sugerenciasy críticas iltiles; a Addison-
Wesley Publishing Company, por su gran ayuda y cooperación desde
las primeras etapas de este proyecto hasta su finalización; a la sefiorita
Carol Sloan, por ser una mecanógrafa muy eficientey activa; a D. Van
Nostrand, Inc., T h e Free Press, Inc. y Macnnillan Publishing Company,
por su autorización para reproducirlas tablas 3, 6 y 1 del apéndice,res-
pectivamente; a McGraw-I Iill Book Company, Inc., Oxford University

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

viii Prefacio a la primera edición

Press, Inc., Pergamon Press, Ltd. y Prentice-Hall, Inc., por su autoriza-


ción para incluir ciertos ejemplos en el texto; y, finalmente, ani esposa,
no sólo por la paciencia que mostró durante milabor, sino también por
“dejarme” y llevarse a nuestros dos hijos a visitar a sus abuelos duran-
te dos cruciales meses de verano, en los cuales pude convertir nuestro
hogar en untaller desordenado pero tranquilo, del cual emergió mila-
grosamente, al fin, la última versión d e este libro.
Pullmnun, Washington PAULL. M E Y E R
Abril, 1965

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Prefacio a l a segunda edición

En vista del considerable númerode comentarios favorables quehe re-


cibido durante los últimos alios tanto de estudiantes como d e profeso-
res que han utilizado la primera edición d e este libro, se han hecho en
éI relativamente pocos cambios. Con el uso repetido del testo he en-
contrado que su organización básica y el nivel general de presentación
(como la mezcla de argumentos matemáticos rigurosos con presentacio-
nes y ejemplos más informales) son los más apropiados para el tipo d e
estudiante que toma este curso.
Sin embargo, se han hecho varios cambios y adiciones. En primer
lugar se hizo u n esfuerzo para eliminar varias erratas de imprenta y
otros errores que aparecieronena l primera edición. El autor está muy
agradecido a los numerosos lectores que no sólo descubrieron algunos
de ellos, sino que se interesaron lo suficiente como para indicármelos.
En segundo lugar se intentó hacer más claras las relaciones entre
variasdistribuciones d e probabilidades,demodoque el estudiante
pueda comprender mejor cómo usar varios modelos probabilísticos para
aproximarlos entresí.
Finalmente, se han aiiadido nuevos problemas a la ya larga lista
incluida en la primera edición.
El autor desea agradecer nuevamente Addison-Wesley
a su coopera-
ción en todos los aspectos que condujeron aesta nueva edición.
Pullman, Washington P. L. M.
Diciembre, 1969

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria

Índice General

Capítulo 1 Introducción a la probabilidad 1


1.1 Modelos matemáticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Introducción a los conjuntos ..................... 4
1.3 Ejemplos de experimentos no deterministas . . . . 5
1.4 El espacio muestral ............................... 10
1.5 Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Frecuencia relativa................................ 15
1.7 Nociones básicas de probatbilidad . . . . . . . . . . . . . . . . 17
1.8 Varias observaciones............................... 21
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Capítulo 2 Espacios muestrales finitos 27


2.1 El espacio muestral finito ......................... 27
2.2 Resultadosigualmenteprobables . . . . . . . . . . . . . . . . 25
2.3Métodos deenumeración ........................ 31
Problemas ......................................... 40

Capítulo 5 Probabilidad condicional e


independencia 43
3.1Probabilidadcondicional ......................... 43
3.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Eventos independientes .......................... 54
3.4Consideracionesesquemiiticas;
probabilidad condicional e independencia. . . . . . GI
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

http:leeydescarga.com/libreria http:leeydescarga.com/libreria http:leeydescarga.com/libreria


Capítulo 4 Variables aleatorias
unidimensionales 69
4.1 Noción general d e una variable aleatoria . . . . . . . . 69
4.2 Variables aleatoriasdiscretas ..................... 76
4.3 I d a distribuciónbinomial . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Variables alealoriascontinuas . . . . . . . . . . . . . . . . . . . . 55
4.5 Función de distribuciónacumulativa . . . . . . . . . . . . 90
4.6 Dist ribucioncsmixtas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Variables aleatorias distribuidas
..
unllormemcntc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.S .,
Una observac~on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

Capítulo 5 Funciones de variables


aleatorias 105
5.1
. .
U n eJenlplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2 Eventosequivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3 Variables aleatol-ias discretas . . . . . . . . . . . . . . . . . . . . . 108
5.4 \'n~-iables alcatorins continuas . . . . . . . . . . . . . . . . . . . . 111
I'roblernas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Capítulo 6 Variables aleatorias


bidimensionales y de mayor
dimensión 121
6.1 \'ariaI)lcs aleatorias bidimensionalcs . . . . . . . . . . . . . 121
6.2 Distribuciones d e probabilidades
nlarginalcs y condicionales . . . . . . . . . . . . . . . . . . . . . . . 125
6.3 Variables aleatorias independientes . . . . . . . . . . . . . . 134
6.4 Funcioncs d c 1 1 m varinblc aleatoria . . . . . . . . . . . . . 137
6.5 Distribuci6n tiel producto y del cocicntc d e
variables aleatorias independientes . . . . . . . . . . . . . . 142
6.6 Variablcs alcatorias n.-dinlensionales . . . . . . . . . . . . 145
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
h d i c e general xiii

Capítulo 7 Otras características de las


aleatorias
variables 153
7.1 El valor esperado de una variable aleatoria . . . . . 153
7.2 Esperanza de una función de
una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.3 Variables aleatorias bidimensionales . . . . . . . . . . . . . 166
7.4 Propiedades del valor esperado . . . . . . . . . . . . . . . . . . 165
7.5 La varianza de una variable aleatoria. . . . . . . . . . . . 175
7.6 Propiedades de la varianxa d e
una variable aleatoria ............................. 179
7.7 Expresiones aproximadas parala
esperanza y la varianza ........................... 132
7.8 Desigualdad de Chebyshev ....................... 156
7.9 El coeficiente d e correlación ..................... 189
7.10 Esperanza condicional ............................ 194
7.11 Regresión del promedio .......................... 197
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

Capítulo 8 La variable aleatoria de Poisson


y otras variables alleatorias
discretas 209
S. 1La distribución d e Poisson . . . . . . . . . . . . . . . . . . ... 209
8.2 La distribucih d e Poisson corno una
aproximación a la distribución binomial. . . . ... 211
s.3 El proceso d e Poisson ........................ ... 215
s.4 La distribución geométrica. . . . . . . . . . . . . . . . . . ... 224
8.5 La distribución d e Pascal .................... ... 225
S.6 Relación entre las distribuciones
binomial y d e Pascal ......................... . . . 230
s.7 La distribución hipergeométrica. . . . . . . . . . . . . . . 231
8.8 La distribución multinomial . . . . . . . . . . . . . . . . . . 233
Problemas .................................... . . . 234
xiv Íttdice getreral

Capítulo 9 Algunasvariables aleatorias


continuas importantes 239
9. I Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
9.2 La distribuci6n normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
9.3 Propiedades de la distribucicjn normal . . . . . . . . . . 240
9.4 Tabulaci6n d e la distribucibn normal . . . . . . . . . . . . 244
9.5 La distribucih exponencial . . . . . . . . . . . . . . . . . . . . . . 249
9.6 Propiedades d e la distribucidn esponencial . . . . . 250
9.7 La distribución gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
9.S Propiedades de la distribucidn gama . . . . . . . . . . . . 255
9.9 La distribución x-cuadrada . . . . . . . . . . . . . . . . . . . . . . 255
9.10 Comparación entre varias distribucioncs. . . . . . . . 260
9.1 1 La distribución normal bivariada . . . . . . . . . . . . . . . . 261
9.12 Distribuciones truncadas ......................... 263
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269

Capítulo10 La función generadora de


momentos 275
10.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
10.2 La función generadora de momentos . . . . . . . . . . . 2’76
10.3Ejemplos de funcionesgeneradoras
d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
c

10.4 Propiedades d e la función generadora


d e momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
10.5 Propiedadesreproductivas ....................... 256
10.6 Sucesiones d e variablesaleatorias . . . . . . . . . . . . . . . . 291
10.7 Nota final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292

Capítulo11 Aplicaciones a la teoría de la


confiabilidad 297
11.1Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
11.2 La ley normal de falla . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
11.3 La ley exponencia1 d e falla . . . . . . . . . . . . . . . . . . . . . . . 303
11.4 La ley exponencial de falla y la
distribución de Poisson ........................... 307
11.5 La ley de fallas de \Veibull . . . . . . . . . . . . . . . . . . . . . . . . 309
11.6Confiabilidad d e los sistemas ..................... 311
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316

Capítulo 12 Sumas de variablesaleatorias323


12.1
Introducción ...................................... 323
12.2 La ley de los grandes nilmcros . . . . . . . . . . . . . . . . . . . 324
12.3Al~roximaciónnormal de la
distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
12.4 El teorema de límite centr.11 ...................... 331
12.5Otrasdistribucionesaproximadas por la
distribuci6n normal: d e Poisson, de Pascal
y p n a ............................................. 338
12.6 La distribuci6n de la suma de L I ~
nilmero finito d c variables alcxorias . . . . . . . . . . . . 339
Proble~nas......................................... 346

Capítulo13 Muestras y distribuciones


muestrales 3 49
13.1Introducción ...................................... 349
13.2Muestrasaleatorias ............................... 351
13.3
Estadísticos ........................................ 354
13.4 Algunosestadísticos importantes . . . . . . . . . . . . . . . . . 355
13.5 La transformaci6nintegral ....................... 363
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3g5

Capítulo14
Estimación de paráimetros 373
14.1Introducción ...................................... 373
14.2Criteriosparaestimados .......................... 375
14.3 Algunosejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
14.4 Estimados de máximaverosimilitud . . . . . . . . . . . . . 354
14.5 El método de los mínimos cuadrados . . . . . . . . . . . . 395
xvi h d i c e general

14.6 El coeficiente d e correlación . . . . . . . . . . . . . . . . . . . . . 399


14.7 Intervalos de confianza ........................... 401
14.8 la distribución t de Student . . . . . . . . . . . . . . . . . . . . . . 403
14.9 MAS sobre los intervalos de confianza . . . . . . . . . . . . 406
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411

Capítulo15 Pruebas de hipótesis 417


15.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
15.2 Formulación gencral: distribución normal
con varianza conocida ............................ 424
15.3 Ejemplosadicionales ............................. 429
15.4 Prueba para la bondad de ajuste . . . . . . . . . . . . . . . . . 434
Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442

Referencias . . . . . ............................................... 447

Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451

Respuestas a problemas seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465

Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475


1.1 Modelos matemáticos

En este capítulo se tratará el tipo de fenómeno del que


nos ocuparemos
en este libro. Además, formularemos un modelo matem5tico que nos
servirá para investigar este fenómeno en forma bastante precisa.
Al principio es muy importante distinguir entre el fenómeno ob-
servable en sí mismo y el modelo matemático para dicho fenómeno.
Evidentemente, no influimos de manera alguna sobre lo que observa-
rnos; sin embargo, al elegir un modelo, si podemos aplicar nuestro jui-
J. Neyman,
cio crítico. Esto ha sido muy bien expresado por el profesor
quien escribió:*

“Cada vez que utilizamos las matematicas’ con el objeto d e estudiar fe-
nómenos observables es indispensable empezar por consLruir un modelo
maten1,itico (determinism o probabilístico) para estos fenómenos. Necesa-
riamente, este modelo debe simplificar Ins cosas y permitir la omisi6n d e

* University of Califomia Publications in Statistics, 7?01. I , University of California


Press, 1954.
a2 Introdzcccwn
probabilidad la 1.1

ciertos deulles.El éxito delmodelo depende desi los detalles que se omitie-
ron tienen o no importancia en el desarrollo de los fenómenos estudiados.
La solucirin del problema matemático puede ser correctay aún así estar en
desacuerdo con los datos observados, debido sencillamente aque no estaba
probada la validez d e las suposiciones básicas que se hicieron. Normalmente
es bastante dificil afirmar con certeza si un modelo matemritico es adecuado
o no, antes de obtener algunos datos, mediante la obsenracibn. Para verificar
la validez del modelo, debemosdeducir un cierto número deconsecuencias
del mismo y luego compararcon las observaciones esos resultados~redichos.”

Debemos tener presentes las ideas anteriores al considerar algunos


fenómenos obtenidos en la observación y los modelos apropiados para
su descripción. Examinemos primero lo que podría llamarse adecua-
damente un modeelo detenninista. A s í designamos al modelo que estipula
que las Condiciones en las que se verifica un experimento dcterminan
el resultado del mismo. Por ejemplo, si colocamos una batería en un
circuito simple, el modelo matcrnático que posiblemente describiría el
flujo observable de corriente sería I = E / R , que es la ley de Ohm. El
modelo predice el valor d e I tan pronto se dan E y R. En otras pa-
labras, si sc repitiese el experimento anterior cierto número de veces,
empleando cada vez el mismo circuito (esto es, manteniendo fijas E y
R), posiblemente hubiEramos esperado observar el mismo valor d e I.
Cualquier desviación que pudiese ocurrir sería tan pequeña que la ma-
yor parte de los objetivos de la descripción anterior (que es el modelo)
se cumplirían. La realidad es que la batería, el alambre y el amperíme-
tro utilizados para generar y medir la corriente y nuestra destreza para
usar los instrumentos de medición dctcrminan el resultado de cada re-
,
petición. (Hay cicrtos factores que muy bien pueden scr distintos de
repetición CII repetición y que, sin cmbargo, no afectarán cl resultado
de mancra notable. Por ejemplo, se puede considerar con razón que
la temperatura y la humcdad en el laboratorio, o bien la altura de la
persona quc lee el amperímetro, no tienen influencia en el resultado.)
IIay muchos cjcmplos de “experimentos” en la naturaleza para los
cuales los modelosdeterministassonapropiados.Porejemplo, las
leyes gravitacionales describen con precisión lo que sucedea un cuerpo
que cac cn ciertascondiciones. Las leyes deKepler nosindicanel
comporramicnto de los planetas. En cada caso, cl modelo sefiala que las
condiciones en las cuales se verifican ciertos fenómenos determinan cl
valor d e ciertas variables observables: la nzcgnitud de la velocidad, elúrea
recorrida durante cierto periodo d e tiempo, etc. Estas cifras aparecen
1.1 matemáticos Modelos 3

en muchas de las fórmulas con las cuales estamos familiarizados. Por


ejemplo,sabemosqueenciertascondiciones, la distanciarecorrida
(verticalmente sobre el suelo) porun objeto está dada por:S = -1Gt2 +
vat, donde vo es la velocidad inicial y t es el tiempo empleado. Lo que
queremos destacar no es la forma particulard e la ecuación anterior (que
es cuadrática), sino el hecho de que hay una relación definida entret y
S que determina unívocamente la cantidad del primer miembro d e l a
ecuación, si sedan las del segundo miembro.
En muchoscasos el modelo matematico determinista antes descrito es
suficiente. Sin embargo, hay también muchos fenómenosque necesitan
un modelo matem5tico distinto para su investigación. Esos son los que
llamaremos modelos nodeterministas o probabikticos. (Otro término muy
usado es modelo estochistico.) Más adelante, en este capitulo considera-
remos en forma muy precisa cómo se pueden describir tales modelos
probabi.lísticos. De momento consideraremos unos cuantos ejemplos.
Supongamos que tenemos un pedazo de material radiactivo que emi-
te partículas a. Con la ayuda de un dispositivo para medir podríamos
registrar el número departículas emitidas d,uranteun determinado in-
tervalo d e tiempo. Es evidente que no podemos predecir exactamente
cl número de partículas emitidas, aunque sepamos la forma exacta, la
dimensión, la composición química y la masa del objeto que se consi-
dera. Así no parece haber un modelo determinista razonable que nos
indique el número de partículas emitidas, digamos n, como una fun-
ción d e varias características propias de la fuente de radiactividad. En
s u lugar, debemos considerar un modelo probabilístico.
A manera de otro ejemplo, consideraremos la siguiente situación me-
teorológica. Deseamos determinar cuantalluvia caerá debido a una tor-
menta que pasa por una zona específica. Los instrumentos para regis-
trar la cantidad d e lluvia están listos. Las observaciones meteorológi-
cas pueden darnos información considerable sobre la tormenta que se
aproxima: la presión barométrica en diversos puntos, los cambios d e
presión, la velocidad del viento, el origeny la dirección d e la tormenta,
así como otros datos tomados a gran altura. Pero como esta informa-
ción tan valiosa es para predecir de modo muy general la forma de la
precipitación (débil, regular, intensa), sencillamente no permite saber
con mucha exactitud cuúnta lluvia caer&. De nuevo, estamos conside-
rando un fenómeno que por sí mismo no se presta a un tratamiento
determinista. Un modelo probabilístico describe la situación con mayor
exactitud.
4a Introduccwn 1.2

En principio podríamos indicar cuánta lluvia cayó, sila teoría se


hubieradesarrollado (lo que no sehizo). Por lo tanto,usamos un
modelo probabilístico. En el ejemplo relacionado con la desintegración
radiactiva, debemos usarun modelo probabilístico aun en principio.
A riesgo de adelantarnos a discutir un concepto que se definirámás
tarde, indiquemos simplemente que en un modelo determinista se supo-
ne que el resultado real(sea numérico o de otra especie) está definido
por las condiciones en las cuales se efectúa el experimento o procedi-
miento. En un modelo no determinista, sin embargo, las condiciones
experimentales sólo determinan el comportamiento probabilístico (más
específicamente, la distribución probabilística) d e los resultados obser-
vables.
En otras palabras, en un modelo determinista, utilizamos “considera-
ciones específicas” para predecir el resultado, mientras que en un mo-
delo probabilístico usamos la misma clase d e consideraciones que para
especificar una distribución d e probabilidades.

1.2 Introducción a los conjuntos

Con elfin d e discutir los conceptos básicos del modclo probabilístico que
deseamos desarrollar, será muy conveniente tener presentes algunas
ideas y conceptos d e la teoría matemática d e conjuntos. Este tema es
muy extenso y se h a escrito mucho acercad e él. Sin embargo, aquísólo
necesitaremos algunas nocionesbásicas.
Un conjunto es una colección d e objetos. Comúnmente los conjuntos
se designan con letras mayúsculas A , B , etc. Para describir qué objetos
están contenidos enel conjunto A, se dispone dctres métodos.
a) Podemos anotar los elementos d e A. Por ejemplo, A = { 1 , 2 , 3 , 4 }
indica el conjunto que contienelos enteros positivos 1, 2, 3 y 4.
6) Podemosdescribiralconjunto A con palabras.Porejemplo,
podríamos decir queA está formado por todos los números reales entre
O y 1, inclusive.
c) Paradescribir el conjuntoanterior,simplementeescribimos
A = {x 1 O 5 x 6 1); es decir, -4 es el conjunto d e todas las x, don-
d e x es un número real comprendido entreO y 1, inclusive.
Los objetos que formanla colección del conjuntoA se llaman miembros
o elementos d e A. Cuando “a” es u n elemento d e A escribimos a E A y
cuando “a” 110 es un elemento de ilescribimos a A.
IIay dos c o ~ ~ j u n t oespeciales
s que a menudo son de interés. En la
mayor parte de los problemas estamos interesados en el estudio de un
1.2 Introducción a los conjuntos 5

conjunto definido de objetos, y no de otros; por ejemplo, en todos los


números reales, en todos los artículos que salen de unalínea de produc-
ción durante un periodo de 24 horas, etc. Definimos el conjunto universal
como el conjunto de todos los objetos que se consideran. Normalmente
este conjunto se designa con U .
Otro conjunto que se debe destacar de maaneraespecial puede apa-
recer como sigue. Supongamos que se describe el conjunto A como
el conjunto de todos los números reales x que satisfacen la ecuación
+
x 2 1 = O. Evidentemente sabemos que no pueden existir tales núme-
ros. ¡El conjunto A no contiene ningún elemento!Esta situación ocurre
tan a menudo quejustifica la introducción de un nombreespecial para
tal conjunto. Por lo tanto, definimos el con-junto nulo o vacio como el
conjunto que no contiene elementos. En general, este conjunto se de-
signa con 0.
Puede suceder que cuando se consideran dos conjuntos A y B, ser
miembro de A implica ser un elemento d e j9. En tal caso se dice que
A es un subconjunto de B y se escribe A c B . Se da una interpretación
semejante a B c A . Decimos que dos conjuntos son el mismoA = B, si
y sólo si A c B y B c A . Esto es, dos conjuntos son iguales si y s610 si
contienen los mismos elementos.
Las dos propiedades siguientes del conjunto nulo y del conjunto
universal son inmediatas.
a ) Para cualquier conjunto A, se tiene 0 c A .
b ) Una vez que se ha acordado el conjuntlo universal, entonces para
cualquier conjunto A considerado que est5 enU , tenemos A c U .

EJEMPLO1.1. Supongaque U = todos los nilmerosreales, A =


+
{ x I x 2 + 2 x - 3 = O}, B = {x I (x - 2 ) ( x 2 22 - 3) = O} y
C = { x I x = -3,1,2}. Entonces A c B y B := C .

Ahora consideremos la importante idea decombinar conjuntos dados


con el fin de formar un nuevo conjunto. Se consideran dos operaciones
básicas. Éstas son paralelas, en ciertos aspectos, a las operaciones d e
suma y multiplicación de números. Supongamos que A y B son dos
conjuntos. Definamos C como la unidn de A y B (algunas veces llamada
la suma deA y d e B ) d e la manera siguiente:

C = { x I x E A o x E B ( o ambos)}.
6 Introduccwn a la probabilidad 1.2

Esto lo escribimos así: C = A U B. A s í , C está formada por todoslos


elementos que están enA, o en B , o en ambos.
Definimos D como la interseccidn d e A y B (algunas veces designado
como el producto deA y B ) como sigue:

Escribamos esto como D = A n B . Es así como D posee todos los


elementos que están enA y en B.
Finalmente presentamos la idea del complemento de un conjunto A
como sigue: el conjunto designado por A, formado por todos los ele-
mentos que no e s t h en A (sino en el conjunto universal U ) se llama el
complemento de A. Esto es, AC = {x 1 x $! A } .
Se puede usar con mucha ventaja un recurso gráfico conocido como
diugramu de Vénn cuando se combinan conjuntos de l a manera antes
indicada. En cada uno de los diagramas de l a figura 1.1, la región
sombreadu representa el conjunto considerado.

AuB AnB

FIGURA1.1

EJEMPLO1.2. Supóngaseque U = {1,2,3,4,5,6,7,8,9,10}; A =


{1,2,3,il},B={3,4,5,6}.I-IallamosqueAC={5,G,7,8,9,10),AUB=
{ 1,2,3,4,5,6}y An B = {3,4}. Nótese que al describir un conjunto (tal
como A U I?) anotamos cada elemento exactamente unavez.

Las operaciones anteriores de unión e intersección definidas justa-


mente para dos conjuntos pueden extenderse de una manera obvia pa-
ra cualquier número finito de conjuntos. Así definimos A U B U C como
A U ( B U C ) o ( A U B ) U C, que es el mismo, como fácilmente se puede
verificar. De igual manera, definimos A n B n C como A n ( B n C) o
(AnB)nC que también puedeverificarse que soniguales. Y es evidente
1.2 Zntroduccidn a los conjuntos 7

que podemos continuar esas construcciones de conjuntos nuevos para


cualquier número finito d e conjuntos dados.
Afirmábamos que ciertos conjuntos eran l o mismo, por ejemplo A n
( B n C ) y ( A n B ) n C . Resulta que hay varios conjuntos equivalentes,
algunos d e los cuales se indican más ade1ant:e. Si recordamos que dos
conjuntos son iguales siempre que contenganlos mismos elementos, es
fácil verificar que los enunciados establecidos son verdaderos. El lector
debe convencerse porsí mismo con ayudad e los diagramas d e Venn.
U) AUB=BUA, b) A n B = B n A ,
(1.1)
C) Au(BuC) = (AuB)uC, d ) A n ( B n C ) = (AnB)nC.

Nos referimos a a) y b) como las propiedades conmutativas, y a c) y d )


como las propiedades asociutivas.
Hay otrosconjuntos idénticosque contienen unión, interseccióny com-
plementación. Los más importantes se indican a continuación. En cada
caso, su validez puede verificarse con ayuda de un diagrama de Venn.
e) A u ( B n C ) = ( A u B ) n ( A u C ) ,
J) A n ( B u C ) = ( A n B ) u ( A n C ) ,
g) A n 8 = 0 , (1.2)
h) A U 8 = A ,
i) (A u B)' = ACn BC,
j ) ( A n B)' = ACU B C , K) = A.

Observamos queg) y h ) indican que0 se comporta entrelos conjuntos


(respecto a las operaciones U e n) como lo lhace el número cero entre
números (respecto alas operaciones d e sumfay multiplicación).
Para lo que sigue se necesita una construcción adicional de un con-
junto, dados dos (o más) conjuntos.

Definición. Sean A y B dos conjuntos. Indicaremos comoelproducto


cartesiano de A y B, escrito como A x B , al conjunto { ( a ,b ) , a E
A, b E B } , esto es, el conjunto de todos
los pares ordenados, donde
el primer elemento se toma deA y el segundo deB .

EJEMPLO1.3. Sea A = {1,2,3}; B = {1,:2,3,4}.


Entonces, A x B = {(1,1),(1.2), . . . , ( 1 , 4 ) , ( ' 2 , 1),. . . ,(2,4),(3,1),
. . . , (37.2)).
Obseruación: En general, A x B f B x A .
8a Introduccwn la probabilidad 1.3

La noción anterior puede extenderse como sigue:si A l , . . . ,A , son


conjuntos, entonces A , x A:!x . . . x A, = { ( a l ,u:!,. . . , u n ) ,a; E A ; } esto
es, el conjunto d e todas las n-tuplas ordenadas.
IJn caso especialmente importante aparece cuando tomamos el pro-
ductocartesiano deunconjunto consigomismo,esto es, A x A o
A x A x n . Ejemplos así aparecen cuando nos relacionamos con el plano
euclidiano, R x R, donde R es el conjunto de todos los números reales
y el espacio euclidiano tridimensional se representa como R x R x R.
El número de elementos en un conjunto nos seráde mucha utilidad.Si
hay un númerofinito d e elementos enA , digamos a l , a:!,. . . ,an decimos
que A esfinito. Si hay un númeroinfinito de elementos enA que pueden
ponerse en unacorresfiondencia uno-a-uno con los enteros positivos, de-
cimos que A es infinito contable o infinito numerable. (Se puede demostrar,
por ejemplo, queel conjunto de todoslos números racionales es infinito
contable.) Finalmente debemos considerar el caso de un conjunto infi-
nito no numerable. Tales conjuntos contienen un número infinito d e
elementos que no pueden ser enumerados. Se puede demostrar, por
ejemplo, que para dos números reales cualesquiera b > a , el conjunto
A = { z I a 5 2 5 b } tiene un nilmero no numerable de elementos.
Puesto que debemos asociar con cada número real un punto sobre la
recta d e los números reales, lo anterior expresa que cualquier intervalo
(no degenerado) contiene más de un ntímero contable de puntos.
Los conceptos antes mencionados, aunque representan sólo un breve
bosquejo d e la teoría de conjuntos, son suficientes para nuestro propósi-
to: describir con rigor y precisi6n considerables las ideas básicas d e la
teoría d e l a probabilidad.

1.3 Ejemplos de experimentos no deterministas

Estamos ahora listos para discutir lo que entendemos por experimento


“aleatorio” o “no determinista”. (Más precisamente, daremos ejemplos
de fenómenos para los cuales los modelos no deterministas son apro-
piados. Esta es una distinción que el lector deberá mantener presente.
Así nos referiremos fi-ecuentementea experimentos no deterministaso
aleatorios, cuando de hecho estamos hablando de un modelo no deter-
minista para un experimento.) No pretenderemos dar una definición
precisa d e diccionario para este concepto. En su lugar, daremos nume-
rosos ejemplos quela ilustran.
E1 : Se lanza un dado y se observa el número que aparece enla cara
supcrior.
1.3 Ejemplos de experimentos no deterministas 9

Sc lanza una moncda cuatro vcccs y se cuenta el n i m e r o total


d e caras obtenidas.
Se lanza u n a monctln cuatro veces y se observa l a sucesión d e
caras y scllos obtenidos.
Sc h1)rican artículos cn una línea de producción y se cuenta el
nQmcro de artículos dcfcctuosos producidos en un periodo d e
24 horns.
E l ala d c 1111 acroplano se armacon un gran núnm-o de rerna-
chcs. Sc cuenta el nillncrod c rcmachcs defectuosos.
Se fabrica una bonlbilla. Luego se prueba s u duración conec-
t h d o l a e nun portakín1paras y se anota cl tiempo transcurrido
(en horas) hasta quc se qucnm.
En un lote d e 1 O artículos hay3 dcfectuosos. Se elige un artículo
después de otro (sin sustituir el artjiculo clegido) hasta que se
obtiene cl illtinlo artículo dcfcctuoso. Sc cuenta el número total
de artículos sacados dcl lotc.
Se fabricanartículoshastaproducir 10 no dcfectuosos. Se
cuenta el número total de artículos manufkturados.
Se lanza un proyectil. Dcsp1Ii.s de un tiempo dcterminado t , se
anotan los tres componentes dcl a velocidad ' u z , vUyy v2.
Elo: Se observa un proyectil recién lanzadoen ticmpos, t l , t z , . . . ,t n .
En cada o p o r t ~ ~ n i d ased anota l a a'ltura del proyectil sobre el
suclo.
El 1 : hfcdir l a resistencia a la tensión d e m a barra de acero.
El2: De u n a urna que conticne sólo esferas negras, se escoge una
esfcl-a y se anota su color.
E13: U n tc1-lnógraro marca la temperaturacontinuamenteenun
periodo de 24 horas. En un sitio y en una fecha seíínlados, "leer"
dicho tcrmcigrafo.
E l 4 : En la situación descrita cn E13 se anmotan las temperaturas mini-
ma y máxima, 2 y y del periodo de 24 lloras considcrado.

?Qui. ticncn cn común los expcrilncntos anteriores? Los siguientes


aspectos son importantes para nucstra descripción d c un exl):l,pri?nento
aleatorio.
a ) Es posiiblc rcpctir cada cspcl-imcnto en forma indefinidasin cam-
biar esencialmente Ins condicioncs.
b ) Aunque cn gcncral no podcmos illdi,car cuA ser& un resultado
f m d c u k a r , podemos dcscribir el conjunto de todos los resultados posibles
del expcrinlcnto.
10 Introducción a la probabilidad 1.4

c) A medida queel experimento se repite,los resultados individuales


parecen ocurrir en forma caprichosa. Sin embargo, como el experi-
mento se repite un gran número deveces, aparece un patrón definido
o regularidad. Esta regularidad hace posible la construcción de un mo-
delo matemático preciso con el cual analizamos el experimento. Más
adelante abundaremos sobre la naturaleza e importancia d e esta regu-
laridad. Por el momento,el lector sólo necesita pensar en lanzamientos
rcpetidos de una moneda regular. Aunque las caras y sellos aparece-
rán sucesivamente de maneracasi arbitraria, es bien conocido el hecho
empírico d e que, después de un gran número de lanzamientos, la pro-
porción d e caras y sellos será aproximadamente igual.
Debe notarse que todos los experimentos antes descritos satisfacen
estascaracterísticasgenerales.(Porsupuesto,laúltimacaracterística
mencionada solamente se puede verificar por experimentación; deja-
remos a la intuición del lector creer que si el experimento se repitiese
un gran número de veces, la regularidad mencionada sería evidente.
Por ejemplo, si se probase un número de bombillas del mismo fabrican-
te, posiblemente el número debombillas quemadas, digamos en másd e
100 horas, podría ser predicha con bastante exactitud.) Nótese que el
experimento E12 tiene la peculiaridad de que sólo es posibleun resul-
tado. En general, tales experimentos no serán de interés, porel hecho
de que no sabemos qué resultado particular ocurrirá cuandose realice
un experimentoy que lo hace interesante para nosotros.

Obseruación: Al describir los diversos experimentos, hemos especificado no


sólo el procedimiento que se realiza, sino también lo que estamos interesados
e n observar (ver, por ejemplo, la diferencia entre E2 y E3. Éste es un punto
muy importante al cual nos referiremos más adelante cuando estudiemos las
variables aleatorias. Por el momento, observemos simplemente que, como una
consecuencia de un solo procedimiento experimental o la ocurrencia d e un
solo fcnómeno, se pudieron calcular varios valores numéricos diferentes. Por
ejemplo, si se elige una persona entre un gran grupo (y la elección propiamente
dicha se hace seglin el procedimiento experimental antes indicado), podríamos
estar interesados en la altura, peso, ingreso anual, nilmero dehijos, etc., de la
persona. Naturalmente, enIn mayoría d e los casos sabemos, antesde comenzar
nuestro experimento, las características numkricas que nos interesan.

1.4 El espacio muestra1


Definición. Con cadaexperimento E deltipoqueconsidcramos,
definimos el espucio m u e s t d como el conjuntod e todos los resulta-
1.4 El espacio muestral 11

dos posibles d e E. Usualmcnte designarnos este conjunto como S .


(En nuestro contexto,S representa el conjunto universal descrito
previamente.)

Consideremos cada uno de los experimentos anteriores y describa-


mos el espacio muestrald e cada uno. El espacio muestral S; se referirá
al experimento E;.

S1: (1,273, 4,576).


S2 : { 0 , 1 , 2 , 3 , 4 } .
S3 : {Todas las sucesiones posibles de la forma a l , a2, a s , a4 donde
cada ai = C o S según si aparece cara o sello en el i-ésimo
lanzamien to}.
S, : {O, 1,2, ..., N } , donde N es el número mhximo que se pudo
producir en 24 horas.
S5 : {O, 1 , 2 , ...,M } , donde M es el número de remachesinstalados.
S6 : { t I t 2 01.
S7 : {3,4,5,6,7,8,9,10j’:
SS : {10,11,12 ,...}.
Sg : { wz, vy ,w 2 , I vz, vy ,vz números reales;}.
2710: h l , ..., hn I h; 2 0,i = 1 , 2 , . . . , n } .
s11: { S I S 2 O}.
S12 : {esfera negra}.
S13: Este espacio muestral es el más importante d e los que aquíconsi-
deramos. Prácticamente debemos suponer que la temperatura
en cierta localidad específicanunca puede subir o bajar con rela-
ción a ciertos valores, digamos M y m. Fuera deesta restricción,
debemos admitirla posibilidad d e q u eaparezca cualquier gráfi-
ca con determinadas características.Es posible que ésta no tenga
saltos (esto es, representará una función continua). Además, la
gráfica tendrh ciertas características (le suavidad que pueden re-
sumirse en forma matemática al decir que la gráfica representa
una función diferenciable. Así, finalmente podemos enunciar
que el espacio muestral es

{fI f una función diferenciable, que satisface m 5 f(t) 5 Al,para toda t } .

5’14: {(z,y) I m 5 z 5 y 5 M } . Es decir, ,914 consta detodos


los puntos que están sobre y en un triángulo en el plano bi-
dimensional z, y.
12 Introducció?t a la probabilidad 11:

( E n este librono nos preocuparemos por los espacios mllcstrales dc la


complejidad encontrada cn S’1.3. Sin cmlnrgo, talcs espacios nlllestrales
aparecen, pero para SII estudio sc ncccsitan ~natemfíticasmAs avanzadas
que las quc presuponemos.)

A fin dc describir 1111 espacio Inucsrral asociado con u n experimento,


debcmos tcncr una idea 1111ly clara (IC lo qllc mcdirnos u observamos.
Por tanto, deberiamos 11al)lar d c “un” cspacio Inllcstl-al asociado con un
cspcrimcnto en vez de “cl” cspacio Inllcstral. A cstc rcspccto obsérvese
l a diferencia cntrc S’ y S2.
Nótesc también qtle cl rcsllltado d c 1111cspc~-inlcntono ncccsita ser
un nilmcro. Por cjemplo, en Ex c a d a I-csulrndo cs una sucesió~l de caras
y sellos. E n E9 y E 1 0 cada resultado collsistc cn u n \rector, mientras que
cn E13 es una funci6n.
ScrA importante an:tlizar d e n ~ l e ~clonzíwcro de rcsultados en un
espacio mucstral. Surgcn tres 1)osiil)ilidatfcs:cl cspacio mucstral puede
ser finito, infinito numcra1)leo i~lfinitono numcrablc. Iicfiribndose a los
ejemplos anteriorcs, notenloscluc S 1 , S’, ,C3: Sq, $95,S 7 y SI:! son finitos,
S8 es infinito numerable, y S G , S’g, ,$lo, S 1 1 , ,S13 )I ,914 son infinitos no
numerables.
En este punto podrÍa ser iltil comentar l a difcrencia cntrc un espa-
cio muestral matcmáticarnentc “idcalizado”y uno I-calizablcdc manera
experimental. Para estc prophsito, considcr-amos el cxpcrimcnto E6 y
s u espacio mucstral asociado S’,. Es evidcnte quc cuando anotamos el
tiempo total t durante el cual funciona una bond)illa, somos “víctimas”
de la prccisi6n de nuestros instrumcntos dc mcdici6n. Supongamos que
tcnemos un instrumcnto quc es capaz de marcar el ticmpo con dos cili-as
decimales, por ejemplo16:43horas. Con esta rcstricci6n impuesta nucs-
tro espacio muestra1 llcga a ser injnito numel-cdle: {0.0,0.01,0.02,. . . }.
Aun más, es m u y realista suponcr quc ninguna bonhilla puede durar
posiblelncnte más de I1 horas, donde /I p o d ~ í ascr u n nilmero muy
grande. Así, parece que si somos conlplcramcntc realistas cn l a descrip-
ción d e estc espacio ~ n u c s t r a l cstamos
, considel-alldo u n espacio mues-
t r a l j n i t o : {0.0,0.01,0.02,. . . , H } . El nillncro total d e resultados sería
(11/0.01) + 1, q\Ie scría un nilnlero m t l y grande si I1 es n~ocic~-adan~ente
grande, por ejemplo, 11 = 100. Rcsultal-ía matem5ticamente mAs sim-
ple y convenicntc sllponcr que todos los valores d e t 2 O son resultados
posibles y, por tanto, considcrar cl cspacio m ~ ~ c s t r$5’6 a l como se dcfinió
en principio.
1.5 Eventos 13

En virtud delos comentarios anteriores, varios d e los espacios mues-


trales descritos son ideales. En todas las situaciones subsiguientes, el
espacio muestral considerado será el que resulte más conveniente en
términos matemáticos. En la mayoría de los, problemas no habrá mu-
chas dudas en cuantoa la elección apropiada del espacio muestral.

1.5 Eventos

Otra noción básica es el concepto de un evento. Un eventoA (respecto


a u n espacio muestral particular S asociado con un experimento E) es
simplemente un conjunto de resultados posibles. En la terminología d e
conjuntos, un evento es un subconjunto del espacio muestral S. En vista
de nuestra exposición previa, esto significa que S mismo es u n evento
y también lo es el conjunto vacío 0. Cualquierresultadoindividual
también puede considerarse como un evento.
Los siguientes son ejemplosd e eventos. Otra vez nos referimos a los
experimentos antes anotados: A; se referirái a un evento asociado con
el experimento E,.

A l : Un número par ocurre; esto es, Al := {2,4,6}.


A2: (2); es decir, ocurren dos caras.
A S : {CCCC, CCCS, CCSC, CSCC, SCCC}; es decir, salen más ca-
ras que sellos.
Aq: {O}; es decir, todos los artículos fuerlon no defectuosos.
As: { 3 , 4 , ...,M } ; es decir, más de dos rernaches fueron defectuosos.
A6: {t I t < 3); es decir, la bombilla s e quema en menos de tres
horas.
+
A14: {(z,y) I y = z 20}; es decir, el máximo es 20” mayor que el
mínimo.

Cuando el espacio muestral S es finito o infinito numerable, todo


subconjuntosepuedeconsiderarcomounevento. [Es un ejercicio
fácil d e verificar, y que haremos en breve, si S tiene n elementos, hay
exactamente 2n subconjuntos (eventos).l Sin embargo, si S es infinito
no numerable, aparece una dificultad teórica.Resulta que no cualquier
subconjunto concebiblese puedeconsiderarcomounevento.Por
razones que escapan al nivel d e esta presentación, ciertos subconjuntos
“no admisibles” deben ser excluidos. Por fortuna, tales conjuntos no
admisibles en realidad no aparecen en las aplicaciones y, por tanto, no
nos interesarán aquí. En lo que sigue se supondrá tácitamente que cada
14 Itztroducción a la probabilidad 1.5

vez que mencionemos un evento será la declase que nos está permitido
considerar.
Podemos usar ahora los diversos métodos para combinar conjuntos
(es decir, eventos)y obtener los nucvos conjuntos (es decir, eventos) que
presentamos con anterioridad.
a) Si A y B son eventos, A U I? es el evento que ocurre si y sólo si il o
B (o ambos) ocurren.
b) Si A y B son eventos, A n B es cl evento que ocurre si y sólo si A y
B ocurren.
c) Si A es un evento,A” es cl evento que ocurre si y sólo si A n o ocurre.
d ) Si z41,. . . , A , cs cualq~liercolección finita de eventos, entonces
U=
;, A; es el evento que OCUI-re si y sólo si al menos uno d e los eventos A;
ocurre.
e ) Si A l : . . . , A , es cualquicr coleccidn finita d e eventos, entonces
ny==,A ; es el evento que ocurresi y sólo si todos los eventos Ai ocurren.
J) Si A l , . . . ,A,, . . . es cualquier colección infinita (numerable) de
eventos, entonces uEl A ; cs el evento que ocurre si y sólo si al menos
uno de los cventos A ; ocurre.
g) Si Al ~.. . , A , , . . . es cualquier colección infinita (numerable) d e
eventos, entonces nzl A l es el evento que ocurre si y sólo si todos los
eventos A ; ocurren.
h ) Stlp6ngasc que S reprcscnta el espacio mucstral asociado con un
experimento E y realizarnos E dos veces. Entonces S x S se puede utilizar
para rcpresentar todos los resultados d e csas dos repeticiones. Es decir,
(sl,s2) E S x S significa quc s1 resultó cuando se realizó E la primera
vez y S? cuando se realizó E la segunda vez.
i) Evidcntcmente, cl ejemplo h se puede generalizar. Consideremosn
repeticiones d c u n espcrimcnto E cuyo espacio muestrales S. Entonces,
S x S x . . . x S = { ( S ] , S ? , . . . ,,S,,),si E S, i = 1,. . . , T I } representa el
conjunto dctodos los ~-csultadosposibles cuando E se realiza n veces. En
cierto sentido, S x S x . - x S cs un espacio mucstral en si mismo, o sea
cl espacio mtlcstr-al asociado con n repeticiones d e E .
Definición. Se dice que dos eventos, A y B son mutuanzente e x c l y e n t e s
si no puedcn ocurrir juntos. Expresamos esto escribiendo AnB =
0; cs dccir, la intcr-scccibn d e A y B es el conjunto vacío.
EJEMPLO1.4. Se prucbaunartefactoclectrdnico y seregistrasu
tiempo total deuso, digamos t . Supongamos que el espacio muestral es
{ t 1 i 2 O}. Sean il, 4 y C tres eventos definidos como sigue:
1 .G Frecuencia relativa 15

A = {t 1 t < loo}; B = { t 1 50 5 t 5 200}; C = {t 1 t > 150).


Entonces,

Como se estudió en la sección anterior, una de las características


básicas del concepto de “experimento” es que nosabemos qué resultado
particular se obtendrá al realizarlo. En otras palabras,
si A es u n evento
asociado con el experimento, no podemos indicar con certeza que A
ocurrirá o no.Por lo tanto, llega a ser ‘muy importantetratarde
asociar un número con el evento A que medirá, de alguna manera, la
posibilidad de queel eventoA ocurra. Esta tarea nos conduce a l a teoría
de probabilidad.

l .6 Frecuencia relativa

Para motivar el planteamiento adoptado para la solución del problema


anterior,consideremoselprocedimientos8iguiente.Supóngaseque
repetimos n veces el experimento E y sean A y B dos eventos asociados
con E . Sean nA y ng el número respectivo de veces que el evento A y el
evento B ocurricron en Ins n repeticiones.

Definición. fA = nA/n se llamafrecuenci,u reldivadcl eventoA en las


n repeticiones de E . La frecuencia relativa fA tiene las siguientes
propiedades importantes, que son veri,ficables fácilmente.

1) 0 5 fA 5 1-
2) f A = 1 si y sólo si A ocurre cada vez en Ias n repeticiones.
3 ) fJi = O si y sólo si 4 nunca ocurre en las n repeticiones.
4) Si A y B son dos eventos que se excluyen mutuamente y si filvg
es la frecuencia relativa asociadaal evento A U B, entonces f ~ ” =
n
fA -k fB.
5) f A , basada en las n repeticiones del experimento y considerada
para una función d e n, “converge” en cierto sentidoprobabilístico
a P ( A ) cuando n + OO.
16a Irttroducción la probabilidad 1.6

Observación: La propiedad 5) obviamente est5 indicada d e manera vaga en


este momento. Sólo m& adelante (Sec. 12.2) podremos precisar más esta idea.
Por ahora indiquemos simplemente que la propicdad 5) encierra la noción
bastante intuitivade quela frecuencia relativa con base en un número creciente
d e observaciones tiende a“estabilizarse” en la prosimidad de unvalor definido.
Esto no es lo mismo que el concepto corrientede convergencia que se encuentra
en otra parte enmatemáticas. En realidad, como se indicóaquí, éSta no es del
todo una conclusión matemfitica, sino simplemente un hecho empírico.
La mayor parte de nosotros intuitivamente estamos conscientes d e este fe-
nómeno d e estabilización, aunque puede ser que nunca lo haynmos verificado.
Hacerlo requiere una considerable cantidad de tiempo y paciencia, p” que se
necesita un gran niímero de repeticiones de un experimento. Sin embargo,
algunas veces podemos ser observadores inocentes de este fenómeno, comolo
ilustra el siguiente ejemplo.

EJEMPLO1.5. Supóngase que estamos parados en una acera y nos


fijamos en dos losas d e concreto adyacentes. Imaginemos que empieza
a llover d e tal manera que realmente podcmos distinguir unas gotas de
,
otras y les seguimos la pista para averiguarsi caen en una losa o en otra.
Continuamos observandolas gotas individualesy anotamos su punto de
impacto. Simbolizando la i-ésima gota por X;, donde X; = 1 si la gota
cae en unalosa y O si cae en la otra, podríamos observar una sucesión tal
como 1, 1, O, 1, O, O,O, 1, O, O, 1. Ahora está claro que no podemos pre-
decir dónde caerá la gota en particular. (Nuestro experimento consiste
en una especie d e situación meteorológica que origina la caída d e las
gotas de lluvia.) Si calculamos la frecuencia relativa del evento A = {la
gota cae en la losa l}, entonces la sucesión anterior d e resultados da
origen a las frecuencias relativas si uientes (con base en la observación
d e 1, 2, 3, . . . gotas): 1,1,32 , T3 , 33 , 3 75 , F,
4 4 4 5
. . Esos valores mues-
i5,m,n,.
tran un grado considerable de variación, especialmente a l comienzo.
Intuitivamente es claro que si continuara en forma indefinida el expe-
rimento anterior, esas frecuencias relativas se estabilizarían próximas al
valor i. Porque tenemos toda la razón para creer que después de que
haya transcurrido cierto tiempo, las dos tosas estarían igualmente mo-
jadas.
Esta propiedad deestabilidad d e la frecuencia relativa esaún una no-
ción bastante intuitiva y sólo m& tarde podremos precisarla matemáti-
camente. Lo importante deesta propiedad es quesi un experimento se
realiza un gran número deveces, la frecuencia relativa con que ocurre
un eventoA tiende a variar cadavez menos a medida que el número de
1.7 de bdsicasNociones probabilidad 17

repeticiones aumenta. A esta característica s e le designa como regulari-


&d estadisticu.
También hemos sido algo imprecisos en nuestra definición de expe-
rimento. Exactamente, ¿cuándo un procedimiento o mecanismo, en el
sentido que le estamos dando, es un experimento susceptible de estu-
diarse rnatemáticamcnte mediante un modelo no determinista? Antes
indicamos que debe ser posible efectuar un experimento unay otra vez
sin cambiar las condiciones esenciales. Allora podemos agregar otro re-
quisito. Cuando el experimento se realiza repetidamente debe presen-
tar la regularidad estadística a la que antes nos referimos.Más adelante
estudiaremos un teorema (llamadola ley d e los grandes números) que
muestra quela regularidad estadística es en realidad unaconsecueizciu d e
la primera condición: la repetibilidad.

1.7 Nociones básicas de probabilidad =

Volvamos ahora al problema antes propuesto: asignar un número a


cada evcnto A que medirá l a posibilidad dte que A ocurra cuando el
experimento se realiza. Un planteamientoposible podría serel siguiente:
repetir el experimento un gran número de veces, calcular la frecuencia
relativa fA y usar este número. Cuando recordamos las propiedades
d e f ~ está
, claro que este número da una indicación muy definida d e
que posibilidad existe de que A ocurra. Aún más, como sabemos que
el experimento se repite más y más veces, 1.a frecuencia relativa fA se
estabilizacerca de algún número, digamos p . Sin embargo, hay dos
objeciones serias a este planteamiento. a) IVo está claro cuan grande
debe sern antes de queconozcamos el número.¿ lOOO? ¿2000?¿ 10 OOO?
b) Una vez que el experimento se ha descrito por completo y se ha
especificado el evento A , el número que buscamos no debe depender
del experimentador o de una racha de suerte en particular con la
que é1 experimenta. (Por ejemplo, es posible que con una moneda
perfectamente balanceada quese lanzó 10 veces resulte 9 caras y 1 sello.
La frecuencia relativa del evento A = { salen caras} es así igual a m. 9
Aunque es posible que en los 10 lanzamientos siguientes el modelo d e
caras y sellos puede estar invertido.) Lo quc queremoses un medio de
obtener tal número sin recurrir a la experimentación. Por supuesto,
para que el número estipulado sea significativo, cualquier experimento
debería dar una frecuencia relativa “cercana” al valor estipulado, en
especial si el número de repeticiones lasen cuales se calculól a frecuencia
relativa es muy grande. Procederemos formalmente como sigue.
18 laIntroducciórt a
probabilidad 1.7

Definición. Sea E un experimento y S un espacio muestral asociado


con E . Con cada evento A asociamos un número real, designado
con P ( A )y llamadofirobahilidad de A, el cual satisfacelas siguientes
propiedades.

1) O 5 P ( A ) 5 1.
2) P ( S ) = 1.
3) Si A y B son eventos que se excluyen mutuamente, P(,4 U B ) =
+
P(A) P(B).
4) Si A l , A2,. . . ,A,,, . . . son eventos que se excluyen mutuamentede
par en par, entonces

Observemos que dela propiedad 3 se deduce de inmediato que para


cualquier n finito,

/ n \ n

La propiedad 4 no se sigue; sin embargo, cuando consideramos el


espacio muestral idealizado, esta condición será necesariay, por tanto,
se incluye aquí.
La elección de estas propiedades de la probabilidad está obviamente
motivada porlas características correspondientesd e la frecuencia relati-
va. La propiedad antes mencionada como regularidadestadística, más
tarde se ligará con esta definición d e probabilidad. Por el momento
sólo demostraremos quelos valores d e P ( A )y f~ están “próximos” uno
al otro (en cierto sentido), si f~ se basa en un gran número de repeti-
ciones. Este hecho es el que justifica el empleo de P ( A ) para medir la
probabilidad de queA ocurra.
Por el momento nosabemos cómo calcular P ( A ) . Sólo hemos anotado
algunas propiedades generales que poseeP ( A ) . El lector deberá tener
un poco más d e paciencia (hasta el próximo capítulo), para aprender
cómo calcularP ( A ) .Antes d e volver aeste tcma indiquemos y probemos
varias consecuencias relativas aP ( A ) que se deducen delas condiciones,
y que en realidad no depende de cómo calculamos P ( A ) .

Teorema 1.1.. Si 0 es el conjunto vacío, entonces P ( 0 ) = O.


1.7 probabilidad
Nociones
de básicas 19

Demostración: Podemos escribir, para cualquier eventoA , A = A U 8. Puesto


que A y 0 son mutuamente excluyentes, de la propiedad 3 se deduce que
P ( A ) = P ( A U 0) = P ( A )+ P(0). A partir deesto la conclusión del teoremaes
inmediata.

Obseruacidn: Más adelante tendremos ocasión de ver que el recíproco del


teorema anterior no es verdadero. Esto es, si P ( A ~=
I O, en general no podemos
concluir que A = 0, porque haysituaciones en queasignamos probabilidad cero
a un evento que puede ocurrir.

Teorema 1.2. Si A' es el evento complementario de A, entonces

P ( A ) = 1- P ( A C ) (1.4)

Demostración: Podemos escribir S = A U A' y, usando las propiedades 2 y 3,


+
obtenemos 1 = P ( A ) P ( A C ) .

Obseruacwn: Este es un resultado muy íítil porque indica que cada vez que
deseamos calcular P ( A ) en su lugar podemos calcular P ( A C )y obtener el re-
sultado deseado porsustracción. Después veremos que en muchos problemas
es & S fácil calcular P ( A C )que P ( A ) .

Teorema 1.3. Si A y B son eventos cualesq:uieru, entonces

P ( AU B ) = P ( A ) + P ( B ) - P ( : An B ) .

-
AnB AnB

FIGURA1.2

Demostración: La idea d e esta demostración es, descomponer A U B y B e n


eventos que se excluyen mutuamentey luego aplicarla propiedad 3. (Véase el
diagrama d e Venn en la Fig. 1.2)
20 Introducción a la probabilidad 1.7

Así escribimos

Por lo tanto,

P(Au U )= P(A) + P ( B n A"),


P ( D ) = P ( A n U )+ P ( U n 1 F j .
Sustrayendo la segunda ecuación d e la primera, tenemos

P ( A u U ) - P ( B ) = P ( A )- q . 4 n U )
y, por tanto, se obtieneel resultado.
Obsernacióu: Este teorcma representa una extensión oljvia de la propiedad
3 , porque si A n L? = 0, d e lo anterior obtenemos el enunciado de la propie-
dad 3 .

Teorema 1.4. Si A , I3 y C son tres eventos cualesquiera, entonces

Demstrucwu: La demostración consiste en escribir A u B u C como (AuB)uC


y aplicar el resultado del teorema anterior. Dejamos
los detalles al lector.

Observación: Una extensión obvia dcl teorema anterior se sugiere por si


misma. Sean A l , . . . , A k k eventos cualesquiera. Entonces
k k

i=l i<j=2
k
+ P ( A ; n ~j n A,> + ...+ ( - I ) ~ - I P ( A ~ n A:, n . . . n Ak).
i<j<r=3

(1.7)

Este resultado se puede establecer


fAciimente por inducción matemática.

Teorema 1.5. Si A c U , entonces P ( A ) 5 P( B ) .


1.8 Varias obserzmciones 21

Demostración: Podemosdescomponer B en dos eventos que se escluyen


mutuamente como sigue: L3 = A U ( B n A'). P'or lo tanto, P ( B ) = P ( A ) +
P ( B n A ) 2 P ( A ) ,puesto que P ( B n A C )2 O, según la propiedad 1.

Obseruación: Este rcsultado es intuitivamente atractivo, porque dice que si B


debe ocurrir cada vez que A ocurre, entonces B (3s al menos tan probable co-
mo A .

1 .S Varias obsemaciones

a ) Cabe aquí una advertencia.De la exposicih previa se podría inferir


(incorrectamente) que cuando elegimos un modelo probabilístico para
la descripción d e algimfenómeno observalble descartamostodas las
relacionesdetcrministas.Nadapuedeestarmás lejos d c la verdad.
Mantenemos todavía el hecho dc que, por ejemplo, la ley de Ohm
I = E / R esválida en ciertascircunstancias. La diferenciaserá d e
interpretación. E n vez d e decirque la rcl.;~ciónanteriordetermina
I para E y R dadas,reconoceremosque E o R, o ambas,pueden
variardeunamaneraaleatoria e imprecisa y que, por lo tanto, I
variará también de una manera aleatoria. ]'al-a E y IL dudas, todavía
I se determinapor la relaciónanterior. Lo importante es cuando
adoptamos un modeloprobabilístico para la descripción de un circuito,
consideramos la posibilidad d e que E y R pueden variar de manera
imprecisa que sólo se puede describir probal;ilísticarnente. h i , puesto
que será importante considerarsólo la jwobubilidad de que E y R tomen
ciertos valores, llega a ser significativo hablar
sólo de la probabilidad d e
ql1e I tome ciertos valores.
6) La clección entre adoptar un modelo deterministao probabilístico
en algunasocasiones puede ser dificil. Puede depender dclo intrincado
de nuestra técnica de medición y la precisión asociada. Por ejemplo, si
las medidas precisas son tan dificiles de obtener que las lccturas repe-
ridas d e la misma cantidad produzcan resultados variables, un modelo
probabilístico es sin duda más adecuado para describir la situación.
c ) Seííalaremos en forma breve que ciert.as
en circunstancias podemos
hacer suposiciones adicionalcs acerca d e la conducta probabilística d e
nuestros resultados experimentales que nos conducirán a un método
para evaluarlas probabilidades básicas. La elección d e esas suposiciones
adicionales puede basarse en consideraciones fisicas del experimento
(ciertas propiedades de simetría, por ejemplo), evidencia empírica o,
en algunos casos, simplcnlenteunjuiciopersonalconbaseenuna
22 Introducciólt a la probabilidad 1.8

csperiencia prcvia ante una situación similar. Lafrecuenciarelativa


f , ‘ ~puede tener un papel importante cn nuestra decisión acerca de una
asignación num6rica dc P ( A ) . Sin embargo, es importante darse cuenta
d e q u e cualquicr suposición que hagamos accrca de P ( A ) debe ser tal
que sc satisfagan los axiomas básicos del 1) al 4) d e la definición 1.3.
d ) En cl transcurso del desarrollo d c las idcas bkicas de la teoría
d e probabilidad haremos algunas referencias a cicrtas analogías con la
mecánica. La prinlcra d c ellas puede ser apropiada aquí. En mecánica
asignamos la masa a cada cuerpo B , digamos m ( B ) . Luego hacemos
varios cálculos y llegamos a diversas conclusiones acercad e la conducta
d e B y su relación con otros cuerpos, muchos d e los cuales implican
sumasa m ( B ) . El hecho de que en realidad tengamos que recurrir
a alguna aproximación para obtener nz(B) para un cuerpo específico
nodisminuye la utilidaddelconcepto d e masa.Deigualmanera,
establcccmos para cada evcnto A , asociado con el espacio muestra1 d e
un experimento, un número P ( A ) llamado la probabilidad d e A y
que satisrace los axiomas básicos. En realidad, al calcular P ( A ) para
un evento específico, tenemos quc hacer hipótesis adicionales o bicn
obtener una aproximación basada en evidencias empíricas.
e ) Es muy importante darnos cuenta de que hemos postulado la exis-
tencia del númeroP(‘4)y que hemos postulado ciertas propiedades que
posee este número. La validez d e las diversas consecuencias (tcoremas)
derivadas deesos postulados de ninguna manera depende de cómo ob-
tenemos un valor numérico para P ( A ) . Es vital aclarar este punto. Por
+
ejemplo, hemos supuesto queP(A U B ) = P ( A ) P ( B ) . A fin de usar
esta relación para la evaluacio’n rcal d e P ( A U B ) , debemos conocer el
valor d e P ( A ) y de P ( B ) .Analicemos brevemente cómo, en ciertas cir-
cunstancias, debemos hacer suposiciones adicionales que conduzcan a
un método para evaluar esas probabilidades. Si estas (u otras) supo-
siciones no cstán garantizadas, debemos recurrir a la experimentación
para aproximar el valor d e P ( A ) de los datos reales. La frecuencia re-
lativa f~ desempel’iar5 un papel destacado en estoy, d e hecho, se usará
como una aproxinlacibn d e P ( A ) .
Sin embargo, es importante tener presente que f~ y P ( A ) no son
lo mismo, que sólo usamos fjl comoaproxilnaci6nde P ( A ) , y que
cada vez que nosrcferimosa P ( A ) noscstamos refiriendo al valor
postulado. Si “idcntificamos” fyi con P ( A ) debernosdarnoscuenta
que simplcmentc sustituimos un valor postulado por uno aproximado
obtenido en forma expcrimental. Qué tan buena o mala pueda ser
esta aproximación, de ninguna manera illfluye en la estructura lógica
Problemas 23

dc nuestro modelo. Aunque el fcnómcno que pretende representar cl


modclo sc consideró a l construirlo, nos hemos separado del fenómeno
mismo (temporalmente al mcnos), cuando entramos en el dominio del
modelo.

PROBLEMAS
1.1. Supóngase que el conjunto universal consta d e los enteros positivos d e
A = { 2 , 3 , 4 } , B = { 3 , 4 , 5 } y C = { . T , G , 7). Anote los elementos d e
1 a 10. Sean
los siguientes conjuntos.
U) ACn B b ) ACu B C) ( A Cn d ) ( A n ( B n C)')' e ) ( A n ( B u C))"
1.2. Supóngase que el conjunto universal U esd dado porU = {x I O 5 z 5
2). Sean los conjuntos A y B definidoscomosigue: A = {x I < 2 5 1) y
B = {z I 5 2 5 i}.
Describa los conjuntos siguientes:
a)(AUB)cb)AUBcc)(AnB)Cd)ACnB
1.3.{Cuáles d e las siguientes relaciones son verdaderas?
a) ( A U B ) n ( A U C ) = A U ( B n C ) b ) ( A u B )= ( A n B c ) u B
C) ACnB=AUB d)(,4~B)~nc=A~nB~nC~
e) ( A n B ) n ( B C n C ) = O
1.a. Supóngase que el conjunto universal consta de todos los puntos (x,y)
cuyas coordenadas son enteros y quedan dentro o sobre el contorno del cua-
drado acotado por las rectas z = O, y = O, x = G y y = B. Indique los elementos
d e los conjuntos siguientes.

a) A = {(Z,Y) I + Y2 I 6) b)B = {(Z,Y) I 5' I x 2 )


c) C = {(z,YI 2 5 y2) d)B n C e ) ( B u A ) n Cc
1.5. Usar los diagramas de \enn para establec'er las siguientes relaciones.
a ) A c B y B c C implican que A c C b ) A c B implica q11e A = A n B
c ) 11 c U implica que BC c AC d ) A c B implica que A U C c B U C
e ) A n B = 0 y C c A implica que B n C = 0
1.6. Los artículos provenientes de una línea d e producción se clasifican
como defectuosos ( D ) o no defectuosos ( N ) . Se observan los artículos y se
anota su condición. Este proceso se continila hasta que seproduzcandos
artículos defectuososconsecutivos o se verifiquen cuatro artículos, cualesquiera
que ocurra primero.Describir 1111 espacio muestra1 para este experimento.
1.7. a ) Una caja con N bombillas tiene v(v < N ) unidades con filamentos
rotos. ESLIS se prueban una por una, hasta que :;eencuentra una defectuosa.
Describir un espacio muestra1 para este expcrimcnto.
24 Introducción a la probabilidad

b) Supónpzm que las bombillas anteriores se prueban una por una, hasta
que se prueban todas las defectuosas. Describir el espacio mnestral para este
experimento.
1.8. Considkrcnse cuatro objetos, n , b, c y d. S u p ó n p e que el oulen en el
cual se anotan esos objetos representa el resultado de un experimento. SeanA
y B los eventos definidos como sigue: A = { a est5 en el primer l u p r } ; B = { b
cst5 en el segundo lug“}.
a ) Anotar todos los elementos del espacio muestral.
b) h o t a r todos los elementos de los eventos A n B y il U D .
1.9. Un lote contiene artículos que pesan 5, 10, 15,..., 50 libras. Supóngase
qne al menos dos artículos d e cada pcso se encuentran allí. Se eligen dos
artículos dcl lote. Identifiquese con S el peso del primer articulo elegido y
con I’ cl pcso del segundo artículo. Así, el par de nlimcros ( X , Y representa
)
un solo resultado dcl experimento. Usando el plano STY,indiquese el espacio
muestral y los eventos siguientes.
a) { S = I ‘ } b ) {Y > S }
c ) El segundo ardculopesa el doblc del primero.
d ) E1 primer artículo pesa 10 libras menos que el segundo.
e ) El promcdio d e peso de los dos artículos es menos de 30 libr‘as.
1.10. E n un periodo de 21 horas, en u n momento S , un interruptor se
pone en la posición “cnccnditlo”. Posteriormente, en un momento Y (en el
rnisnlo periodo d e 2.1 horas), el interruptor se pone en la posición “apagado”.
Supcingase que X y Y se miden en h o r a e n el eje de tiempo conel comienzo del
periodo como origen.El resultado del experimento consta delpar denlimeros
( S , 1‘).
a) Describir el espacio mucstral.
b ) Describir y dibujar los siguientes eventos en cl plano SI’.
i) El circuito funciona durante una hora o menos.
ii) El circuito hnciona en el tiempo z, donde z es 1111 instante durante el
periodo tlado tlc 2.1 horas.
iii) 1 1 circuito empieza a funcionar a n t a del tiempo t l y deja de funcionar
después del ticlnpo t 2 (tlontlc otra~ e 11z < 12 son dos instantesd e ticmpo
durante el periodo especificado).
iu) El circuito funciona cl doble de lo que est5 apagado.
1.1 1 . Scan :I, B y C tres eventos asociados con un experimento. Expresar
las siguientes proposiciones \~erbalesen notación d e conjuntos.
mcnos uno d e los eventos ocurre.
a ) ill
0) Exactamente uno d c los eventos ocurre.
c) Exactamente d o s dc los eventos ocurren.
Problemas 25

d ) No ocurren más d e dos eventos simultjnearnente.


l . 12. Demostrar el teorema 1.4.
1.13. a ) Demostrar que para dos eventos cualesquiera, A l y A2, tenemos
+
P(Al u A2) 5 P(A1) P(A2).
b ) Demostrar q u e para n eventos cualesquiera A l , . . . A,, tenemos

P(A1 U . . . U A , ) 5 P(A1) + . . + P(A,).


[Sugerencia: Usar una inducción matemiltica. IC1 resultado que se indica en
b ) se llama desigualdad de Boole]
1.14. El teorema 1.3 tram d e la probabilidad de que u1 menos uno de los
eventos A o B ocurra. La proposición siguiente t.rata de In probabilidad de que
exuctanwnte uno de los eventos A o B ocurra.
Demostrar que P[(A n l?' U +
)( B n A ' ) ] = P ( A ) P ( B ) - 2P(A n B ) .
1.15. Cierto tipo d e motor eléctrico falla por obstrucción d e los cojinetes,
por combustión del embobinado o por desgaste (de las escobillas. Supóngase
que la probabilidad de la obstrucción es del dob'le d e la combustión, la cual
es cuatro veces más probable que la inutilización de las escobilla. ?Cuál es la
probabilidad de quela falla sea por cada uno deesos tres mecanismos?.
l . 16. Supóngase que A y B son eventos para 10:s cuales P ( A ) = x, P ( B ) = y,
y P ( A n B ) = L. Expresar cadauna delas probabilidades siguientesen términos
d e x,y y L.

a ) P(ACU B C ) b ) P(ACn B ) c) P ( A CU l?) d') P ( A Cn O")


1.17. SupóngasequeA, B , yCsoneventostalesqueP(A) = P ( B ) = P ( C ) =
i,
P ( A n B ) = P(C n B ) = O y P ( A n C) = 8. Calicular la probabilidad d e que
al menos uno delos eventos A, B o C ocurra.
l . IS. Una instalación consta de dos calderas y un motor. Sea A el evento d e
que el motor estáen buenas condiciones, mientras que los eventos BI,( k = 1, 2)
son los eventos de quela k-ésima caldera estéen buenas condiciones. El evento
C es que la instalación pueda funcionar. Si la instalación funciona cada vez que
el motor y al menos una caldera funcione, expresar C y C" en términos d e A y
de los eventos d e B;.
l . 19. Un mecanismo tiene dos tipos d e repuestos, digamos I y 11. Suponga
que hay dos del tipo I y tres del tipo 11. Definir 110s eventos AI,, k = 1 , 2 y B j ,
j = 1 , 2 , 3 como signe: AI,: la k-ésima unidad del tipo I está funcionando co-
rrectamente; Bj: la j-ésima unidad del tipo I1 est5 funcionando correctamente.
Finalmente, C representa el evento: el mecanismcl funcionan. Dado que el me-
canismo funciona si a1 menos una unidad del tipo I y dos unidades deltipo I1
funcionan, exprese el evento C en términos d e las AI, y las Bj.
2.1 El espacio muestra1 finito

En este capítulo nos ocuparemos sólo d e los experimentos para los


cuales el espacio muestra1 S consta de un númerofinito de elementos.
Es decir, suponemos que S se puede escribir como S = { a l , a 2 , . . . ,al;}.
Si nos referimos alos ejemplos d e espacios muestrales d e la sección 1.4,
observamos que SI, S2,S3,Sq, S,, S7 y S12 son todos finitos.
A fin de caracterizarP ( A ) en este modelo consideraremos primero el
evento que está constituido por unsolo resul¿uclo, llamado algunas veces
evento elemental, digamos A = { a ; } .Procedemos como sigue.
A cada uno delos eventos elementales{ui} asignamos un númerop i ,
llamado la probabilidadd e { a ; } que
, satisface llas condiciones siguientes:
a) p ; 2 o, i = 1 , 2,...)k ,
b, p1 + p 2 + * * ' $ p k = 1.
[Puesto que { a i } es un evento, estas cond:iciones deben ser consis-
tentes con las postuladas para las probabilidades d e eventos en general,
como se hizo en la ecuación (1.3). Es muy sencillo verificar que esto
es así.]
28 Espacios muestrales j k i t o s 2.2

A continuación, supongamos que un evcntoA está constituido porr


resultados, 1 5 r 5 k , digamos

donde j , , j,, . . . , j , representa cualesquiera indices T de 1,2,.. . b . Por


lo tanto, d e la ecuación ( 1.3), propiedad 4, se deduce que

Para resumir: la asignación d e probabilidades p ; a cada uno de los


eventos elementales { a ; } , sujeto a las condiciones anteriores u ) y b),
determina de un modo Único P(r-I)para cada uno de los eventos A c S ,
donde P( A ) está dado por la ecuación (2.1)
Para evaluar las p j , se dcben hacer algunas suposiciones respecto a
los resultados individuales.

EJEMPLO2.1. Supongamosque sólo tresresultadosson posibles


en un experimento, digamos a l , a2 y “ 3 . Además, supongamos que la
ocurrencia d e u1 es dos \ w x s m5s probable que la d c u2, la cual, a su
vez, cs dos veces mis probable que(13.

p 3 = $1, p , = 72 Y p 1 = 74

2.2 Resultados igualmente probables

La suposición que 1115s conlilnmcnte se hace para espacios muestrales fi-


nitos es q11c todos los resultados son igualmcntc probables. De ninguna
manera esta suposición puede darse como un hecho; debc justificarse
con cuidado. Hay muchos experimcntos para los cuales se garantiza tal
suposición, pero también hay muchas situaciones experimentales en las
cuales sería un crror hacertal suposición. Por ejemplo, sería muy poco
realista suponer que es tan probable no recibir llamadas telcfónicas en
una central cntre la 1 A M . y 2 AM. como cntre las 5 P M y las G P M
Si los b resultados son igualmente probables, se deduce que cada
p i = l / b . Porque la condición p , +
+ p , = 1 se convierte en k p ; = 1
2.2 Resultados igualmente probables 29

para toda i. De esto se deduce que para cualquier evento


A que conste
de r resultados, tenemos

P(A)= r / k .

Este método de evaluar P ( A ) a menudo se indica como sigue:

número de maneras en queE puedle ocurrir favorable a A


P ( A )=
número total de maneras en queE puede ocurrir

Es importante comprender quela expresióln anterior deP ( A ) es sólo


una consecuencia dela suposición de quetodos los resultados son igual-
mente probables y sólo es aplicable cuando s e satisface esta suposición.
Sin duda no sirve como una definición general de probabilidad.

EJEMPLO2.2. Se lanza un dado y se supone quc todoslos resultados


son igualmente probables. El evento A ocurre si y sólo si aparece un
número mayor que 4. Esto es, A = {5,6}. Por lo tanto, P ( A ) =
+ s1 = ; 26 .
..rr
EJEMPLO2.3. Selanza unam6nedanormaldos veces.Sea A el
evento: {aparece unacara}.' Para evaluarP ( A ) un anAlisis del problema
podría ser d e la ma-nera siguiente. El espacio muestral es S = {O, 1,2},
donde cada uno de los resultados representa el número de caras que
ocurren.Por lo tanto, P ( A ) = i!
Este análisises obviamentein-
correcto, puesto que en el espacio muestral antes considerado, todos
los resultados no son igualmente probables. A fin d e aplicar el méto-
do anterior deberíamos considerar, en su lugar,elespacio muestral
S' = {CC, C S , SC, S S } . En este espacio muestral todos los resultados
son igualmente probables y, por lo tanto, obtenemos para la solución
correctadenuestroproblema, P ( A ) = = ?\. Podríamosemplearen
forma correcta el espacio muestral S como sigue: los resultados O y 2
son igualmente posibles, mientras que ei resultado 1 es probablemen-
te el doble d e cada uno de los otros. Por lo tanto, P ( A ) = $, lo cual
concuerda con la respuesta anterior.

Este ejemplo ilustra dos puntos. Primero, debemos estar seguros por
completo de quetodos los resultados que se pueden suponer son igual-
mente probables antes de utilizar el procedimiento anterior. Segundo,
30 Espacios muestrales finitos 2.3

a menudo podemos reducirel problema a uno, en el cual todos los re-


sultados son igualmente posibles, mediante una elección apropiada del
espacio muestral. Cada vez que sea posible se debe hacer esto, pues-
to que en general simplifica los cálculos. En ejemplos subsecuentes se
tratará nuevamente este punto.
h4uy a menudola manera comose realiza un experimento determina
si los resultados son o no igualnlente probables. Por ejemplo, suponga-
mos que vamos a escoger un perno de una caja que contiene tres de
tamafio diferente. Si elegimos el perno acerchdonos a la caja y saca-
mos el primero que tocamos, es obvio que el perno más grande tendri
una probabilidad mayor de ser escogido que la d e los otros dos. Sin
embargo, si rotulamos con cuidado cada perno con un número escrito
en una etiqueta, y elegimos una de ellas, se puede asegurar que cada
perno, de hecho, tienela misma probabilidad de ser escogido. Así qui-
zás tengamos que afrontar considerables dificultades para asegurarnos
que la suposición matemática de resultados igualmente probableses d e
hecho apropiada.
En ejemplos anteriores y muchos otros subsecuentes, nos interesal a
elección al azard e uno o mris ohjctos de unacolección dada. Definamos
con mayor precisión esta noción. Supongamos que tenemos N objetos,
digamos a l , a ? , . . . ,abr.
a ) Escoger al m a r un objeto d e los N objetos, significa que cada uno de
ellos tiene la misma probabilidad de serelegido. Esto es,

Prob (clegir u ; ) = ] / N , i = 1 , 2 , . . ,N .
b) Escoger al azar dos o6jetos entre N objetos significaque cada uno de los
prcres d e objetos (sin considerarel orden) tienela misma probabilidadd e
ser escogido que cualquier otro par. Por ejemplo, si debemos elegir dos
objetos al azar d e ( u l ,a2, a 3 , u 4 ) , y luego obtener a l y a2 es tan probable
como obtener a2 y a s , etc. Esta afirmación nos lleva de inmediato a
la cuestión d e curintos pares diferentes hay. Supongamos que hay K
d e talcs pares. Entonces, la probabilidad d e cada par sería l/K. Muy
pronto aprenderemos a calcularK .
c ) Escoger al azar n objetos (n. 5 N ) entre N objetossignifica que
cada n-tupla, digamos o i l , n i 2 , . . . ,n i n , tiene tantas probabilidades d e
ser elegida como cualquier otra n-tupla.
Obsemacwlz: Anteriormente pa sugeri~nos quese debe tener mucho cuida-
do en In parte experimental para asegurar que la suposición matem5tica de
“cscoger al azar” se cumpla.
Métodos de enumeración 3 1
175991
2.3

2.3 Mdtodos de enumeracidn

Tenemos quk hacer una digresión a fin de aprender cómo enume-


rar. Nuevamente consideraremos la forma anterior de P ( A ) , llamada
P ( A ) = r / b , donde E es el número total de maneras en que E puede
ocurrir, mientras que r es igual al número de maneras en que A pue-
d e ocurrir. En los ejemplos presentados hasta ahora, se encontró poca
dificultad para calcular r y E . Pero es necesario considerar situaciones
ligeramente más complicadas para apreciar l,a necesidad de contar sis-
temáticamente o d e procedimientos de enumeración.

EJEMPLO2.4. Un lote d e 100 artículoscontiene 20 defectuosos y


80 no defectuosos. Se eligen 10 artículos al azar, sin sustituir un artículo
antes d e elegir el próximo. ¿Cuáles la probabilidad de que exactamente
la mitad d e los artículos escogidos sean defectuosos?

Para analizar este problema, consideremos el siguiente espacio mues-


tral S. Cada uno de los elementos d e S consta tie 10 artículos posibles del
lote, digamos ( i l , i2,. . . ,i l o ) . ¿Cuántos hay d e tales resultados? Y entre
estos resultados, ¿cuántos tienenla característica de que exactamentela
mitad sean defectuosos? Evidentemente necesitamos saber la respues-
ta a tales interrogantes para resolver el problema propuesto. Muchos
problemas similares dan origen a preguntas adlogas. En las próximas
secciones presentaremos algunos procedimientos sistemAticos de enu-
meración.

A. Principio de multiplicación. Supongamos que un procedimiento,


designado como 1, puede hacerse d e nl maneras. Supongamos que un
segundo procedimiento, designado como 2, s'e puede hacer de 722 ma-
neras. También supongamos que
una cada de las de
maneras efec- "2

tuar 1 puede ser seguida por cual-


de quiera las maneras d e efectuar "2

2. Entonces el procedimiento que


consta de 1 seguido
por 2 se puede "2

hacer d e nlnp maneras.


indicarPara la validez d e este "2

principio es más sencillo conside-


rar el siguiente
planteamiento es- Ll
quemático.
Consideraremos
un FIGURA2.1
32 Espacios muestrales fitritos 2.3

punto P y dos rectas, digamos L1 y L2. El procedimiento 1 consiste en


i r d e P a L1, mientras queel procedimiento 2 consiste en ir de L1 a L2.
La figura 2.1 indica cómo se obtiene el resultado final.

Observación: Obviamente este principio puede extenderse a cualquier núme-


ro de procedimientos. Si hay k procedimientos y el i-ésimo procedimiento se
puede hacer den; maneras, i = 1 , 2 , . . . , k entonces el procedimientoque con-
siste en 1, seguido por 2,. . . ,seguido porel procedimiento k puede hacersed e
n1n2 . . . n k maneras.

EJEMPLO2.5. Un artículo manufacturado debe pasar por tres con-


troles. En cada unod e ellos se inspecciona una característica particular
del artículo y se le marca d e conrormidad. En el primer control hay
tres mediciones posibles, mientras que en cada uno delos dos idtimos
controles hay cuatro mediciones posibles. Por lo tanto, hay 3 . 4 . 4= 45
maneras de marcarel artículo.

B. Principio de adición. Supongamos que un procedimiento, de-


signado con l, se puede hacer de n l maneras. Supongamos que un
segundo procedimiento, designado con2, se puede hacer de n2 mane-
ras. Supongamos además que no es posible que ambos, 1 y 2, se hagan
juntos. Entonces, cl número de maneras como se puede hacer1 o 2 es
nl + 722.
Usemos otravez el planteamiento esquemritico para convencernos de
la validez del principio d e adición, como se indica en la figura 2.2.
P

Observación: También este principio puede generalizarse como sigue: si hay


k, procedimientos y el i-ésimo procedimiento se puede hacer en n; maneras,
i = I , 2 , . . . , k , entonces el número de maneras como podemos hacer el pro-
cedimiento 1, o el procedimiento 2 o . . . o el procedimiento IC est5 dado por
n l + 712 + . . . + n k , suponiendo que los procedimientos no se puedenrealizar
en forma conjunta.
2.3 enumeracióf1 de Métodos 33

EJEMPLO2.6. Supongamosqueplaneamosun viaje y debemos


decidir entre transportarnos por autobús o por tren. Si hay tres rutas
para el autobús y dosparaeltren,entonceshay 3 +
2 = 5 rutas
diferentes disponibles para elviaje.

C.Permutaciones. a) Supongamos que ten'emosn objetos diferentes.


(De cuántas maneras, digamos n Pn, se pueden agrupar (permutar) estos
objetos? Por ejemplo,si tenemos los objetos a , b y c, podemos considerar
las siguientes agrupaciones: abc, acb, buc, bca, caby cba. h i , la respuesta
es seis. En general, consideremos el csquema siguiente. Agrupar los n
objetos es equivalente a ponerlos, en algún orden específico, en unacaja
con n compartimientos.

La primera casilla se puede llenar de cualquiera d e las n maneras, l a


segunda de cualquiera de las ( n - 1) maneras, . . . , y la illtima casilla d e
sólo una manera. Por tanto, aplicando el principio de multiplicación an-
terior, vemosque la caja se puede llenard e n ( 7 ~ -l ) ( n - 2 ) . . . 1 maneras.
Este número ocurre tana menudo enmatemáticas que presentamos un
nombre y un símbolo especiales para él.

Definición. Si n. es un enteropositivo, definimos n! = ( n ) ( n- l ) ( n -


2) . ...1 y lo llamamos n+ctoriuZ. Tambié:n definimos O! = 1.

Así, el número de permutaciones den objetos, diferentes está dado por

B ) De nueva cuenta consideremosn objetos diferentes. Esta vez desea-


mos escoger r d e esos objetos, O 5 r < n, y ]permutamos el r elegido.
Indiquemos el número de manera de hacerlo con ,nPr.Recurrimos otra
vez al esquema anterior de llenar una caja que tiene n compartimien-
tos; ahora nos detenemos después que se h a llenado el compartimien-
to r-ésimo. A s í , el primer compartimiento puede llenarse de n mane-
ras, el segundo de( n - 1) maneras,. . ., y el r-ésimo compartimiento de
n - ( r - 1) maneras. Así se puede realizar el procedimiento completo,
usando de nuevo el principiod e multiplicacidn, d e
34 Espacios muestrales finitos 2.3

maneras. Usando la notación factorial presentada anteriormente, po-


demos escribir

n.! *
npr =
(72 - T)!

D. Combinaciones. Consideremos nuevamente n objetos diferentes.


Esta vez estamos interesados en contar el número de maneras como
podemosescoger r d e esos n objetos sin considerar el orden.Por
ejemplo,tenemos los objetos a , b , c y d , y r = 2; deseamoscontar
ab, a c , a d , b c ,bd y c d . En otras palabras, no contamos ab y bn puesto que
los mismos objetos están relacionados y sólo difiere el orden.
Para obtener el resultado general recordemos la fórmula derivada
anteriormente: el número de maneras de elegir r objetos entre n y
permutar los r elegidos es igual an ! / ( n , - r ) ! Sea C el número de maneras
d e elegir T entre n , sin considerar el orden. (Esto es, cl nilmero buscado
es C.) Observe que una vez que se han escogido los r artículos, hay Y.!
maneras de permutarlos. Por tanto, aplicando unavez más el principio
d e multiplicación, junto con el resultado anterior, obtenemos

n!
Cr! =
( n- r)!

Así, el número de maneras de clegir T entre n objetos diferentes, sin


considerar el orden, está dado por

c = r ! ( nn-! T)!

Este número aparece en muchos contextos en matemáticas y, por lo


tanto, se emplea un símboloespecial para designarlo. Escribiremos

n!
r!(72- T)!

* A! del 7: Es& expresi6n también se conoce como arreglo o variación.


2.3 enumeración de Métodos 35

Para nuestros propósitos, (3) se define sólo si n es un entero positivo


y si r es un entero O 5 r 5 n. Sin embargo, podemos definir (:) muy
ampliamente para cualquier número realn y para cualquier entero no
negativo T como sigue:

- - - ( n - r + 1)
(:) =
n(n - l ) ( n - 2)
r!

Los números (F)a menudo se llaman coejicientes binomides porque apa-


recen como coeficientes en el desarrollo de l a expresión binomial ( u +
+
b ) n . Si n es un entero positivo, (u b)n = ( a b)(u + + +
b ) . - . ( a b).
Cuando seefectúa la multiplicación, cada uno delos términos consistirá
en el producto de k ues y de ( n - IC) bes, k .= O, 1 , 2 , . . . , n. ?Cuántos
términos serán dela forma u ~ P - ~Contemcls
? simplemente el número

(F).
de maneras como podemos elegir k entre n ues, sin considerar el orden.
Pero esto estádado precisamente por Así,, tenemos lo que se conoce
como teoremu del binomio.

Los números (F)


tienen muchas propiedades interesantes de las cuales
aquísolomencionaremosdos. (A no serque se indiqueotra cosa,
suponemos que n es un entero positivo y r un entero, O 5 r 5 n.)

a) (;) ( ),
= n-r

b, (;) (:I;) ( y ’ )
= +

Es muy fácil verificar algebraicamentc las dos identidades anteriores.


Sólo escribimos, en cada uno de los casos, el lado izquierdo y derecho
de las identidades anteriores y notamos que soniguales.
Sin embargo, hay otro método deverificar lesas identidades que hace
uso de la interpretación que hemos dado a (:) a saber, el número de
maneras de escogerr entre n objetos.
u ) Cuando escogemos r entre n objetos en forma simultrinea “dejamos
atrás” (77. - r ) objetos y, por tanto, escoger r de n es equivalente a elegir
3 6 Espacios muestrales finitos 2.3

( n - r ) de 71. Ésta es precisamente la primera proposicih que se debe


verificar.
b ) Escojamos cualquiera d e los n objetos, digamos el primero, a l . Al
elegir r objetos, al está incluido o excluido, pero no las dos cosas. Por
tanto, al contar el número de maneras como podemos escoger r objetos,
podemos aplicar el principio de adición antes tratado.
Si a l está excluida, debemos escoger los r objetos que se desean d e
(
los ( n - 1) objetos restantes y hay ,F1) maneras de haceresto.
Si al va a incluirse, sólo ( r - 1) objetos m6s deben escogerse d e los
restantes ( n - 1) objetos y esto se puede hacer de (:I:) maneras. A s í ,
el número pedido esla sumu de esos dos, lo que verifica la segunda
identidad.

~ expucsto anteriormente, los coeficientes binomiales ( i )


Obseroacidn: E I lo
son significativos sólo si n y k son enteros no negativos con O 5 k 5 n. Sin
embargo, si escribimos

(z) n!
= k ! ( n- k ) !
- n(n-l)"'(n-k+l)
-
k!

observamos que la última expresión es significativa si n es cualquier número real


y 12 es cualquier entero no negativo. Así,

y así sucesivamente.
Utilizando esta versión extendida de los coeficientes binomiales, podemos
expresar la f o m a generalizada del teorema del binomio:
co
(1 + = (;)Xi
k=O

Esta serie es significativa para cualquier n real y para todas las x tales que
121
un número finito de términos, puesto que enese caso (z)
< 1. Observemos que si n es un entero positivo, la serie infinita se reduce a
= O si k > n.

EJEMPLO2.7. a) iCuAntoscomités de tresmiembros se pueden


elegir con ocho personas? Puesto que dos comités son iguales si est6n
formados por los mismos miembros (sin considerar el orden en el cual
fueronelegidos),tenemos
(9
= 56 comitCs posibles.
2.3 Mktodos de enumeracidn 37

b ) ¿Cuántas señales con tres banderas se pueden obtener con ocho


banderas diferentes? Este problema es muy parecido al anterior. Sin
enibargo, aquí el orden constituye una diferencia y, por lo tanto, obtc-
nemos 8!/5! = 336 señales.
c) Un grupo de ocho personas consta dehombres y tres mujeres.
cin’co
¿Cuántos comités d e tres personas pueden fisrmarse con dos hombres
exactamente?Aquídebemoshacerdos cosas: escogerdoshombres
(entre cinco) y escoger una mujer (entre tres).
A s í obtenemos el número
pedido (i) (:>
- = 30 comités.
d) Ahora podemos verificar una proposición antes formulada, a saber,
el número de subconjuntos de un conjunto que tiene n elementos es 2n
(contando el conjunto vacío y el conjunto mismo). Simplemente c h i -
ficarnos cada elemento con un uno o con un cero, sea que el elemento
vaya a ser incluido o excluido en el subconjunto. I-Iay dos maneras de
clasificar cada uno delos elementos, y hay n elementos. Luego, el prin-
cipio d e multiplicación nos diceque hay 2 . 2 - - - 2 = 2n clasificaciones
a 2

posibles. Pero cada una de las clasificacionels en particular representa


una elección d e u n subconjunto. Por ejemplo, (1,1,O, O , O , . . . , O ) con-
sistiría en el subconjunto formado pora l y a;! precisamente. De nuevo,
(1,1,. 1) representaría S y (O, O, . . , O) representaría al conjunto va-
e ,

cío.
e ) Podemos obtener el resultado anterior usando el principio de
adicióncomosigue.Paraobtenersubconjuntosdebemosescoger el
conjunto vacío, los subconjuntos que constan desólo un elemento, los
que constand e sólo 2 elementos,. . ., y el conjunto mismo que consta de
todos los n elementos. Esto se puede hacer de

(3 (Y) (3
+ + +.**-+ (:)
maneras.Sinembargo, la sumade esoscoeficientesbinomiales es
+
simplemente el desarrollod e (1 1)” = 2 n .
Ahora volvamos al ejemplo2.4. De un lote que consta d e 20 artículos
defectuosos y SO artículosnodefectuososescogemos 10 al azar (sin
sustitución). El número de maneras de hacer esto es (I:,). Por tanto,
la probabilidad de encontrar5 artículos defectuosos y 5 no defectuosos
entre los 10 elegidos está dada por
38 Espacios muestrales finitos 2.3

Mediante logaritmos d e factoriales (que est5n tabulados) se puede


cvaluar lo anterior y es igual a 0.021.

EJEMPLO2.8. Generaliccmos el problema anterior. Supóngase que


tenemos N artículos. Si elegimos n d e esos al azar, sin sustitución,
)
hay (f muestras posibles diferentes, todas las cuales ticncn la misma
probabilidad d e ser escogidas. Si los N artículos están formados d e r1
A’s y r2 B’s (con rl + 7-2 = N ) entonces la probabilidad de que los n
artículos elegidos contengan exactamenteSI A’s y (n-.SI) B’s está dada
por.

(La anterior se llama pobabilidud hifiergeom2ricu y se encontrará más


adelante.)

Obsemacwn: Es muy importante especificar, cuando hablamos d e escoger


articulos al azar, si lo hacemos con o sin sustitucidn. En una descripción m&
realista propondremos esta última. Por ejemplo, cuando inspeccionamos un
número de artículos manufacturados con el propósito d e descubrir cuántos
defectuosos podría haber, en general, no pretendemos inspeccionar el mismo
articulo dos veces. Previamente hemos observado que el número de maneras
de escoger r objetos entre R , sin considerar el orden, está dado por (:).
El nilmero de maneras d e escoger r artículos entre n, con sustitución, está
dado por nT. Aquí estamos interesados en el orden en que se escogieron los
articulos.

EJEMPLO2.9. Supóngase que escogemos dos objetos al azar entre


cuatro objetos clasificados a , b , c y d .
S se puede repre-
a ) Si escogemos sin sustitución, el espacio muestra1
sentar como sigue:
2.3 enumeración
Adétodos de 39

Hay (i)
= 6 resultados posibles. Cada uno de los resultados indivi-
duales indica sólo cuúles fueron los dos objetos escogidos y no el orden
en que se escogieron.
b ) Si escogemos con sustitución el espacio muestral S' se puede re-
presentar como sigue:

Hay 42 = 16 resultados posibles. Aquí cada uno d e los resultados


individuales indica cuáles objetos se escogierony el orden de selección.
Escoger al azarimplica que si elegimos sin sustitución, todoslos resulta-
dos en S son de igual forma probables, mientras que si escogemos con
sustitución, entonces todos los resultados en S' son igualmente proba-
bles. A s í , si A es el evento {el objetoc es elegido}, entonces tenemos d e
S, P ( A ) = = si escogemossinsustitución, y d e S', P ( A ) = x 7 si
escogemos con sustitución.

I E. Permutacionescuando no todos los objetosson diferentes. En


I todos los métodos deenumeraci6n presentatdos hemossupuestoque
todos los objetos considerados eran diferentes (esto es, distinguibles).
Sin embargo, no siempre estees el caso.
Supongamos, entonces, que tenemos n objetos tales que hay n l de
una clase, n 2 de una segundaclase,. . . , n k de una k-ésima clase, donde
nl n 2 + + +- n k = n. Entonces, el número d e permutaciones de estos
n objetos esta dada por

n!

Ladeducción d e esta fórmulasedejaal lector. Nóteseque sitodos


los objetos son diferentes, tenemos n; = 1, i = 1 , 2 , . . . ,X:,y, por tanto, la
i

fórmula anterior se reduce a n!,el resultado obtenido en forma previa.

Obsemacidn: Insistimos una vez más en que' la asignación real d e probabili-


dades a los resultados individuales de un espacio muestral (o a una colección
d e resultados, esdecir, u n evento) es algo que no puede obtenersematemática-
mente; debe obtenerse d e otras consideraciones.P'or ejemplo, podemosutilizar
ciertas características d e simetría del experimento para comprobar que todos
los resultados son igualmente probables. De nuevo podemos hacer un proce-
dimiento d e muestre0 (por ejemplo, escoger uno1 o varios individuos de una
40 Espaciosmuestralesfinitos
. ,,
> L

población especificada) de tal manera quesea razonable suponer que todaslas


elecciones son igualmente probables. En muchos otros casos, cuando ninguna
suposición básica es apropiada, debemos recurrir al planteamiento d e la fre-
cuencia relativa. Repetimos n veces el experimento y calculamos la proporción
d e veces que ha ocurrido el resultado (o evento) que seconsidera. Al usar éSta
como una aproximacibn, sabemos que es muy improbable que esta frecuencia
relativa se diferencie d e la probabilidad “verdadera” (cuya existencia ha sido
especificada por nuestro modelo teórico) en una cantidad apreciable si n es
suficientemente grande. Cuando es imposible hacer suposiciones razonables
acerca d e la probabilidad de un resultado y también es imposible repetir el
experimento un gran número deveces (debido al costo o a consideraciones d e
tiempo, por ejemplo) en realidad es poco significativo proseguir con un estudio
probabilístico del experimento, excepto sobre una base completamente teórica.
(Para una nota adicional sobre el mismo tema, véase la Sec. 4.8.)

PROBLEMAS
2.1. En una habitación se encuentra el siguiente grupo de personas: 5
hombres mayores de 21,4hombres menores d e 21, 6 mujeres mayores de 21 y
3 mujeres menores d e 21. Se elige una persona al azar. Se definen los eventos
siguientes: A = {la persona es mayor de 21 1; B = {la persona es menor d e 21);
C = {la persona es hombre}; D = {la persona es mujer}. Evaluar lo siguiente.
a) P(B UD )
b ) P(RCn C c )
2.2. En una habitación 10 personastienen insignias numeradas del 1 al
10. Se eligentrespersonas a l azar y se les pidequedejen la habitación
simultáneamente y se anotan los números d e las insignias.
a) !Cuál es la probabilidad de queel número menor delas insignias sea 5?
t ) < C u d es la probabilidad de queel número mayor d ea
s insignias sea 5?
l
2.3.a) Sup6ngase que se escriben tres digitos 1 , 2 y 3 en un ordenaleatorio.
?Curil es la probabilidad de queal menos un dígito ocupe su lugar propio?
Lo mismo que a ) con los dígitos 1, 2, 3 y 4.
b ’ j

r,) Lo mismo que a ) con los dígitos 1 , 2 , 3 , .. . , n. [Sugerenci:l: Usar (1.7).]


d ) Discutir la respuesta d e c) si n es grande.
2.4. Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no
defectuosas. Se eligen al azar 200 lavador‘as (sin sustitución) y se clasifican.
a) ?Cui11 es la probabilidad de que se encuentren exactamente 90 artículos
defectuosos?
b ) ?Cuál esla probabilidad de q u e se encuentren al menos 2 artículos defec-
tuosos?
Problemas 4I
1'75991
2.5. Diez fichas numeradas del1 al 10 semezclan en unapalangana. Se sacan
d e la palangana dos fichas numeradas (X,Y) u r n y otra vez sin sustitución.
¿Cuál esla probabilidad de queX + Y = lo?
2.6. Un lote consta de 10artículos sin defecto, 4 con pequeños defectos y 2
con defectos graves. Se elige u n articulo al azar. Encontrar la probabilidad d e
que:
a)) no tenga defectos,
b ) no tenga defecto grave,
c) que no tenga defecto o que tenga un defecto' grave.
2.7. Si del mismo lote de artículos descritos en el problcma 2.6 se escogen
dos artículos (sin sustitución), encontrar la probabilidad d e que:
a) amlms sean buenos, b ) ambos tengan defectos graves,
c) a lo menos uno sea bueno, d ) a lo m& uno sea bueno,
e ) exactamente uno sea bueno, f) ninguno tenga defectos graves,
g ) ninguno sea bueno.
2.8. U n producto se arma en tres etapas. En la primcra etapa hay5 líneas d e
armado, enla segunda, 4 líneas de armadoy en la tercera, G líneas d e armado.
?De cuilntzs maner'as puede moverse cl producto ten el proceso de armado?
2.9. LJn inspector visita 6 m5quinasdiferentes durante el día. A fin d e
impedir que los operadores sepan cuándoinspeccionar5, varía el orden delas
visitas. ¿De curintas maneras puede hacerlo?
2.10. IJn mecanismo complejo puede fallar en 15 partes diferentes. Si falla
en 3 partes ¿de cuantas maneras puede suceder?
2.11. I-Iay 12 maneras en las cuales un articulo manufacturado puede tener
un pequeñodefecto y 10 manera5 en las cuales puede tener undefecto mayor.
¿De cu5ntx maneras puede ocurrir defecto
un menor yuno mayor? ?2defectos
menores y 2 defectos mayores?
2.12. IJn mecanismo puede ponerse en cuatroposiciones, digamos a ,b , c y
d. Hay 8 d e tales mecanismos en unsistema.
a) ¿De cuántas maneraspuede instdarseeste sistema?
b ) Supóngase que dichos mecanismos están instalados en alg6n orden (li-
neal) preasignado. ¿De cuántas maneras posibles se instalan los mecanismos, si
dos mecanismos adyacentes no están en la misma ]posición?
c) ¿Cu5ntas maneras son posibles si sólo se usan las posiciones a y b con la
misma frecuencia?
d ) ¿Cuántas maneras sonposibles si sólo se usan dos posiciones diferentes y
una deellas aparece tres veces más a menudo quela otra?
42 Espacios muestrales finitos

2.13. Scpóngase que de N objetos se eligen R al azar, consustitución.


¿Cuál es la probabilidad de que ningún objeto sea elegido más de una vez?
(Supringase que n < N.)
2.14. Con las letras a , b , c , d, e y f , ¿cuántas palabras clave d e 4 letras se
pueden formar, si
a ) ninguna letra se puede repetir?
b ) cualquier letra se puede repetir cualquier número deveces?

2.15. Supóngase que (y) =ay (y) = b. Exprese (\y)


en términos d e
a y b. [Sugerencia: No se calculen las expresiones anteriores para resolver este
problema.]
2.16. Una caja contiene esferas numeradas 1 , 2 , . . . , R . Se escogen dos esferas
al azar. Encontrar la probabilidad de que los números sobre las esferas sean
enteros consecutivos, si
a) las esferas se escogen sin sustitución,
b ) las esferas se escogen con sustitución.
2.1 7. ¿Cuántos subconjuntos que contenganal menos un elemento se pue-
den formar de un conjunto de 100 elementos?
2.18. Entre los números 1 , 2 , .. .50 se escoge uno al azar. ¿Cu5l es la
probabilidad de queel número escogido sea divisible entre 6 o entre 8?
2.19. De G números positivos y 8 números negativos se eligen 4 números
y se multiplican. ?Cuál es la probabilidad de que el
al azar (sin sustitución)
producto sea un número positivo?
2.20. Cierta sustancia química se lorma mezclando 5 líquidos distintos. S e
propone verter un líquido en un estanque y agregar sucesivamente los otros
líquidos. Todas las combinaciones posibles se deben probar para establecer
cuál da mejor resultado. ¿Cuántas pruebas deben hacerse?
2.21. Un lote contiene R artículos. Si se sabe que T artículos son defectuosos
y se inspeccionan al azary en forma sucesiva, ¿cuál esla probabilidad de queel
k-ésimo artículo ( k 2 T ) inspeccionado sea el último defectuoso en el lote?
2.22. r números (O < r < 10) se escogen al azar con sustituci6n entre los
números O , 1 , 2 , . . . ,9. ¿CuA es la probabilidad de que dos no sean
iguales?
3.1 Probabilidad condicional

Consideremos de nuevo la diferencia que existe entre elegir al azar un


artículo de un lote con o sin sustitución. En el ejemplo 2.4, el lote te-
nía la siguiente composición: 80 artículos sin defectosy 20 defectuosos.
Supóngase que elegimos dos artículos: a) con sustitución y 6) sin susti-
tución.
Definamos los eventos siguientes:

A = {el primer artículo es defectuoso},


B = {el segundo artículo es defectuoso}.

i.
Si escogemos con sustitucibn, P ( A ) = P ( B ) I= $ = Cada vez que
elegimos, en el'lote hay 20 artículos defectuosos de un total d e 100. Sin
embargo, si elegimos sin sustitución, los resultados no son totalmente
inmediatos. Todavía es verdad,porsupuesto,que P ( A ) = :. Pero,
¿cuál es el valor d e P ( B ) ? Es evidente que con el propósito de calcular
P( B ) deberíamos conocer la composición del lote cuundo se escoge el
44 Probabilidad econdicional independencia 3.1

segundo 07-liculo. Enotraspalabras,deberíamossaber si el evento A


ocurrió o no. Este ejemplo indicala necesidad de presentar el siguiente
concepto importante.
Sean A y B dos eventos asociados conun experimentoE . Indiquemos
con P ( B 1 A ) la firobabili&~dcondicional del evento B , dudo que A ha
ocurrido.
En el ejemplo anterior, P ( B I A ) = m. 19
Porque si A ha ocurrido,
entonces, al sacar por segunda vez, sólo quedan 99 artículos, de los
cuales 19 son defectuosos.
Cada vez qne calculamos P ( B I A ) , esen-
cialmente estamos calculando P ( R )respec-
to al exfmcio muestral reducido A , en vez d e es-
pacio muestral original S. Consideremos el
diagrama de Venn d e la figura 3. l .
Cuando calculamos P ( B ) nos pregunta-
mos qué tan probable es que estemos en B ,
sabiendo que debemos estar en S, y cuando
evaluamos P ( B I A) nos preguntamos qué
tan probable es que estemos en B , sabiendo
que debemos estaren il. (Esto es, el espacio
FIGURA 3.1
muestral se ha reducido d e S a A.)
I'ronto daremos una definición formal de P( B I ..IPor
). el momento,
sin embargo, seguiremos con nuestra noción int.uitiva d e probabilidad
condicional y consideraremos un ejemplo:

EJEMPLO3.1. Se lanzan dos dados normales y se anotan los resul-


tados , ( T I , m ) , donde xi es el resultado del i-ésimo dado, i = 1,2. Por
tanto, el espacio muestralS se puede representar porel siguiente arre-
glo d c 36 resultados igualnlente posibles:

(1,l) (l,2) .. . ( 1 7 6)
(2,l) (2,2) . ..
S=
(6,l) (G,2) . ..

Considcrenlos los dos eventos siguicntes:


3.1 condicional Probabilidad 45

Así 14 = {(5,5), (4,6), (6,4)} y B = {(2,1), (3,1),(3,2),. . . , (6,5)}. Por


tanto, P ( A ) = 3 y P ( B ) = x.15
Además, I?( B I A ) = 31 , ya que el
espacio muestra1 es ahora A (que son tres resultados), y sólo uno de
cllos es consistente con el evento B . De ma.nera semejante, podemos
calcular P ( A I B ) = E.
1

Finalmente, calculemos P ( A n B ) . El evento ( A n B ) ocurre si y


sólo si la suma de los dos dados es diez y el primer dado indica un
valor mayor que el segundo. Solamentehay un resultado y, por tanto,
P ( An U ) = &. Si observamos con cuidado los diversos números que
antes hemos calculado, concluimos quese culnple lo siguiente:
I

Sucede queesas relaciones no sólo aparecen en los ejemplos particu-


lares que hemos considerado, sino que son completamente generales y
nos dan un medio dedeJinirfor.maZnzentee la probabilidad condicional.
Para justificar esta definición, volvamos al concepto d e frecuencia re-
lativa. Supongamos que un experimento E se ha repetido n veces. Sean
n A , n g ,y n A n g el número respectivo d e veces que los eventos A , B y
A n B han ocurrido en las n repeticiones. ¿Cuál es el significado d e
n A n B / n A ? Representa la frecuencia relativa(de B entre esos resultados
en los que A ocurrió. Esta es, n A n g / n A es la frecuencia relativa condi-
cional d e B , dado que A 08currió.
Podemos escribir n A n D / n A como sigue:

donde j A n B y f~ son las frecuencias relativas d e los eventos A f l B


y A, respectivamente.Como ya hemos inldicado (y demostraremos
más adelante), si 72, el número de repeliciones es grande, f A n B estará
cercana a P ( A n B ) y f~ e!itará cercana a P(*4.).Por lo tanto, la relación
anterior sugiere quen,inh!/nA estará cercana a P ( B I A ) . Así, hacemos
la siguiente definición formal:

Definición.
46 Probabilidad
independencia
condicional
e 3.1

Observaciones: a ) Es importante darse cuenta de que lo anterior no es un


tcorcma (no demostramos nada), ni un axioma. Simplemente presentamos la
noción intuitiva d e probabilidad condicional y luego hicimos la definición for-
mal de lo que entendemos porest? noción. El hecho de que nuestra definición
formal correspondaa nuestra noción intuitiva está comprobado por el pArrafo
que precede a la definición.
b ) Es muy sencillo comprobar queP ( B I A ) para unvalor d e A fijo satishce
los diversos postuladosd e la probabilidad, ecuación (1.3). (Vease el Prob. 3.22.)
Esto es, tenemos:

c) Si A = S,P ( B I S)= P ( B n S ) / P ( S )= P ( B ) .
d ) Con cada evento B c S podemos asociar dos números, P ( B ) ,la probabi-
lidad (no condicional) d e B y P ( B I A ) , la probabilidad condicional de B , dado
que algún evento A (para el cual P ( A ) > O) ha ocurrido. En general, esas dos
medidas d e probabilidad aignarán probabilidades distintas al evento B , como
se indicó en los ejemplos precedentes. En breve estudiaremos un importante
caso especial, en el cual P ( B ) y P ( B I A ) son la misma.
e ) Nótese que la probabilidad condicional está definida en términos de la
medida d e probabilidad no condicional P . Esto es, si conocemos P ( B ) para
cada R c S podemos calcular P(B I A ) para cada B c S.

Así tenemos dos maneras de calcular la probabilidad condicional


P(B I A):
a) En forma directa considerando la probabilidad d e B respecto al
espacio muestra1 reducidoA .
b) Usando la definición antcrior, donde P ( A n B ) y P ( A ) se calculan
rcspccto al espacio mucstral originalS .

Obsewacióx: S i n = S,obtenemosP(B I S ) = P ( B n S ) / P ( S )= P ( B ) ,puesto


y e P ( S ) = 1 y B n S = B. Así debe ser, porque decir queS ha ocurrido, sólo
ndica que el experimento se ha realizado.

EJEMPLO3.2. Supóngasequeenuna oficinahay 100 máquinas


calculadoras. Algunas d e esas máquinas son eléctricas ( E ) ,mientras que
otras son manuales ( M ) . Además, algunas son nuevas ( N ) , mientras las
otras son usadas ( U ) . La tabla 3.1 da el número de máquinas de cada
3.1 condicional Probabilidad 47

categoría. Una persona entra en la oficina, escoge una máquina al azar


y descubre que es nueva. <Cuál es la probabilidad de que sea eléctrica?
En terminos de la notación presentada deseamos calcular P ( E I N ) .
TABLA
3.1

U *j60 40 100

Sólo considerando el espacio mucstral reducido N (es decir, las 70


mAquinas nuevas), tenemos que: P ( E I N ) = = +. Usando la
definici6n d e probabilidad condicional, tenemos que:

P ( E n N ) -"
- 40,'loo - 4
P(E I N ) = --
P(N) 70,1100 7
La consecucncia más importante d e la definición de probabilidad
condicional anterior se obtiene escribiéndola de la manera siguiente:

P(An B ) = P ( B I A)P(A)
a lo que equivale (3.3a)
P ( A n B ) = P ( A I B)Pl(B).
Esto también se conoce como el teorema de nzultiplicacidn de probabili-
dades.
Podemos aplicar este teorema al cálculo d e la probabilidad de la
ocurrencia simultánea delos dos eventos A y B.

EJEMPLO3.3. Consideremos otravez el lote analizado al principio de


la seccicin3.1, el cual constad e 20 artículos defectuososy 80 sin defectos.
Si escogemos 2 artículos al azar, sin sustitución,Ccuál es la probabilidad
de que ambos artículos sean defectuosos?
Como antes, definimos los eventos A y B como sigue:

A = {el primer artículoes defectuoso},


B = {el segundo artículo es dlefectuoso}.
48 Probabilidad
independencia
cottdicwnal
e 3.1

Por lo tanto, necesitamos P ( An B ) , que puedecalcularse de acuerdo


con l a fórmulaanterior,como P ( B I A ) P ( A ) . Pero P ( B I A ) = m,
19

mientras que ~ ( ~ =4 &.) Por lo tanto,

19
P ( A n B ) = -.
495

Obseruación: El anterior teorema dela multiplicación (3.3a) se puede gene-


ralizar a m& d e dos eventos de la siguiente manera:

Por un momento considéresesi podemos hacer una afirmación gene-


ral d e l a magnitud relativa de P ( A I 13) y P ( A ) . Consideremos los cuatro
casos ilustrados con los diagramas de Venn en la figura 3.2. Tenemos:
a ) P(.4 I B ) = O 5 P ( A ) , puesto que A no puede ocurrir si I3 h a
ocurrido.
6) P ( A I B ) = P ( A n B ) / ( P ( B )= [ P ( A ) / P ( B )2] P ( A ) , puesto que
o 5 P ( B ) 5 1.
C) P ( A I B ) = P ( A n B ) / P ( B )= P ( B ) / P ( B )= 1 2 P ( A ) .
d ) En este caso no podemos hacer ninguna afirmación acerca de l a
magnitud relativa de P(,4 I B ) y P ( A ) .

Vinguno de estos casos

FIGURA
3.2

NGtese que dos de los casos anteriorcs, P ( A ) 5 P ( A I B ) , en un caso,


P ( A ) 2 P ( A I O).y en el cuarto caso no podemos hacer ninguna clase
d e comparaciones.
Anteriormente usamos el concepto dc probabilidad condicional con
el fin d e evaluar la probabilidad d e la ocurrencia simultánea delos dos
eventos. Para calcular la probabilidad de un solo evento A, podemos
3.1 condicional Probabilidad 49

aplicar este concepto de otra manera. Necesitamos la siguiente defini-


ción.

Definición. Decimos que los eventos B1, Ba, . . . ,BI, representan


unaparticidn del espacio muestral S si:

a) B; n Bj = 8 para toda i # j.

b) uk B; = s.
i=l

c) P ( B ; ) > O para toda i.

En otras palabras, cuando se efectúa


el experimento E, ocurre uno y sólo
de uno los eventos B;. FIGURA3.3

(Porejemplo,enellanzamientodeundado B1 = {1,2}, B2 =
{3,4,5} y B3 = (6) representarían una partSci6n del espacio muestral,
mientras que C1 = { 1 , 2 , 3 , 4 } y C2 = { 4 , 5 , 6 } no lo harían.)
Sea A algún evento respecto a S y sea B1, B?, . . . , Bk una partición
de S.
El diagrama de Venn de la figura 3.3 ilustra esto para k = 8. Por
tanto, podemos escribir

Por supuesto algunos de los conjuntos A n Bj pueden ser vacíos,


pero esto no invalida la anterior descomposición d e A . Lo importante
es que todos los eventos A n D l , . . . ,A n BI, son parejas mutuamente
escluyentes. Por lo tanto, podemos aplicar la propiedad aditiva para
este tipo d e evcntos (Ec. 1.3) y escribir:

Sin embargo,cadatérmino P ( A n B j ) ,se puedeexpresarcomo


P ( A I B j ) P ( B j )y, por lo tanto, obtenemos el llamado teorema de la
pobabilidud totul:
50 Probabilidad econdicional independencia 3.1
. 2 ;:
v.
,
, ., -.
*_,
. I

.:-

Este resultado representa una relación muy útil, ya que cuando se


busca P ( A ) frecuentemente puede ser dificil calcularlo de manera di-
recta. Sin embargo, conla información adicionald e que Bj ha ocurrido,
podemos calcular P ( A I B j ) y entonces usar la fórmula anterior.

EJEMPLO3.4. Consideremos (por última vez) el lote d e 20 artículos


defectuosos y SO sin defectos, d e los cuales escogemos dos artículos sin
sustitución. Nuevamente definimos A y B :

A = {el primer artículo elegido es defectuoso},

B = {el segundo artículo elegido es defectuoso}.

ahora podernos calcular P ( B ) como sigue:

+
P ( B )= P ( B I A)P(A) P ( B I AC)P(AC).

Usando uno de los cálculos ya hechos en el ejemplo 3.3, encontramos


que
19.1 22.4
P ( B ) = ?Jg 5+?Jg S = : .

Este resultado puede ser un poco sorprendente, particularmente si


el lector recuerda que al comienzo d e la sección 3.1 encontramos que
&
P ( B ) = cuando escogemos los artículos con sustitución.

EJEMPLO3.5. Cierto artículo se manufactura en tres fábricas, diga-


mos 1 , 2 y 3. Se sabe quela primera produceel doble d e artículos que la
segunda y que 6sta y la tercera producenel mismo número deartículos
(durante un periodode producción especificado). Se sabe también que
el 2% d e los artículos producidos por las dos primeras es defectuoso,
mientras queel 4% d e los manuracturados por la tercera es defectuoso.
Todos los artículos producidos se colocan en una fila y se escoge uno al
azar. ? C u d es la probabilidad de queeste artículo sea defectuoso?
Definamos los siguientes eventos:

A = {el artículo es defectuoso}, B1 = {el artículo proviene d e l},


I?, = {el artículo proviene de 2}, B3 = {el artículo proviene d e 3).
3.2

Nosotros necesitamos P ( A ) y, usando el resultado anterior, podemos


escribir:

P(A)= w I Bl)P(Bl)+ P ( A I B2)P(132) + P ( A I B 3 ) P ( B 3 ) .


Ahora P ( B 1 ) = i, mientrasque P ( B 2 ) = P(133) = 4. 1
También
P ( A I B,) = P ( A 1 Bz) = 0.02, mientrasque P ( A I B3) = 0.04.
Poniendo sus valores en la expresión anterior obtenemos P ( A ) = 0.025.

Obsemacwn: Conelteorema de la probabilidadtotal, en químicase ha


observado la siguiente analogía. Supóngase que k matraces que contienen
diferentes soluciones d e la misma sal hacen un litro. Sea P(B;) el volumen
del i-ésimo matraz y P ( A I B ; ) la concentración de la solución en el. i-ésimo
matraz. Si combinamos todas las soluciones en un matraz y suponemos que
P ( A ) indica la concentración de la solución resultmte, obtenemos:

3.2 Teorema de Bayes

Podemos usar el ejemplo 3.5 para demostrar otro resaltado importante.


Supongamos que del depósito seescoge un artículo y se encuentra
que es defectuoso. ¿Cuál es la probabilidad de que se produjese en la
primera fábrica?
Usando la notación antes presentada, neccsitamos P(B1 I A ) . Pode-
mos calcular esta probabilidad como una consecuencia d e la siguiente.
Sean SI,. . . , SI,una partición del espacio muestra1 S y A un evento
asociado con S. Aplicando la definición d e probabilidad condicional,
podemos escribir:

Este resultado se conoce como teorema de B u y s . También se le llama


fórmula para la probabilidad de las “causas”. Puesto quclas B; son una
partición del espacio muestral, uno y sólo uno de los eventos B; ocurre.
(Esto es, uno d c los eventos B; debe ocurrir y solamente uno.) Por lo
tanto, la fórmula anterior nos da la probabilidad de un B; particular
(esto es, una “causa”), dado que el evento A ha ocurrido. Para aplicar
este teorema debemos conocerlos valores d e llas P ( Si).Muy a menudo
esos valores no son conocidosy esto limita la aplicabilidad del resultado.
5 2 Probabilidad condicional e ittdepetldencia 3.2

1 Ia existido una considerable controversia acerca del teorema


d e Bayes,
el cual entérminosmatemáticos es perfectamentecorrecto, sólo l a
elección impropia para P ( B;) hace objetable el resultado.
Volviendo a la pregunta propuesta anteriormentey aplicando ahora
la ecuación (3.5),obtenemos:

P(B1 I A) =
(0.02)(1/2) + ((0.02)(1/4)
o-W(1/2)
+ (0.04)(1/4) = 0.40.
Obsenlacidn: Otra vez podemos encontrar en química una analogía con el
teorema d e Bayes. En E Inatraces tenemos soluciones de l a misma sal, pero en
concentraciones diferentes. Supongamosque el volumen tot71 d e la solución es
un litro. Indicando el volumen de la solución en el i-Csimo matraz conP ( B ; )y
la concentración de la sal en ese mismo matraz con P ( A I I ? ; ) , encontramos que
l ecuncicin (3.5) da la proporción d e la cantidad completa d e sal encontrada
a
en el i-ésimo matraz.

La siguiente ilustración del teorema d e Bayes nos dará la oportuni-


dad de introducir l a idea de diagrama de Úrbol, método muy útil para
analizar ciertos problemas.
Supóngase que varias cajas de caramelos son d e dos tipos, digamos
A y B . El tipo A contiene 70% d e caramelos dulces y 30% de caramelos
Acidos, mientras que en el tipo B dichos porcentajes están invertidos.
Alin más, supóngase que el60% d e todas las cajas d e caramelos son del
tipo A , mientras que el resto son del tipoB.
Ahora estamos ante el siguiente problema d e decisión. Usted recibe
una caja d e dulces d e tipo desconocido. Sele permite sacar una muestra
d e caramelo (una situación ciertamente no real, pero que nos permite
presentar las ideas importantes sin mucha complicación y con esta in-
formación debe decirsi cree quese le ha sido ofrecidoel tipo A o el tipo
B. El siguiente “diagrama de árbol” (llamado así por las diversas trayec-
torias o ramas que aparecen)nos ayudará a analizar el problema. (S, y
S, indican la elección de un caramelo dulceo ácido, respectivamente.)
.L . .

3.2 Teorema de Bayes 53

Hagamos unos cuantoscálculos:

P ( A ) = 0.6; P ( B ) = 0.4; P ( S , I A ) = 0.7;

P(So I A ) = 0.3; P ( S , I B ) = 0.3; ]’(S, I B ) = 0.7

Lo que en realidad deseamos saberes P ( A I S,,), P ( A I S,), P ( B I S,)


y P ( B I S,). Esto es, suponiendo que realmenteescogimos un caramelo
dulce, ¿qué decisión estaríamos más inclinados a hacer? Comparemos
P ( A I S,) y P ( B I S , ). Utilizando la fórmula1 d e Bayes tenemos

Un cálculo similar nos da P ( B I S


, ) = 2/9.
A s í , con base en la evidencia que tenemos (es decir, la obtención d e
un caramelo dulce) es 3; veces más probable que se trate d e una caja
del tipoA que del tipoB. Por lo tanto, decidiríamos, posiblemente, que
el caramelo se obtuvo d e u n a caja tipo A . (For supuesto, podríamos
estar equivocados. Lo interesante del análisis anterior es que elegimos
la alternativa que parece más probable con ba.se e n los pocos datos que
tenemos.)
En términos del diagrama de árbol,lo que realmente necesitábamos
(e hicimos) en los cálculos precedentes fue unanálisis “hacia atrás”.Esto
es, dado lo que observamos, en este caso SM,,Cqué tan probable era
escoger el tipoA?
Una situación más interesante aparece si ,se nos permite elegir dos
caramelos antes de decidir si es escogido el tilpo A o el tipo B. En este
caso, el diagrama de árbol aparecerá como sigue.
54 Probabilidad condicional e indepertdettcia 3.3

En el problema 3.26 se le pide a usted decidird e cuál d e los dos tipos,


A o B, est5 tomando muestras, scgúnlos tres resultados experimentales
posiblcs que observa.

3.3 Eventos independientes

Hemos considerado dos eventos A y B que no pueden ocurrir de ma-


nera simultfinea, esto es A n B = 0. Tales eventos se designaron mu-
tuamente excluyentes. Antes indicamos que si A y B son mutuamente
excluyentcs, entonces P ( A I B ) = O, porque la ocurrencia de B im-
pide la ocurrcncia de A . Por otra parte, tenemos el caso, ya discutido
anteriormente, en que B 3 A y, por lo tanto, P ( B I A ) = 1.
En cada uno de los casos anteriores, sabiendo que B ocurrió, se nos
dio una información precisa sobrela probabilidad d e la ocurrencia de
A . Sin embargo, hay muchos casos en los cuales se sabeque si un evento
B ocurre, no tiene influencia alguna en la ocurrencia o no ocurrencia
de A.

EJEMPLO3.6. Supongamos que un dado normalse lanza dos veces.


Definiremos los eventos A y B como sigue:

A = {el primer dado muestra un número par},


B = {el segundo dado muestra un5 o un 6).

Por intuición sabemos que los eventos A y B no están relacionados.


Saber queB ocurre no proporciona información acerca lade ocurrencia
d e A . De hecho, el siguiente cálculo lo pone de manifiesto. Tomando
3.3 independientes Eventos 55

como nuestro espacio muestra1 los 36 resultados iaualmente posibles


18
del ejemplo 3.1, encontraremos que P ( A ) = E ? 12 1
= z, P ( B ) = E = 3 ,
6
mientras que P ( A n B ) = E = 1 Por lo tanto,

Así encontramos, como era de suponer, que la probabilidad no con-


dicional es igual a la probabilidad condicional P ( A I B ) . De modo se-
mejante

Por lo tanto, podríamos inclinarnos a decir que A y B son indepen-


dientes si y sólo si P ( B I A ) = P ( A ) y P ( B I A ) = P ( B ) . Aunque esto
sería esencialmente apropiado, hay otro método que evita la dificultad
encontrada aquí, asaber, que ambos, P ( A ) y P ( B ) ,deben ser diferentes
d e cero antes de quelas igualdades anteriores sean significativas.
Consideremos P ( A n B ) , suponiendo que las probabilidades condi-
cionales anteriores sean iguales a las probabilidades no condicionales
correspondientes. Tenemos

r ( A n B ) = P ( A 1 B ) P ( B )= P ( A ) P ( B ) ,
P ( A n B ) = P ( B I A ) P ( A )= P ( B ) P ( A ) .

A s í encontramosque,comoni P ( A ) ni P(B) sonigualesacero,


las probabilidadesnocondicionalesson igualesa las probabilidades
condicionales si y sólo si P ( A n B ) = P ( A ' ) P ( B ) . Aquíhacemos la
siguientedefiniciónformal. [Si P ( A ) o P( B ) esigualacero,esta
definición es aún válida.]

Definición. A y B son eventos indepeEdientes si y sólo si

P(AnB ) = P(A)P(Bj. (3.6)

Observacwn: Esta definición es esencialmenteequivalentea la que antes


sesugirió,es decir, que A y B son independientes si P ( B I A ) = P ( B ) y
P ( A I B ) = P ( A ) . Esta última forma es un poco más intuitiva, porque
afirma precisamente lo que hemos estado tratando de decir antes: A y B son
56 Probabilidad condicional
independencia
e 3.3

independientes si el conocimiento de In ocurrencia d e A no influye de modo


alglno enla probabilidad d e la ocurrencia de B.
Que la definición formal adoptada también tiene cierto carjcter intuitivo,
puede verse al considerar el siguiente ejemplo.

EJEMPLO3.7. Veamos otra vez elejemplo 3.2. Consideremos


primero la tabla siguiente sólo con los valores marginales dados.

60 40 100

Esto es, hay 60 máquinas eléctricas y 40 manuales. Del total, 70 son


nuevas, mientras que 30 son usadas. Hay diversas maneras d e colocar
los datos en la tabla, consistentemente con los totales marginales dados.
A continuación anotamos algunas d e esas posibilidades.

N r l ;: :E];: : K l ; :
U
E

60
(4
M

40 100
E

60
(b)
M

40 100
E

60
(c)
M

40 100

Consideremos l a tabla u). Aquí todus las máquinas eléctricasson


nuevas, y todus las usadas son manuales. A s í hay una relación obvia
(no necesariamente causal) entre las características de ser eléctricas y
ser nuevas. De igual manera, cnla tabla 6 ) todas las máquinas manuales
son nuevas y todus las usadassoneléctricas. Otra vez parece existir
una relación definida entre esas características. Sin embargo, cuando
observamos la tabla c ) , el panorama es muy diferente. Aquí no existe
unarelaciónaparente. Por ejemplo, el 60% d e todas las máquinas
son eléctricas. De modo semejante, el 70% de todas las mAquinas son
nuevas, y exactamente el '70% d e las máquinas manuales son nuevas,
etc. A s í , no es evidente que las características d e "ser nuevas'' y "ser
eléctricas" tengan alguna relación entre sí. Por supuesto, esta tabla se
construyó precisamente de modo que exhiba esta propiedad. ¿Cómo se
obtuvieron los datos d e esta tabla? Simplemente aplicando la ecuación
(3.6);
es
decir, como P(E) = fi
y P(N) = debemos tener,
porindependencia, P ( E n N ) = P ( E ) P ( N ) = g.
Por lo tanto,
la colocación del dato en la tabla que indica el número de máquinas
3.3 Eventos independientes 57

eléctricas nuevas está dada por el número42. Las otras ubicaciones se


obtuvieron de un modo semejante.

En la mayor parte de las aplicaciones sufiondremos la independencia


de los dos eventos A y B , y luego usaremos esta suposición para calcular
P ( A n B ) , como P ( A ) P ( B ) . En general, las condiciones fisicas en
las cuales se realiza el experimento harán posible determinar si tal
suposición se justifica o si a l menos lo hace aproximadamente.

EJEMPLO3.8. Consideremos un lote grande d e artículos, digamos


10 000. Supongamos que el10% d e estos artículoses defectuoso y el 90%
no. Se escogen dos artículos. ¿Cuál es la probabilidad de que ambos no
sean defectuosos?
Definamos los eventos A y B así:

A = {primer artículo no es defectuoso},


B = {segundo artículo noes d.efectuoso}.

Si suponemosqueelprimerartículo se sustituyeantes d e elegir


el segundo, entonces se puede suponer que los eventos A y B son
independientes y, por tanto, P ( A n B ) = (0.9)(0.9) = 0.81. Sin embargo,
en formamás real, el segundo artículo se escoge sin sustituir el primero.
En este caso,

P ( A n B ) = P ( B I A ) P ( A ) =: E ( O . 9 )

que es aproximadamente 0.81. Así, aunque A y B no son independien-


tes en el segundo caso, la suposición de independencia que simplifi-
ca en forma considerable los cálculos sólo causa un error despreciable.
(Recuerde el objetivo de un modelo matem5tico comoel que se descri-
bió en la sección l . 1.) Si hubieran existidosóllo pocos artículosen el lote,
digamos 30, la suposición de independencia habría producido un gran
error. Por esto es importante verificar con cuidado las condiciones en
las cuales se realiza el experimento, a fin de establecer la validez de l a
suposición de independencia entrevarios eventos.

EJEMPLO3.9. Supóngase que un mecanismo está formado por dos


componentes acoplados en serie, como se indica en l a figura 3.4.Cada
uno de ellos tiene una probabilidad p d e no funcionar. ¿Cuál es la
probabilidad dc queel mecanismo funcione?
58 Probabilidad condicional e independencia 3.3

- E m = FIGURA3.4

Es evidente que el mecanismo funcionará si y sólo si nnzbos compo-


nentes funcionan. Por tanto,

Prob. (mecanismo filncione) = Prob. (C, funcione y Cz funcione)

La información que hemos dado nonos permite seguir, a menos que


sepamos ( o supongamos) que los dos mecanismos trabajan de manera
independiente. Esta puedc o no ser una suposición realista, que de-
pende dc cómo se acoplan las dos partes. Si suponemos que los dos
mecanismos trabajan independientemente, para l a probabilidad pedi-
da obtencmos (1 - P ) ~ .

Para nosotros será muy importante extender la noción de indepen-


dencia a más de dos eventos. Consideremos primero tres eventos aso-
ciados con un experimento, digamos: A , B y C . Si A y B , A y C y B y C
son nzutuamente independientes (en el sentido antes dado), entoncesno
se deduce, cn general, qne no haya dependencia entre los tres eventos
A , B y C . El siguicnte ejemplo (algoartificial) ilustra este punto.

EJEMPLO3.10. Supongamos que lanzamos dos dados. Definamos


los eventos A , L3 y C como sigue:

A = {el primer dado muestra un nilmeropar},


13 = {el segundo dado muestra un número impar},
C = {ambos dados muestran números pares o números impares}.

Tenemos P(A) = P ( O ) = P ( C ) = i. Aúnm&, P ( A n B ) =


1
P ( A n C ) = P ( B n C ) = T. Por lo tanto, los tres eventos son mutuamente
illdependicntcs. Sin embargo, P ( A n B n C ) = O # P ( A ) P ( B ) P ( C ) .
Estc ejcmplo motiva la siguiente definición.

Definición. Decimos que los tres eventos, A , B y C , son mutuamente


independientes si y sólo si todas las condiciones siguientes se mantie-
nen:
3.3 Eventosindependientes 59

Finalmente generalizaremos esta noción a n eventos en la siguiente


definición.

Definición. Los n eventos A l , A ? , . . . , An s'on mutuamente indepen-


dientes si y sólo si tenemos para k = 2,3,. . . ,n,

P(A;, n A;, n . n A i k ) = P ( A ; , ) P ( A ; , ) .
a P(A;,). (3.8)

(Hay 2n -n - 1 condiciones juntas anotadas;véase el Prob. 3. IS.)

Obseroacwn: En la mayor parte de las aplicaciones no necesitamos verificar


todas estas condiciones, ya que engeneralsuponenwsla independencia (con base
en lo que sabemos acercadel experimento).Nosotros entonces usamos esta su-
, .(\A;,) como P ( A ; , ) P ( A i , ) .. .
posición p?ra calcular, digamos: P ( A ; , n A in..
P(&, 1.

FIGURA3.5

EJEMPLO3.11. La probabilidad de cerrar cada uno delos relevado-


en la figura 3.5 está dada porp . Si todos los
res del circuito que se indica
relevadores funcionan independientemente, ?cuáles la probabilidad de
que exista una corriente enlos terminales I y D?

Sea A; el eventoquerepresenta{relevador i está cerrado}, i =


1,2,3,4. Sea E el evento que representa {la corriente pasa de I a D}.
Por tanto, E = (Al n A2) u ( A 3 n A4). (Note que Al n A2 y A3 n A4 no
son mutuamente excluyentes.) Así,

P(E) = P ( An +
~ z42) p ( A 3 n A4) - P(A1 n A2 n A3 n A4)
= p 2 + p 2 - p 4 = 2 p "9 p . 4
60 Probabilidad condicional e independencia 3.3

EJEMPLO3.12. Supóngase otra vez que en el circuito de la figura


3.6 la probabilidad de que cada uno de los relevadores esté cerrado es
p y que todos los relevadores funcionan independientemente. ¿Cuál es
la probabilidad de que exista una corriente entre los terminales I y D?
Usando la misma notación como en el ejemplo 3.11, tenemos que

P ( E ) = P(A1 n A2) + P ( i l 5 ) + P(A3 n A 4 ) - P(A1 n A, n A5)


- P ( A 1n A, n A3 n A4) - P ( A 5 n A3 n A 4 )
+ P(A1 n A2 n A3 n A 4 n A s )
2 2 3 4 3 5 2
= p +p+p -p -p-p S p = p + 2 p- 2 p 3 - p 4 + p 5 .

Para cerrar este capítulo indiquemos una solución muy común, pero
errónea, del problema.

EJEMPLO3.13. Suponga que entre seis pernos, dos son m5s cortos
que una longitudespecífica. Si se escogen dos pernos a l azar, Ccuál es la
probabilidad d e escoger los dos más cortos? SeaAi el evento {el i-ésimo
perno elegido es corto}, i = 1 , 2 .
Por lo tanto, queremos evaluar P(A1 n A2). La solución correcta se
obtiene, naturalmente, al escribir

La soluciGn común, pero incorrecta, es escribir:

Por supuesto, lo importante es que aunque la respuesta es correcta, l a


i
identificación d e con P ( A 2 ) es incorrecta;representa P(A2 I A l ) .
Para evaluar P( A,) en forma correcta,escribimos
3.3 Consideraciones
esguemcíticas; probabilidad ... 6 1

3.4 Consideraciones esquemáticas; probabilidad


condicional e independencia

La solución esquemática siguiente puede ser útil para comprender el


concepto d e probabilidad condicional. Supóngase que A y B son dos
eventos asociados con un espacio muestra], para el cual las distintas
probabilidades se indican en el diagrama de Venn que aparece en la
figura 3.7.

I 1

0.2 1
FIGURA
3.7

+
Por lo tanto, P ( A n B ) = 0.1, P ( A ) = 0.1 0.3 = 0.4 y P ( B ) =
+
0.1 0.4 = 0.5.
En seguida, representemos las diversas probabilidades con las Úrem
de los rectángulos como en la figura 3.8. E n cada caso, las regiones
sombreadas indican el eventoB : en el rectángulod e la izquierda repre-
sentamos A n B y en el d e la derecha A’ n B.

A A’ FIGURP

Supongamos ahora que deseamos calcular P ( B I A ) . Así sólo ne-


cesitamos considerar A; esto es, A’ puede ignorarse en los cálculos.
Notemos que la proporción d e B en A es 1/4:. (Esto lo podemos verifi-
car también al aplicar la ecuación (3.1): P ( B I A ) = P ( A n B ) / P ( A ) =
62 Probabilidad condicional
independencia
e 3.3

P(U’ 1 A ) = 3 / 3 ; el diagrama que repre-


O.I/O.[I = 1/?1.>Por lo tanto,
senta esta probabilidad condicional se ilustra enla figura 3.9.

Nótese tambih quc si A se da como ocurrido, todas las probabilida-


des (es dccir, 1) se deben asociarcon el evento ,,I mientras
, que ninguna
de las probabilidades (es decir, O) estB asociada con d’l’.Aún más, nótcse
que en el rectángulo izquierdo, que reprcsenta . 4 , s6lo las colocaciones
individuales han cambiado d e a l figura 3.8 a la figura 3.9 (sumando 1
en vez de 0.4). Sin enlbargo, las proporciones dentro del rcctángulo
permanecen iguales (es decir, 3 : 1).
Ilustremos la noci6n deindcpendcnciausando el procedimiento
esquem5tico presentado anterionncnte. SupBngase quelos eventos *4 y
B se dibujan en la figura 3.10. En ese caso, las proporcioncs en los dos
rcctángulos, que representan 11 y son las misu~as:3:I cn ambos casos.
+
Así tenemos P ( B ) = 0.1 0.15 = 0.25, y P(L3 n A ) = 0.1/0.4 = 0.25.
, ’ IS

A A’ FIGURA
3.10

Finalmente, por sinlplc inspección de l a figura 3.S podemos calcular


las otras probabilidades condicionales:
P ( A I I?) = 1/5 (puesto que 1/5 dcl área total rectangular que represen-
ta B está ocupada por A),
P ( A ’ I B ) = 4/5.
Problemas 63

PROBLEMAS
3.1. La urna 1 contiene x esferas blancas y y rojas. La urna 2 contiene .z
esferas blancas y u rojas. Se escoge una esfera al azar d e la urna 1 y se pone
en la urna 2. Entonces se escoge una esfera al azar d e la urna 2. ¿Cuál es la
probabilidad de queesta esfera sea blanca?
3.2. Dos tubosdefectuososse confunden con dosbuenos. Los tubos se
prueban, uno por uno,hasta encontrar los defectuosos.
a) ¿Cuál es la probabilidad d e encontrar el illtimo tubo defectuoso en la
segunda prueba?
b ) ¿Cuál es la probabilidad d e encontrar el diltimo tubo defectuoso en la
tercera prueba?
c) ¿Cuál es la probabilidad de encontrar el illt.imo tubo defectuoso en la
cuarta prueba?
d ) Sumar los números obtenidosena), b ) yc). ¿:Es sorprendente el resultado?

3.3. Una caja contiene 4 tubos malos y 6 buenos. Se sacan dos a la vez. Se
prueba uno deellos y se encuentra quees bueno. (Cuál es la probabilidad d e
que el otro también sea bueno?
3.4. En el problema anterior los tubos se verifican sacando uno al azar, se
prueba y se repite el proceso hasta que se encuelntran los cuatro tubos malos.
¿Cuál esla probabilidad d e encontrar el cuarto tubo malo
a ) e n la quinta prueba?
b ) en la décima prueba?
3.5. Supóngase que A y B son dos eventos independientesasociados con un
experimento. Si la probabilidad de queA o B ocurra es igual a 0.6, mientras
que la probabilidad de q u e A ocurra es iguala 0.4, determinar la probabilidad
de queB ocurra.
3.6. Veinte artículos, 12 de los cuales son defectuosos y 8 no defectuosos, se
inspeccionan uno después d e otro. Si esos artículos se escogenal azar, ¿cuál es
la probabilidad de que:
a ) los dos primeros artículos inspeccionados sean defectuosos?
b ) los dos primeros artículos inspeccionados scan no dcfectuosos?
c) entre los dos primeros articulos inspeccionados haya uno defectuoso y
uno no defectuoso?
3.7. Supóngase que tenemos 2 urnas, 1 y 2, cada una con dos cajones. La
urna 1 tiene una monedade oro en cajón un y un,a d e plata e n el otro,mientrns
que la urna 2 tiene una moneda de oro encada uno delos cajones. Se escoge
una urnaal azar, y de ésta seescoge un cajón al azar. La moneda que se encontró
64 Probabilidad condicional e independencia

e n este caj6n es de oro. ¿Cuál es la probabilidad de que la moneda provenga


d e la urna 2?
3.8. Un bolso contiene tres monedas, unad e las cuales est5 acuñada con dos
caras, mientras que las otras dos monedas son normales y no son irregulares.
Se escoge una moneda alazar y se lanza cuatro veces en forma sucesiva. Si cada
vez sale cara, ?cuál es la probabilidad de queéSta sea la moneda con dos caras?
3.9. En una fábrica d e pernos, las máquinas A , B y C fabrican 25, 35 y
40% d e la producción total, respectivamente. De lo que producen, 5, 4 y 2%
respectivamente, son pernos defectuosos. Se escoge un perno al azar y resulta
ser defectuoso. ¿cuáles son las probabilidades respectivas de que el perno
provenga d e la máquina A , B o C?
3.10. Sean A y B dos eventos asociados con un experimento. Supóngase
que P ( A ) = 0.4, mientras que P ( A U B ) = 0.7. Sea P ( B ) = p .
a) ¿Para quéelección de p son A y B mutuamente excluyentes?
b ) ¿Para qué elección de p son A y B independientes?
3.1 1. Trescomponentes de un mecanismo, digamos C1, C2 y C3 est5n
colocados en serie (en una línea recta). Supóngase q u e esos mecanismos están
agrupados en orden aleatorio. Sea R el evento {Cz está a la derecha d e Cl}, y S
el evento(C3 está a la derecha d e Cl}. ¿Los eventos R y S son independientes?
¿Por qué?
3.12. Se lanza un dado y d e manera independiente se escoge al azar una
carta de unabaraja normal. ?Cuál es la probabilidad d e que:
a) el dado muestre un número pary la carta sea de unpalo rojo?
b ) el dado muestre un número paro la carta sea de unpalo rojo?
3.13. Un número binario e s d compuesto sólo d e los dígitos O y 1. (Por
ejcrnplo, 1O 1 1, 1100, etc.) Esos números tienen un papel importante en el
uso de los computadores electrónicos. Supóngase que un número binario est5
formado por n dígitos. Supóngnse que la probabilidad d e que aparezca un
dígito incorrectoes p y que los errores endígitos diferentes son independientes
uno de otro. ¿Cuál es la probabiliclatl de formar un mímero incorrecto?
3.14. Se lanza un dado n veces. t C u d es la probabilidad de que“G” salga a1
menos una vez en los R lanzamientos?
3.15. Dos personas lanzan tres monedas regulares cada una. ¿Cuál es la
probabilidad de que obtengnn el mismo número decaras?
3.16. Se lanzan dos dados y puesto que las caras muestran números diferen-
tes, ¿m51es la probabilidad d e que una cara sea <I?
3.17. En la fabricación d e cierto artículo se presenta un tipo de defectos
con una probabilidad d e 0.1 y defectos de un segundo tipo con probabilidad
Problemas 65

d e 0.05. (Se supone la independencia entre los tipos de defectos.) ?Cuál es la


probabilidad d e que:
a) u n articulo no tenga ambasclases d e defectos?
b ) u n articulo sea defectuoso?
c) suponiendo que un artículo sea defectuoso,t.enga sólo u n tipo d e defecto?
3.18. Verificar que el número decondiciones indicadas en la ecuación (3.8)
esté dado por 2n - n - 1.
3.19. Probar que si A y B son eventos independientes, también lo son A y
BC,ACy B , AC y BC.

3.20. En la figura 3.1 1 a ) y b ) se supone que la probabilidad de que cada


relevador esté cerrado es p y que cada relevador se abre o SE. cierra indepen-
dientemente d e cualquier otro. Encontraren cad,a caso la probabilidad de que
la corriente pase d e 1 a D.

TABLA
3.2

Número
2 O 1 3 4 5 6
d e fallas

A o. 1 0.2 0.3 0.2 0.09 0.07 0.04

B O.3 o. 1 o.1 o.1 o.1 0.15 0.15

3.21. Dos máquinas, A , B , que se accionan independientemente pueden


tener cierto número de fallas cada día. La tabla 3.2 da la distribución d e
s fallas d e cada una. Calculara
probabilidades dea
l lssiguientes probabilidades:
a) A y B tienen el mismo número defallas.
b ) El número defallas es Inenor que cuatro; menor quecinco.
c ) A tiene m& fallas que B.
d ) B tiene el doble d e fallas que A .
e ) B tiene cuatro fallas, cuando se sabe que B tiene por lo menos dos fallas.
66 Probabilidad condicional e independencia

J) El número mínimo d e fa1l'a.s de las dos m5quinas es tres; es menor que


tres.
g) El número máximo d e fallas d e las máquinas es tres; es m5s que tres.
3.22. tisando la ecuación (3.2),demostrar que paraA fijo, P ( B I A ) satisface
los diversos postulados de la probabilidad.
3.23. Si cada uno de los elementos de un determinante de segundo orden
es cero o uno, ¿cud1 es la probabilidad de que el valor del determinante sea
positivo? (Supóngase que las colocaciones individuales del determinante se
escogen independientemente, considerando quecada uno delos valores tiene
probabilidad .)
3.24. Verificar que el teorema de la multiplicación P ( A n B ) = P ( A I
B ) P ( B ) ,establecido para dos eventos, se puede generalizar para tres eventos
como sigue:

P ( A n B n C)= P ( A I B n C)P(BI C)P(C).


3.25. Unconjuntoelectrónicoconsta de dos subsistemas, digamos A y
B. A partir de una serie de pruebas previas, se presuponen las siguientes
probabilidades:

P ( A falle) = 0.20,
P ( B sólo falle) = 0.15,
P ( A y B fallen) = 0.15.

Calcular las probabilidades siguientes.


a) P ( A falle 1 B haya fallado),
b ) P ( A falle solamente).
3.26. Finalizar el análisis del ejemplo de la sección 3.2 decidiendo cuáld e los
tipos d e cajas d e caramelos, A o B,es el escogido con base en el conocimiento
de doscaramelos que fileron muestreados.
3.27. Cada vez que se realiza un experimento, la ocurrencia de un evento
particular A es igual a 0.2. El experimento se repite, independientemente,
hasta que A ocurre. Calcular la probabilidad de quesea necesario ejecutar un
cuarto experimento.
3.28. Supóngase que un mecanismo tiene N tubos yque todos sonnecesarios
para su funcionamiento. Para localizar el tubo que funciona mal, se reemplaza
sucesivamente cada uno de ellos por uno nuevo. Calcular la probabilidad d e
que sea necesario verificar N tubos si la probabilidad (constante) de que un
tubo esté dafiado esp .
Problemas 67

3.29.Probar: Si P ( A I B ) > P ( A ) ,entonces P ( B I A ) > P ( B ) .

3.30.Un tubo alvacío puede provenir d e cualquiera d e tres fabricantes con


probabilidades p l = 0.25, p2 = 0.50 y p3 = 0.25. Las probabilidades de queel
tubo funcione correctamente durante un periodo detiempo especificado son
iguales a 0.1,0.2 y 0.4, respectivamente, para los tres fabricantes. Calcular la
probabilidad de que un tuboelegido al azar filncione durante el periodo d e
tiempo especificado.

3.31. Un sistema eléctrico consta d e dos interruptores del tipo A, uno del
tipo D y cuatro deltipo C conectados como apareceen la figura 3.12.Calcular
la probabilidad de queno se pueda eliminar una fillla en el circuito conla llave
IC, si los interruptores A, B y C estiln abiertos (es decir, fuera d e servicio) con
probabilidades 0.3, 0.4, respectivamente,
0.2, y si. ellos funcionan d e manera
independiente.

FIGURA
3.12
f
3.32. La probabilidad de que un sistema se sobrecargue es0.4 durante cada
conjunto d e ensayos de un experimento. Calcular la probabilidad de que el
sistema deje de hncionar entres ensayos independientes del experimento, si
las probabilidades d e fallar en 1, 2 o 3 ensayos son iguales a 0.2,0.5 y 0.8,
respectivamente.

3.33. Se emiten sucesivamente cuatro señales de radio. Si la recepción d e


cualquier señal es independiente d e la recepción dle otra y estas probabilidades
son 0.1,0.2, 0.3,y 0.4, respectivamente, calcularla probabilidad de quela señal
k se reciba por k = O, 1, 2, 3, 4.
3.34.Un aficionado usael siguiente sistema bastante simple para pronosticar
el tiempo atmosférico. Clasifica cada día como “seco” o “mojado” y supone que
la probabilidad de quecualquier díadado sea igual alprecedente está dada por
una constantep ( 0 < p < 1). Con base e n anotaciones anteriores, sesupone que
el lo. de enerotiene una probabilidad P d e ser “seco”. Suponiendo que Pn =
68 Probabilidad condicionale independencia

probabilidad (el n-ésimo día del añoes “seco”),obtener una expresión paraPn
en función d e P y p . Evaluar también línln+m& e interpretar su resultado.
(Sugerencia: Expresar Pn en función de ,&-I).
3.35. En una ciudad se publican los periódicos A, B y C. Una encuesta
reciente de lectores indica lo siguiente: 20% lee A, lG% lee B, 14% lee C, 8%
lee A y B , 5%lee A y C, 2% Ice A, B y C, y 4% lee B y C. Para un adultoescogido
al azar, calcular la probabilidad de quea ) no lea ninguno d e los periódicos, b )
lea exactamente uno delos periódicos, c) lea al menos A y B si se sabe que lee
al menos uno delos periódicos.
3.36. Una moneda normal se lanza 2n veces
a) Obtener la probabilidad de quehaya un número igual d e caras y sellos.
b ) Mostrar que la probabilidad calculada en a ) es una función decreciente
de n.
3.37. Cada una dea ls urna 1, urna 2,. . . , urna n contiene cy esferas blancas
y P esferas negras. Se pasa una esfera de la urna 1 a la urna 2 y luego se pasa
una dela urna 2 a la urna 3, etc. Finalmente, se escoge una esfera de la urna
n. Si la primera esfera que se pasó era blanca, Ccuál es la probabilidad de que
la última esfera elegida sea blanca? ¿Qué sucede cuando n “+ cm? [Szrgerencia:
Sea p n = Prob (n-Csima esfera pasada sea blanca) y expresar p n en términos de
~n-1.1

3.38. La urna 1 contiene cy esferas blancas y P esferas negras, mientras que


la urna 2 contiene P esferas blancas y cy esferas negras. Se escoge una esfera
(de una de las urnas) y luego se devuelve a esa urna. Si la esfera elegida es
blanca, la siguiente se escoge de la urna 1; si la esfera elegida es negra, l a
siguiente se escoge de la urna 2. Continuar de esta manera. Dado que la
primera esfera escogida proviene de la urna 1, obtener Prob (n-ésima esfera
escogida sea blanca)y también el límite d e esta probabilidad cuando n ”+ cm.
3.39. Una mjquina puede imprimir n “letras”, digamos C U I ,.. . , c y T L . Esta
mhquina opera porilnpulsos eléctricos y cada letrase produce por un impulso
diferente. Supóngase que exista una probabilidad constante p d e imprimir la
letra correcta y también snpóngr\se independencia. Uno de los n impulsos,
elegido alazar, alimentó la máquina dosveccs y las dos veces seimprirnió la letra
a l . Calcular la probabilidad de que el impulso escogido estuviese proyectado
para imprimir a l .
4.1 Noción general de una variable aleatoria

Al describir el espacio mucstral


de un experimento especificamos
no que
un resultado individual necesariamente tiene: que ser un número. De
hecho, hemos citado varios ejemplos en los cuales el resultado del es-
perimento no fue una cantidad numbrica. Por ejemplo, a l clasificar un
artículo manufacturado simplementepodíamlos usar las categorías “de-
fectuoso” y “no defectuoso”.En otro caso, para observarla temperatura
durante un periodo de 24 horas sólo podíamo,s mantener un registro de
la curva trazada por el termógrafo. Sin ernbarlgo, en muchas situaciones
experimentales vamos a interesarnos en mediralgo y anotarlo como un
nzímero. Aún en los casos antes citados, podrclnos asignar un número a
cada uno d e los resultados (no numéricos) del expcrirnento. Por ejem-
plo, pudimos asignar el valor 1 a artículos no defectuosos y el valor O a
los defectuosos, así como anotar la temperatura máxima o mínima del
día, o el promedio de las temperaturas máxima y mínima.
Los ejemplos anteriores son características de unaclase muy general
d e problemas. En muchas situaciones experimentales deseamos asignar
un número realx a cada uno delos elementos S del espacio muestra1S .
70 Variables
unidimensionales
aleatorias 4.1

Esto es, z = X(s) es el valor de una función X del espacio muestral


a los números reales. Teniendo esto presente, hagamos la siguiente
definición formal.

Definición. Sea E un experimento y S el espacio muestral asociado


con él. Unafimción X que asigna a cada uno de los elementos
S E S, un número real S ( s ) , se llama trariable aleatoriu.

Observaciones: a ) La terminología anterior es algo desafortunada, pero es


tan universalmente aceptada que nosotros no nos apartmemos d e ella. Memos
hecho lom,is claro posible que S es unafunción, ¡y todavía la llamamos variable
(aleatoria)!
b ) Resulta que no toda filnción que se conciba puede considerarse como una
variablealeatoria.Unaexigencia (aunque no lamás general) es que para
todo número real x el evento { X ( s ) = x} y para todo intervalo 1, el evento
{"(S) E I} tiene probabilidadesbien definidas y consecuentes con los axiomas
bjsicos. En la mayoría d e las aplicaciones noapareceesta dificultad y no
haremos referencia posterior.
c) En algunoscasos, el resultadoS del espacio muestral esy" la característica
numérica que queremos anotar. Simplemente tomamos X(s) = S , la función
identidad.
d ) En la mayoría d e los anjlisis d e variables aleatorias que siguen no necesi-
tamos indicar la nahlraleza funcionalde X. En general, nos interesamos en los
valores posibles d e S , en vez d e indagar de dóndeprovienen esos valores. Por
ejemplo, supongamos que lanzamos dos monedas y consideramos el espacio
muestra1 asociado con esteexperimento. Esto es,

S = {CC,cs, sc,
SS}

Definamos la variable aleatoria X como sigue: X es el número decaras obte-


nidas en los dos lanzamicntos. Por lo tanto, X(CC) = 2,X(CS) = X ( S C ) = 1
y X(SS) = o.
.y y c'spac~ot n u e ~ t r a l d ei: K x = \alol-eaposlbles d e ,f

FIGURA
4.1
4.1 Nocidn general dd? una variable aleatoria 71

e ) Es muy importante comprender una exigencia bjsica de unafunción para


un sólo valor: a cada S E S le corresponde exactammte un valor X(s). Esto se
demuestra esquemáticamente en la figura 4.1. Valores diferentes de S pceden
dar el mismo valor de X. Por ejemplo, en la ilustración anterior encontramos
que X ( C S ) = X ( S C ) = 1. d

El espacio R,, es decir, el conjunto de todos los valores posibles d e


X , algunas veces se llama el recorrido. En cierto sentido podemos con-
siderar a R, como otro espacio muestral. El espacio muestral (original)
S corresponde a los resultados no numéricos ((posiblemente) del experi-
mento, mientras que R, es el espacio muestral asociado conla variable
aleatoria X , que representala característica numéricaque puede ser de
interés. Si X ( s ) = S, tenemos S = R,.
Aunque estamos conscientes del peligro pedagógico que existe al
dar muchas explicaciones d e lo mismo,seiialamossinembargo que
podemos concebir una variable aleatoriaX d e dos maneras:
a) Realizamos el experimento E que tiene como resultado s E S .
Luego evaluamos el númeroX ( s ) .
6) Efectuamos E , obteniendo el resultado S, e (inmediatamente) cal-
culamos x ( ~ El ) número
. X ( s ) se considera entonces comoel resultado
obtenido en el experimentoy R, se convierte enel espacio muestral del
experimento.
No es fácil establecer la diferencia entre las interpretaciones a) y
b). Relativamente es muy pequeña, pero digna de atención. En a) el
experimento termina, de hecho, con la observación d e s. La evaluación
d e X ( s ) se estima como algo que se hace posteriormente y que no se
afecta por la aleatoriedad d e E. En b) se considiera que el experimento no
está terminado hasta que el número X(s) se ha calculadoy se tieneasí el
espacio muestralR, como resultado. Aunquela primera interpretación,
a) es la que usualmentese pretende, el segundlopunto devista, b ) puede
ser muyútil y el lector dcberá recordarlo.Lo que queremos decir,y esto
serA más evidente en las últimas secciones, es que al estudiar variables
aleatorias estamos más interesados respecto a 1.0s valores que tomaX que
de su formafuncional. Por lo tanto, en muchos casos ignoraremos por
completo el espacio muestral sobre el cual se puede definir X.

EJEMPLO4.1. Supongamos que se pone una bombilla en un porta-


lámparas. Se considera queel experimento termina cuandola bombilla
se apaga. (Cuáles un resultadoposible, digamos S? Una manera de des-
cribir s sería anotando simplemcntcla fecha ~7 la hora del día enla cual
72 Variables
unidimemionales
aleatorias 4.1

la bombilla se qwma, por ejemplo 19 d e mayo, 4:32 P M . Por lo tanto,


el espacio muestral se puede representar como S = { ( d , t ) 1 d = fecha,
f = hora del día}. Posiblemente la variable aleatoria de interéses S , el
tiempo que permanece encendida. Nótese que una vez que se ha ob-
servado S = ( d , t ) , la evaluación d e X(s) no indica ninguna aleatoriedad.
Cuando S está especificada, X(s) está determinado por completo.

Los dos puntos de vista antes expresados pueden aplicarse a este


ejemplo como sigue. En a) consideramos que el experimento termina
con la observación S = ( d , t ) , la fecha y la hora del día. El cálculo d e
X(s) se efectila, entonces, haciendo una sencilla operación aritmética.
En 6) sólo damos por terminado el experimento hasta después de haber
evaluado X(s), y entonces el número X ( s ) = 107 horas, por ejemplo,
se considera como su resultado.
Es posible señalar que un análisis similar se podría aplicar a otra
variable aleatoria d e interés, por ejemplo, E’(s) es la temperatura en
la habitación en el instante en quela bombilla se quema.

EJEMPLO 4.2. En una mesaselanzantresmonedas.Tan pronto


como las monedas caen en la mesa,concluye la fase “aleatoria” del
experimento. Un sólo resultado S podría consistir en una descripción
detallada decGmo y dónde cayeronlas monedas. Posiblemente estamos
interesados sólo en ciertas características numericas asociadas con este
experimento. Por ejemplo, podríamos calcular

X(S)= número de caras que aparecen,


Y(,) = distancia máxima entre dos monedas cualesquiera,
Z ( s ) = distancia mínima de las monedas desde cualquier
arista d e la mesa.

Si la variable aleatoria X es d e interés, como indicamos en el ejemplo


anterior,podríamosincluir la evaluación d e X ( s ) en la descripción
del experimento y, por lo tanto, sGlo indicar que el espacio muestral
asociado con el experimento es {O, 1, 2,3}, que corresponden a los
valores d e S . Aunque a menudo adoptaremos precisamente este punto
d e vista, es importante establecer quela cuenta del nlimero d e caras se
hace después de que ha terminado la parte aleatoria del experimento.

Obseruacwn: Al referirnos a variables aleatorias usaremos, casi sin escepcibn,


letras mayilsculas como S , Y, 2,etc. Sin embargo, cl~andohablemos del valor de
4.1 Nocidtt general de una variable aleatoria 73

esas variablesaleatoriasen general emplearemos letras minúsculas comox,y, 2 ,


etc. Ésta es una disti~ciónmuy importante que debemos hacer y el estudiante
contemplar con dctenimiento. Por ejemplo, cuando hablamos de escoger
al azar una persona de alguna población señalada y medir su estatura (en
pulgadas, por ejemplo), podríamos refcrirnos a los resuhdosposibles como una
variable aleatoria X. Ta1nbiC.n es posible hacer varias preguntas acerca de S ,
talescomo P(X 2 60). Sin embargo, una vez que elcgimos una persona y
medimos su estatura, obtenemos un valor específico de X, por ejemplo, 2 . Así
no sería relevante preguntar por P ( x 2 SO), puesto que x es o no 2 60. Esm
distinción entre una variable alcatoria y su valor esimportante, y m& adelante
nos referiremos a ella.

Así como nos interesamos por los eventos asociados con el espacio
muestral S, también serA necesario tratar eventos respectoa la variable
aleatoria X, esto es, subconjunto del recorrido R,. Muy a menudo
ciertoseventosasociadoscon S están“relacionados” (cn un sentido
que luego describiremos) con eventos asociados con R, d e la manera
siguiente.

Definición. Sea E un experimento y S su espacio muestral. Sea X


una variable aleatoria definida en S y sea R, su recorrido. Sea B
un evento respecto a Rz; esto es, 13 c R,. Supongamos que A se
dcfine como

A = {S E S I X(S) E B } .

En palabras, A consta d e todos los resultados e n S para los cuales


X(s) E 13 (Fig. 4.2). En este caso decimos que A y B son eventos
equivalentes.

FIGURA
4.2

Olrsenlacw,nes: a ) Expresando lo anterior de manera m6s informal, A y B


son eventos equivalentes siempre que ocurran juntos.Esto es, siempre que A
74 Variables aleatoriusunidimensionales 4.1
175991
ocurre, B ocurre y viceversa. Si ocurrió A , entonces se obtuvo un resultado S
para el cual X(s) E B y, por lo tanto, ocurrió B . Recíprocamente, si B ocurrió,
se obsen.6 un valor S(s)para el cual S E A y, por lo tanto, ocurrió A.
b ) Es importante destacar que en nuestra definición d e eventos equivalentes,
A y B están asociados con espacios muestrales diferentes.

EJEMPLO4.3. Consideremos cl lanzamiento d e dos monedas. En


cstc caso, S = {CC,C S , SC, SS}. Sea X el número decaras obtenidas.
Por lo tanto, RL = {O, l , 2 } . Sea B = (1). Puestoque X ( C S ) =
X(SC) = 1 si y sólo si X ( S ) = 1, tenemosque A = { C S , S C } es
cquivalentc a B.

Ahora damos la siguiente dcfinición importante.

Definición. Sca B un evento en el recorrido R z , entonces definimos


P( n ) como sigue:

P ( B ) = P ( A ) , donde A = {S E S I S(.)E I?}. (4.2)

En palabras, definimos P ( B ) igual a la probabilidad dcl evento


A c S, que es equivalente a B , en el sentido dcla ecuación (4.1).
Obse~uacwnes:a ) Suponemos que l a s probabilidades se pueden asociar con
eventos en S . Por tanto, la definición anterior hace posible asignar probabili-
dades a eventos asociados con R, en términos de las probabilidades definidas
en S .
b) Realmente es posible probar que P ( B ) debe ser como se defini6. Sin
embargo, esto implicaría alguna dificultad teórica que queremos evitar y, por
tanto, proseguiremos como antes.
c) Puesto que en la formulación d e la ecuación (4.2) los eventos A y B se
refieren a espacios muestrales diferentes, en realidad deberíamos usar una
notación diferente cuando nos referimos a las probabilidades definidas en S y
para las definidas en R,, por ejemplo, algo como P ( A ) y P,(B). Sin embargo,
no haremos estosino q u e continuaremos escribiendo simplemente P ( A ) y
P(L3). El contesto dentro delcual aparezcan estas expresiones h a r i evidente
la interpretación.
d ) Las probabilidades asociadas con eventos en el espacio muestra1 S (ori-
ginal) esdn en un sentido, determinadas por “fuerzas que escapan a nuestro
control” o, como se dice algunas veces “por naturaleza”. La constitución de una
fuente radioactiva que emite partículas, la distribución de un gran nilmero de
persons que podríahacer una llamada telefónica durante determinada horay
la agitación térnlica que resulta de una corriente ls condiciones atmosféricas
oa
.? .
4.2 <
Variables aleatorias discretas 75
~ I, :;: .: ’,
., 7,
”,
.k
.,

que dan origen a una fuente de tormenta, ilustran este punto. Cuando intro-
ducimos una variable aleatoria X y su recorrido asociado Rx,inducimos proba-
bilidades sobre los eventos asociados con Rx que se determinan estrictamente
ls posibilidades asociadas con loseventos en S están especificadas.
sia
i

EJEMPLO4.4. Silas monedas consideradlas en el ejemplo 4.3 son


“normales”, tenemos P ( C S ) = P ( S C ) = i.
Por tanto, P ( C S ,S C ) =
1+ 1 = 21. (Los cálculos anterioressonunaconsecuenciadirecta de
nuestra suposición básica acerca d e la regullaridad d e las monedas.)
Puesto que el evento {X = l}es equivalente al evento { C S ,S C } , usando
la ecuación (4.1) tenemos que P ( X = 1) = P ( C S ,S C ) = i.
[Realmente
no había elecciónacerca delvalor de P ( X = 1) consistentecon la
ecuación (4.2), una vez que se determinó P ( C S , S C ) . En este sentido,
se inducen las probabilidades asociadas con eventos Rz.]

Obseruacidn: Ahora que hemos establecido la existencia de una h n c i h d e


probabilidades inducidas sobre el recorrido de X (ecuaciones 4.1 y 4.2) en-
contraremos conveniente suprimir la naturaleza funcional de X. Por lo tan-
to, escribiremos(como lo hicimos en el ejemplo anterior) P ( X = 1) = ;.
Lo que se quiere decir es que un evento en elespacio muestral S , llama-
do {CS,SC} = {S I X ( s ) = 1) ocurre conprobabilidad ;. Por lo tan-
to,asignamosesamisma probabilidad al eveq$o { X = 1) en el recorrido.
Continuaremos escribiendo expresiones como-P(X = l ) ,P(X 5 5), etc. Es
muy importante que el lector sedé cuenta de lo que esas expresiones representan
realmente.

Una vez que se han determinado( o más exactamente, inducido)las


* probabilidades asociadas con varips resultados,( o eventos) e n el recorri-
do Rz ignoraremos a menudo el espacio muestral original S que ’dio
lugar a esas probabilidades. A s í , en el ejemplo anterior, sólo estamos
interesados en Rz = {O, 1,2} y las probabilidades asociadas ($, 1 z, 1 El
1 2).
hecho de que estas Probabilidades estén determinadas por una función
d e probabilidad definida en el espacio muestr(a1original S So nos preo-
cupa si estamos interesados s610 en estudiar los valores d e la variable
aleatoria X.
Al analizar en detalle muchos de.los concep’tosimportantes asociados
con variables aleatorias encontraremos conveniente distinguir dos casos
importantes: las variables aleatorias discretas y las continuas.
O

a *
76 Variables aleatorius unidimensionales 4.2

4.2 Variables aleatorias discretas


Definición. Sea X una variable aleatoria. Si el número de valores
posibles d e X (esto es, R,, el recorrido)es finito o infinito numera-
ble, llamamos a X una variuble uleutoriu discreta. Esto es, sepueden
anotar los valores posibles d e X como "1, " 2 , . . . x R . . . En el caso
finito, la lista termina y en el caso infinito numerable, la lista con-
tinúa indefinidamente.

EJEMPLO4.5. Una fuente radioactiva emite partículas (Y.Un conta-


dor observa la emisión de esas partículas durante un periodo de tiempo
determinado. La siguiente variable aleatoriaes de interés:

X = número de partículas observadas.

?Cuáles son los valores posibles d e A'? Supondremos que estos valores
constan de todos los enteros no negativos. Esto es, R, = {O, 1 , 2 , . . . ,
n , . . .}. Una objeción que vimos anteriormente puede aparecer de nue-
vo en este punto. Podría argüirse que durante un intervalo de tiempo
especificado (finito) es imposible observar más de,por ejemplo, N par-
tículas donde N puede ser un entero positivo muy grande. Por tanto,
los valores posibles de X realmente serían: O, 1 , 2 , . . . ,N . No obstante,
resulta que matemáticamente es más sencillo considerar la descripción
idealizada antes dada. De hecho, cada vez que suponemos quelos valo-
res posibles de una variable aleatoria X son infinitos numerables esta-
mos considerando una representación idealizada deX.

En vista d e nuestros comentarios previos sobre la descripción proba-


bilística d e eventos con número finito de elementos o infinitos numera-
blcs, la descripción probabilística de una variable aleatoria discreta no
nos causará ninguna dificultad. Procederenos como se indica a conti-
nuación.

Definición. Sea X unavariablealeatoriadiscreta.Portanto, Rz,


el recorrido de X, consta, a lo más, de un número de valores,
2 1 , " 2 , . . . infinito numerable. Con cada resultado posible zi aso-
ciamos un número p ( z i ) = P ( X = x;), llamado probabilidad d e
zi. Los números p(x;), i = 1 , 2 , . . . deben satisfacer las condiciones
siguientes:
4.2

u) p ( q ) 2 O para toda i,

i
(4.3)
00

i= 1

L a función p que antes se definió, se Ilamafzmcidn de probubilidud ( o


función de probabilidad puntual) de la variable aleatoria X . La colec-
ción de pares ( x i p ( z i ) ) ,i = 1 , 2 , . . . , algunas veces se llama distm'bucidn de
probubilidud de X .

FIGURA4.3

Obseruaciones: a) La elecci6n particular de los múmeros p(x;) posiblemente


est5 determinada por la hnción de probabilidad asociada con eventos en el
espacio muestral S sobre el cual se define X. Esto es, p(x;) = P [ s I X ( s ) = x;].
(Véanse las ecuaciones 4.1y 4.2.). Sin embargo, ya que sólo estamos interesados
en los valores de X, esto es R,, y en las probabilidades asociadas con esos
valores, omitimos otra vezla naturaleza funcional de X (véase la Fig. 4.3).
Aunque en la mayoría de los casos los números de hechose determinaran de
la distribuci6n de probabilidades en algún espacio muestral fundamental S ,
cmlquier conjunto de números ~ ( 2 ; )que satisfaga la ecuación (4.3)puede servir ~

como una descripci6n probabilística propiade un,a variable aleatoria discreta. -,


b ) Si X toma s610 un número finito de valores, por ejemplo 21, . . . , x,,
entonces p ( q ) = O para i < N y, por lo tanto, la serie infinita en la ecuaci6n
(4.3) llega a ser una sumafinita.
c) Nuevamente podemos observar una analogía conla mecánica, al conside-
rar una masa total unitaria distribuida sobre la recta real con la masa completa
ubicada en los puntos x1 , x 2 ,. . . Los números p(x;) representan la cantidad de
masa localizada en x;.
d ) L a interpretación geométrica (figura 4.4) de una distribución de proba-
bilidades es siempre útil.
7 8 Variables a l e a t o k s unidimensionales 4.2

F I G U R 4A. 4 FIGURA
4.5

Sea B un eventoasociado conla variable aleatoriaX . Esto es, B c Rz


(Fig. 4.5). Específicamente, supongamos que B = {zil, xi27 .. .} . Por
tanto,

P ( B ) = P [ s I X ( s ) E B] (puesto queestoseventos son equivalentes)


c
m
= P [ s I X ( s ) = xi.
3
, j = 1 , 2 , . . .] = P(ZZj). (4.4) ,
j=1

En palabras, la probabilidad de un eventoB es igual ala suma delas


probabilidades d e los resultados individuales asociados con B .
\

Obseruacwnes: a) Supóngase que la variablealeátoria discreta X puede tomar


sólo un número finito de valores, por ejemplo z1,.. . , 2 , . Si cada resultado es
igualmente probable, resulta obvio que tenemos p ( z 1 ) = . . . = p ( z ~=) 1/N.
b ) Si X toma un númeroinfinito numerable de valores, entonces es imposible
tener todos los resultados igualmente probables, porque quizá no podamos
satisfacer la condición si hemos de tener p ( z ; ) = c para toda i.
c) En cada intervalo finito habrá cuando muchoun nilmero finito de valores
posibles de X . Si uno de esos intervalos no contiene ninguno de los-valores
posibles, le asignamos probabilidad cero. Esto es, si R, = (21,2 2 , . . . , z,} y si
ningún z; E [ a ,61, entonces P [ a 5 X 5 b] = O.

EJEMPLO4.6. Supóngaseque se poneuntubo de radioenun


soporte y se prueba. Considérese quela probabilidad de que el control
sea positivo es igual a :; por tanto, la probabilidad de que el control
sea
negativo es $. Supóngase, además, que probamos una gran cantidad
d e esos tubos. La prueba continúa hasta que aparece el primer tubo
positivo. Definase la variable alcatoria X como sigue: X es el número
4.3 L a distribucidn
binomial 79

finalizar elexperimento. El espacio muestral


de pruebas necesarias para
con asociado es 1

S = {+, -+, -- +, - - -+, * * o } .

Para determinar la distribución de probabilidades de X razonamos i


de la siguiente manera. Los valores posibles de X son 1 , 2 , . . . ,n , . . .
(obviamenteestamos considerando
el espacio muestral
idealizado). Y i

X = n si y sólo si los primeros ( n - 1) tubos son negativos y el n-ésimo


tubo es positivo. Si suponemos quela condición de un tubo noafecta la
condición de otro, podemos escribir

p ( n ) = P(X = n)= (i)n-1 (;) , n = 1,2,. ..


Para verificar que estos valores de p ( n ) satisfagan la ecuación (4.3),
observemos que i
1

+
Observaciones: Aquí empleamos el resultado de quela sene geom’trica 1 r +
r2+. . . converge a 1/( 1-r) siempre queIr1 < 1. Aeste resultadonos referiremos
varias veces. Supóngase que queremoscalcular P ( A ) ,donde A se define como
{El experimento termina despuésde un número par repeticiones}.
de Usando
la ecuaci6n (4.4), tenemos
I

a
3

P(A) = p(2n) = -
3
25616
+ 3
-- + ..
n=l

- 3 1 - -. 1
- “
-
161--L16 5
,”

4.3 La distribución binomial

En los capítulos finales consideraremos en forma detallada diversas va-


riables aleatorias discretas importantes. Por el momento, sólo estudia-

\
remos una de ellas y luego l a usaremosparailustrar variosconceptos
, relevantes.
80 Variables
unidimensionales
aleatorias 4.3

EJEMPLO 4.7. Supóngase que los artículos que salen de una línea d e
p - o d u c c i h se clasifican como defectuosos ( D ) o no defectuosos ( N ) y
que se eligen al azar tres artículosde la producción de undía, los cuales
se clasificande acuerdocon este esquema. El espacio muestral para este
csperimento, digamos S, puede describirse así:

S = {DDD, DDN,DND,NDD, NND,NDN, DNN,NNN}.

(Otra manera de describir S es como S = S1 x S2 x S3, el producto


cartesiano d e SI,S,, y SS, donde cada S; = { D , N } . )

Supongamos quecon probabilidad 0.2 un artículo es defectuoso y, por lo


tanto, con probabilidad 0.8 un artículo es no defectuoso. Supongamos
que esas probabilidades son iguales para cada artículo,al menos durante
nuestro estudio. Finalmente, supongamos que la clasificación d e cual-
quier artículo particular es independiente de la clasificación d e cual-
quier otro artículo. Usando estas suposiciones, se deduce que las pro-
babilidades asociadas conlos diversos resultados delespacio muestral S,
como antes se describió, son

Usualmente nuestro interés no se enfoca hacia los resultados indivi-


duales de S, sino que sólo deseamos saber cuúntos artículos defectuosos
se encuentran (sin tomar en cuenta el orden en que ocurrieron). Es de-
cir, deseamos considerar la variable aleatoria X que asigna a cada uno
d e los resultados S E S el número de artículos defectuosos encontrados
en s. Por tanto, el conjunto devalores posibles d e S es {O, 1,2,3}.
Podemos obtener la distribución de probabilidades para X, p ( x ; ) =
P ( S = x;) como sigue:

X = O si y sólo si ocurre N N N ;
X = 1 si y sólo si ocurre D N N , N D No N N D ;
A’ = 2 si y sólo si ocurre D D N , D N Do N D D ;
X = 3 si y sólo si ocurre DDD.

. (Nótese que { A 7 N N }equivale a {X = O}, etc.) Por lo tanto,


4.3 LAZ distribución binomial 81

p ( 0 ) = P ( X = O) = ( 0 . q 3 , p(1) = P ( X = 1) = 3(0.2)(0.8)2,

p(2) = P ( X = 2) = 3(0.2)2(0.8),p(3) = ]'(X = 3) = (0.q3.

Nótese quela suma deestas probabilidades es igual a 1, porque la suma


+
se puede escribir (0.8 0.2)3.

Observacidn: La exposici6n anterior ilustra c6nno las probabilidades en el


recorrido R, (en este caso, {O, 1 , 2 , 3 } ) son inducidas por las probabilidades
definidas en el espacio muestral S , porque la s.uposición de que los ocho
resultados d e

S = {DDD, DDN,DND, NDD,NND,NDN, DNN,NNN}

Generalicemos ahoralas nociones presentadas en el ejemplo anterior.


i
Definición. Consideremos unexperimento E y sea A unevento
asociadocon E. Supongamosque P ( A ) = p y, por lo tanto,
P ( A C )= 1 - p. Consideremos n repeticiones independientes d e
E. Por lo tanto, el espacio muestral consiste en todas las sucesiones
posibles { a l , a 2 , . . . , a n } , donde cada ai es A o A', según A o A'
ocurra en la i-Csima repetición d e E. (Hay 2n d e tales sucesiones).
Aún más, supongamos que P ( A ) = p es el mismo para todas
las repeticiones. Definamos la variable aleatoria X como sigue:
X = número de veces queocurrióelevento A . Llamamosa
X una variable aleatoria binomial con los parámetros n y p . Sus
valores posibles obviamente son O, 1,2,. . . ,n. (Decimos en forma
equivalente queX tiene unadistribución bminomial.) Las repeticiones
individuales d e E se 1lamarAn ensayos de Bernoulli.

Teorema 4.1. Sea X una variable binomialcon baseen n repeticiones.


Entonces

P ( X = k) = (;) p k ( l - p)", (4.5)


82 Variables
unidimensionales
aleatorius 4.3

Demostración: Consideremosunelementoparticulardelespacio
muestral E que satisfaga la condición de que X = k . Tal resultado apa-
recería, por ejemplo,si las primeras k repeticiones de E resultasen en la
ocurrencia d e A, mientras que las últimas n - k repeticiones resultasen
en A', es decir:

AAA . A A C A C A C . A'.
.
M L I

k n-k

Puesto que todas las repeticiones son independientes,la probabilidad


d e estasucesi6nparticularsería p k ( 1 - I , ) ~ - ' . Pero exactamente la
misma probabilidad estaría asociada con cualquier otro resultado para
el cual X = k . El número total de tales resultados es igual a (I), por
lo que debemos elegir con exactitud k posiciones (entre n) para-las A.
Pero esto produce el resultado anterior, ya que esos (I) resultados son
mutuamente excluyentes.

Observaciones: a ) Para verificar nuestros cAlculos, observemos que, usando


el teorema del binomio, tenemos Cg=,P(X = k) = Cg=, ( i ) pk(1- P ) " - ~ =
[p + \l - p ) l n = In = 1, como debería ser. Puesto que las probabilidades
+
( i )p (1- p ) n - k se obtienenal desarrollar la expresión binomial [p (1 - p ) l n ,
a éSta la llamamos distribución binomial.
b) Cada vez que realizamos repeticionesindependientes de un experimento
y nos interesamos s610 en una dicotomía -defectuosos o no defectuosos, du-I
reza sobre o bajo un cierto valor estándar, nivel de ruido en un sistema d e
comunicaciones superior o inferior a un margen preasignado- consideramos
potencialmente un espacio muestral en el cual podemos definir una variable
aleatoria binomial. Si las condiciones del experimento permanecensuficiente-
mente uniformes de modo quela probabilidad d e algún atributo, por ejemplo
A , permanezca constante, podemos usar el modelo anterior.
c ) Si n es pequeiia, los términos individuales d e la distribuci6n binomial son
relativamente sencillos d e calcular. Sin embargo, si R es razonablemente gran-
de, estos cAlculos llegan a ser un poco complicados. Por fortuna, las probabi-
lidades binomiales han sido calculadas. Existen muchas d e esas tabulaciones
(véase Apéndice).

EJEMPLO4.8. Supongamos que un tubo de radio puesto en cierto


tipo de equipo tiene una probabilidad de 0.2 de funcionar más de
500 horas. Si probamos 20 tubos,?cuál esla probabilidaddeque
exactamente E de ellos funcionen más de 500 horas, k = O, 1 , 2 , . . . , 2 0 ?
4.3 L c r distribución
binomial 83

Si X es el número de tubos que funcionan más d e 500 horas, su-


pondremos que X tiene una distribución binomial. A s í , P ( X = IC) =
f (2:)(0.2)k(0.8)20-k. Los siguientes
valores puedenleerseen la ta-
bla 4. l.
TABLA
4.1 /

P(X = O) = 0.012 P ( X = 4) = 0.218 P(X = 8) = 0.022

P(X = 1) = 0.058 P(X = 5) = 0.175 P(X = 9) = 0.007


P(X = 2) = 0.137 P(X = 6 ) = 0.109 P(X = 10) = 0.002
P(X = 3) = 0.205 P(X = 7) = 0.055 P(X = IC) = O+ para IC 2 11
I (Las probabilidades restantes son
menores que 0.001 .)

Si dibujamos esta distribución de probabilid,ades obtenemos


la gráfica
que se muestra en la figuras 4.6. El modelo que observamos aquí es
muy general: las probabilidades binomiales aumentan monótonamente
hasta que alcanzan un valor máximo y luego disminuyen d e la misma
manera. (Véase el Prob. 4.8.)

FIGURA4.6
EJEMPLO4.9. Al poner en funcionamiento una mgquina, existe cier-
ta probabilidad de que el operario cometa un error. De manera realis-
ta puede suponerse que éste aprende en cuanto sabe que la probabi-
lidad de cometer errores disminuye cuando use la mgquina en repeti-
das ocasiones. Supongamos que el operario hace n intentos y que los
n ensayos son estadísticamente independient'es. Supongamos de ma-
nera específica que P(un error cometido en la i-ésima repetición) =

\
84 kriables
unidimensionales
aleatorias 4.3

+
l / ( i l ) ,i = 1 , 2 , . . . ,n. Supongamos que se consideran 4 intentos (es-
to es, n = 4) y que se define la variable aleatoria X como el número
d e operaciones hechas sin error en la máquina. Observemos que X no
está distribuida binomialmente porque la probabilidad d e “éxito” no es
constante.
Para calcular la probabilidad de X = 3, por ejemplo, procedemos
como sigue: X = 3 si y sólo si hay exactamente un intento no exitoso.
Esto puede suceder en el primero, segundo, tercero o cuarto ensayo.
Por lo tanto,
p(x = 3) = 1 2 3 4 + 1 1 3 4 + 1 2 1 4 + 1 2 3 1 - 5 .
2 3 4253 4253 4253 4 5 - 12

EJEMPLO4.10. Consideremos una situación semejante a la descrita


en el ejemplo 4.9. Esta vez supondremos que hay una probabilidad
constante p , de no cometer error en la máquina durante cada uno de
los primeros n1 intentos y una probabilidad constante p , 5 p , de no
cometer error en cada una de las siguientes n2 repeticiones. Sea X el
número de operacionesexitosas d e la máquina durante los n = nl n2 +
intentosindependientes.Encontramosunaexpresióngeneralpara
P ( X = k). Por la misma razón dada en el ejemplo precedente, X no
está distribuida binomialmente. Para obtener P ( X = k) procedemos
como sigue.
Sea Y1 el número de operaciones correctas durante los primeros
nl intentos y sea Y2 el número de operaciones correctas durante los
segundos n2 intentos.
Por lo tanto, Y1 y Y2 son variables aleatorias independientes y X =
+
15 Y2. A s í , X = k si y sólo si Y1 = r y Y2 = k - r, para cualquier entero
r que satisfaga O 5 r 5 nl y O 5 k - r 5 n2.
Las restricciones anteriores sobre 7‘ son equivalentes a O 5 r 5 nl y
k - n2 5 r ‘5 k. Combinándolas podemos escribir

mAx (O, IC - n2) 5 r 5 mín (k,n l ) .


Por tanto, tenemos
mín(k,nl)

P ( X = k) = nz-(b-r)
k-r
r=máx ( 0 , k - n ~ )

Con la convención frecuente de que (t)


= O cada vez que b >ao
b < O, podemos escribir la probabilidad anterior como
4.4 Variables aleatorius continuas 85

Porejemplo, si pl = 0.2,p2 = 0.1, nl := n2 = 10 y Iz = 2, la


probabilidad anterior se convierte en

P(X = 2) =
2

r=O
(1r0 ) ( 0 . 2 ) r ( 0 . 8 ) ' 0 - r (2 l-or )
)(0.1)2-r(0.9)8+r = 0.27,

después de uncálculo elemental.

Obseroacidn: Supongamos que = p 2 . En esltecaso,laecuación (4,6) se


reduciría a ( i )p f ( 1 - p ~ ) ~ - 'puesto
, que ahora la variable aleatoria X tiene
una distribuci6n binomial. Para ver que esto es así, obsérvese que podemos
escribir (puesto que n1 + 712 = n )

Para mostrar que la suma anterior iguala (;) comphrense simplemente 10s
coeficientes de las potencias de'x en ambos lados de la identidad (1+ x)"' (1+
x p = (1+ 2 ) n l +%.

4.4 Variables aleatorias continuas

Supongamos que el recorrido de X está formado por un gran número


finito de valores, por ejemplo, todos los valores x en el intervalo O 5
x 5 1 d e la forma 0 , 0 . 0 1 , 0 . 0 2 , . . . ,0.98,0.99,1.00. Con cada uno de
esosvaloresestáasociado u n n ~ m e r o n o negativo p(x:;) = P ( X =
xi), i = 1 , 2 , . . ., cuya suma es igual a 1. Esta situación se representa
geometricamente enla figura 4.7.
Memos señalado antes que matemáticamente podría ser más fácil
idealizar la anterior descripción probabilística. d e X al suponer que ,Y
puede tomar todos los valoresposibles, P(X)
O 5 x 5 1. Si hacemosesto, ?qué le

ll
sucede a las probabilidades puntuales
p ( x ; ) ? Puesto que los valores posibles
d e X no son contables, en realidad no o
podemos hablar
del
i-ésimo valor
de S FIGURA4.7
86 Variables aleatorius unidimensionales 4.4

y, por lo tanto, p ( x ; ) pierde significado.


Lo que haremos es sustituir la función p, definida sólo para 2 1 , x2,.. . ,
por una función f definida (en el contexto presente) para todos los
valores d e x, O 5 x 5 1. Las propiedadesde la ecuación (4.3)se
sustituirán por f(x) 2 O y S,' f(x)dx = 1. Procederemos formalmente
como sigue.

Definición. Se dice que X es una variable aleatoria continua, si existe


una función f,llamada función d e densidad d e probabilidad (fdp)
d e X , que satisface las siguientes condiciones:

a) f ( z ) 2 O para toda x,
$03
f(x)dx = 1. (4.7)
b, J _ ,

c)Para cualquier a , b , tal que "o0 < a < b < +m,


tenemos P ( a 5 ,Y 5 b ) = Jab f(x)dx. (4.8)

Obsemacwnes: a) Fundamentalmente queremos decir que X es una variable


aleatoria continua si X puede tomar todos los valores en algún intervalo (c, cl),
donde c y d pueden ser "o3 y +co respectivamente. La existencia estipulada
de una fdpes un método matemático que tiene una base intuitiva considerable
y hace más sencillos nuestros cálculos. En relación conesto, d e nuevose
debe señalar que cuando suponemos Xque es unavariable aleatoria continua,
estamos considerando la descripción idealizada d e S .
b ) P ( c < S < d) representa el área bajo la gráfica de la figura 4.8 d e la fdp
f entre x = c y x = d.

FIGURA
4.8

c ) Una consecuencia d e la descripción probabilística d e S para cualquier va-


lor específico de S , por ejemplo ro, es que tenemos P ( X = ro) = O, puesto
que P ( X = " o ) = S"'
x0
f(x)dr = O. Este resultado puede parecer contrario
a nuestra intuición. Dcbernos establccer, sin embargo, que si permitimos que
4.4 Variables aleatorius continuas 87

A’ tome todos los valores en un intervalo, entonces la probabilidad cero no es


equivalente con la imposibilidad. Por tanto, en el caso continuo, P ( A ) = 0 no
implica A = 8, el conjunto vacío. (Véase el teorema 1.1.) Para decirlod e u nmo-
do mAs informal, consideremos que elegimos un punto al azar en el segmento
{x I O 5 x 5 2). Aunque quisiéramos estard e acuerdo (parafines matemáticos)
con que cada punto concebible del segmento pudiese ser el resultado d e nuestro
experimento, nos sorprenderíamos mucho si en realidad escogiéramos preci-
samente el punto medio del segmento,o cualquie~rotro puntoespecífio d e ese
elemento. Cuandoindicamos estoen unlenguaje matemático preciso, decimos
que el evento tiene “probabilidad O”. En vista d e estas consideraciones, todas
las siguientes probabilidades soniguales si X es una variable aleatoria continua:

P(c 5 x 5 d), P(c 5 x < d), P(c < x 5 d), y P ( c < x < d).

d ) Aunque aquí no verificaremos los detalles, se puede demostrar que la


anterior asignación d e probabilidades a los eventos en Rx satisface los axiomas
básicos d e probabilidades (Ec. 1.3), donde podernos tomar {x I -m < z <
+m}como el espacio muestral.
e ) Si una función f* satisface las condiciones, f *(x) 2 O, para toda x, y
S-+,” f*(x)dx = I(, donde A’ es un número positivo real (no necesariamente
igual a l), entonces f* no satisface todas las condiciones para ser unafdp. Sin
embargo, podemos definir con facilidad una nueva función, digamos f , en
términos d e f* como sigue:

f(.) =-

para toda x.

Por tanto, f satisface todas las condiciones de ulna fdp.


j)Si S sólo toma valores en unintervalo finito [ u , b ] , simplemente podemos
establecer f ( x ) = O para todo z e
[u, b ] . Por tanto, la fdp está definida para
todos los valores reales d e z, y debemos exigir que: S-+,” f(x)dz = 1. Cuando
quiera que la fdp se especifique sólo para ciertos valores d e x, supondremos
que es cero para cualquier otro.
g) if(z) no representa la probabilidad d e nada! Hemos observado que, por
ejemplo, P ( X = 2) = O y, por tanto, f(2) ciertamentenorepresentaesta
probabilidad. Sólo cuando la función se integra entre doslímites produce una
probabilidad. Sin embargo, podemosdar unainterpretación d e f (z)Ax como
sigue. Del teorema delvalor medio del cálculo se deduce que

P ( z 5 X 5 x + Az) = f ( s ) d s = Azf((), z 5 [ 5 x + Ax.


J,”’””.
88 Variables aleatorias unidimensionales 4.4

Si A x es pequeña, f (x)Ax es apyooabuldamente igual a P(x 5 X 5 x + A x ) . (Si


f es continua por la derecha, esta aproximación llega a ser m& segura cuando
Ax 4 O.)
h ) Deberíamos señalar de nueva cuenta que la distribución de probabilida-
des (en estecaso la fdp es inducida en R, por las probabilidades asociadas con
eventos en S. Así, cuando escribimos P ( c < X < d ) , quercmos decir, como
siempre, P [ c < S ( s j < dl, que a su vez es igual a P [ s I c < S ( s ) < dl, pues-
to que estos eventos son equivalentes. La definición anterior, ecuación (4.8),
estipula esencialmentela existencia d e una fdp f definida en unaR, tal que
d
P[sI c < X ( s ) < (13 = f(xjdx.

Nuevamente eliminaremosla naturaleza ft~ncional ,Y dey, por tanto, estaremos


interesados sólo en RZ y la fdp f.
i) En el caso continuo, otravez podemos considerarla siguiente alzalogia con
la mpcdnica: snpóngase que tenemos unamasa total de una unidad, distribuida
continuamente e n el intervalo a 5 x 5 b. Entonces, f( x j representa la densidad
de la masa en el punto x y S, f ( x ) d z representa la masa tot31 contenida en el
d

intervalo c 5 x 5 d .

EJEMPLO4.1 1. En el anAlisis precedente sobre variable aleatoria


continua se supuso la existencia de una fdp. Consideremos un ejemplo
simple en el cual podamos determinar con facilidad la fdp haciendo una
suposición apropiada acercade la conducta probabilísticade la variable
aleatoria. Supóngase que escogemos un punto en el intervalo (0,l).
Representemos la variable aleatoria X cuyo valor es l a coordenada 2
del punto elegido.

Sz~~oszcidn:Si I es cualquier intervalo entre ( O , 11, entonces la Prob


[X E I] es directamente proporcional a la longitud de I, por ejemplo,
L ( 1 ) . Estoes,Prob [X E I ] = k L ( I ) , d o n d e X: es la constantede
proporcionalidad. (Es fácil ver, tomando I = (O, 1) y observando que
L ( ( 0 , l ) )= 1 y Prob[X E (O, I)] = 1, q u e X: = 1.)
Obviamente X toma todos los valores en (O, 1). <Cuál es s u fdp? Esto
es, Cpodemos encontrar una función f t a i q u e

P(a < X < 6) = J,b f ( z ) d . c ?


Nótese que si a < 6 < O o 1 < u < 6, P ( u < X < 6) = O y, por tanto,
f(x) = O. Si O < a < 6 < 1, P ( u < S < b ) = b - a y, por tanto, f ( 2 ) = 1.
A s í encontramos
4.4 Variables aleatorius continuas 89

1, O < x < l ,
O, paracualquier otro valor.

FIGURA
4.9 FIGURA
4.10

EJEMPLO4.12. Supóngase que l a variable aleatoria X es continua.


(Véasc la Fig. 4.9) Sea la fdp f dada por
I 4'

f(x) = 2 2 , o < 2 < 1,


=O para cualquier otro valor.

Claramente, f(x) - so
> O y S_'," f ( 2 )dx = 22 dx = 1. Para calcular
1

P(X 5 i), so
s610 debemos evaluar la integral 112 ( 2 2 ) d x = 1

El concepto d e probabilidad condicional tratado en el capítulo 3 se


puede aplicarcon propiedad a las variables aleatorias.A s í , en el ejemplo
anterior debimos evaluar P ( X 5 I - < X 5 $). Aplicando de manera
directa la definición d e probabilidad individual, tenemos
90 Variables aleatorias unidimensionales 4.5

f(x) = " / x 3 ) 1500 5 x 5 2500,


= O, paracualquierotro valor.

(Es decir, asignamos probabilidad cero al evento { X +


1500) y {x
>
2500}.) Paraevaluar la constante a, debemosacudira la condición
J?: f(x)dz = 1, que en este caso se convierte en :::J: a / x 3 dx = 1.
De esto obtenemos U = 7,031,250. La gráfica d e f aparece en la figura
4.10.

En un capítulo posterior estudiaremos detalladamente diversas va-


riables alcatorias importantes, discretasy continuas. Mediante el uso d e
los modelos deterministas sabemos que ciertas funciones desempefian
un papel mucho más importante que otras. Por ejemplo,las funciones
lineales, cuadráticas, exponenciales y trigonométricas tienen un papel
primordial al describir modelos deterministas. Al desarrollar los mode-
los no deterministas(es decir, probabilísticos)encontraremos que ciertas
variables aleatorias son particularmente importantes.

4.5 Función de distribución acumulativa

En este capítulo presentaremos otro importante concepto general.

Definición. Sea X una variable aleatoria, discreta o continua. Defi-


nimos que I: es lafimczón de distribucdn acumulatiua d e la variable
aleatoria X (abreviada fda) como F ( x ) = P ( X 5 x).

Teorema 4.2. a) Si X es una variable aleatoria discreta,

donde la suma se toma sobre todoslos indices j que satisfacen zj 5 x.


O) Si X es una variable aleatoria continua con fdpf ,

(4.10)

Dernostracwn: Anlbos resultados se deducen inmediatamente d e la


dcfinición.
4.5 Futlciótlt de distribución acumulativa 91
r

;i
-I
-; ; ~

X
3
I 2 3 FIGURA4.11

EJEMPLO4.14. Supongamos quela variable aleatoria A- toma los tres


valores 0,1, y 2 con probabilidades 51, i;1 y z,
1 respectivamente. Entonces,
I

F(2)= o si 2 < o ,
i

-- 13 si O < z < : l ,
- 12
- si 1sz<:2,

=1 si 2 2 2 ,

(Nótese quees muy importante indicarl a inclusión o exclusión de los


puntos extremos al describir los diversos inte-malos.)L a gráfica de F se
I presentaen la figura 4.11.

EJEMPLO4.15. Supongamos que X es una variable aleatoria conti-


nua con fdp

f(2) = 22, o < 2 < 1,


= O, paracualquicrotro valor.

Por lo tanto, la fda F está dada por

= l x 2 s d s = z2

=1 si 2>1.

La gráfica correspondiente aparece enla figura 4.12.


92 Variables aleatoriusunidimensionales 4.5

FIGURA4.12

Las gráficas obtenidas en las figuras 4.1 1 y 4.12 para las fda (en cada
uno delos casos) son típicas en el siguiente sentido.
a ) Si S es una variable aleatoria discreta con un número finito d e
valores posibles, la gráfica d e la fda F se formará d e trazos horizontales
(sc llama hnción escalonada). La función F es continua excepto para
los valores posibles d e X, llamados “ 1 , . . . ,xn. En el valor xj la gráfica
tendrá un “salto” d c magnitud p ( r j ) = P ( X = xj).
6) Si S es una ftlnción aleatoria continua, F será una función conti-
nua para todaT .
c) La fda F está definida para todos los valores d e x, lo cual es una
razón importante para considerarla.
Hay dos propiedades fundamentales d e la fda que resumiremos en
cl teorema siguiente.

Teorema 4.3. a) La función F es no decreciente. Esto es si 2 1 5 x2,


tenemos F ( q ) 5 F ( z 2 ) .
b ) límx+-mF(r) = O y lím,,,F(z) = 1. [A menudo esto lo
escribimos como F ( -m) = O, F ( w ) = 1.]

Demostraciún: a) Definamos los eventos A y 13 como sigue: A = { S 5


B = {X 5 q } . Entonces, puesto que x1 5 z2,tenemos A c B y
T ~ } ,

por el teorema 1.5, P ( A ) 5 P ( B ) , que es el resultado requerido.


b ) En cl caso continuo tenemos

F(-m) = .”,S_”,
lírn f(S) ds = o,

F ( w ) = lím
X
+
, I-, f(s) ds = 1.
4.5 Función de distribución acumulativa 93

En el caso discreto el argumentoes análogo.

La fbnción d e distribución acumulativa es importante por varias ra-


zones. Esto es particularmente cierto cuando tratamos con una variablc
aleatoria continua, porque en este caso no podemos estudiarla conduc-
ta probabilística d e X a l calcular P ( X = x). Esa probabilidad siemprees
igual a cero en el caso continuo. Sin embargo:, podemos inquirir acerca
d e P ( X < z) y, corno lo demostramos en el próximo teorema, obtcner
la fdp d e X .

Teorema 4.4. u ) Sea F la €da de una variable aleatorin continua con


fdp f. Luego,

para toda z en la cual I: es diferenciable.

6) Sea X una variable aleatoria discrcta ccln valores posibles 21, x?,
. . . , y supongamos que es posible rotular esos valorcs de modo que
zl < x2 < . . . Sea F la €da d e S . Entonces,

(4.12)

Demostración: u ) F ( z ) = P ( X 5 x) = J:m f(s) ds. Así, aplicando al


teorema fundamental delcálculo, obtenemos F ' ( z ) = f ( . ~ ) .
6) Puesto que supusimos X I < x2 < . . ., tenemos

Obseruacidn: Reconsiderelnos brcvcmcnte a ) del teorema anterior. Recorde-


mos la definición d e derivada dela función F :

P
94 Variables aleatoriasunidimensionales

= lím
P(S 5 2 + h)- P ( S 5 2)

h+O+ h

Así, si h es pequeha y positiva,

P(z < S 5 2 + h)
F ' ( z ) = f(z)E
h
Es decir, f ( z ) es aproximadamente igual a la "cantidad d e probalilidad en
+
el intervalo ( 2 ,2 h ) por longitud h". De aquí el nombre defunción de densidad
de probabilidad.

EJEMPLO4.16. Supongamos que unavariablealeatoriacontinua


tiene fda I: dada por

F(x)= o, 2 5 o,
-X
=1-e , z>O.

Entonces, F ' ( x ) = e-" para T > O, y así la fdp f es dada por

f ( z ) = e-", x 2 O,
=O para cualquier otro valor.

Obseruación: Una advertencia sobre la terminología puede ser de utilidad.


Esta terminología, aunque no es muy uniforme, ha llegado a estandarizarse.
Cuando hablamos de la dzitribm-ióu deeobabilidades de una nriablealeatoria X
indicamos su Cdp f si X es continua, o d e su función d e probabilidrd puntual
p definida para 21, 2 2 , . . . si X es discreta. Cuando hablamos d e la función
de distribución acumulativa, o algunas veces sólo de 1 A f i l W k h de dishibución,
siempre nos referimos a F , donde F ( z ) = P ( X 5 x ) .

4.6 Distribuciones mixtas

I Iemos restringido nuestra exposiciónsólo a variables aleatorias discre-


tas o continuas. Tales variables aleatorias ciertamente son las más im-
portantes en las aplicaciones. Sin embargo, hay situacionesen las cuales
4.7 Kiriables
aleatorias
distribuidas
uniformemente 95

podemos encontrar variables del tipomixto: la variable aleatoria X pue-


de tomarciertos valores distintos, por ejemplo,21, . . . z n ,con probabi-
)

lidad positiva y tomar también todos los valores en algim intervalo, por
<
ejemplo, a z 5 b. La distribución d e probabilidades d e tales variables
aleatorias se obtendría al combinar las ideas consideradas anteriormente
para la descripción d e las variables aleatorias discretasy continuas como
sigue. A cada uno delos valores z; se le asigna un número p(x;) tal que
p ( z ; )2 O, pax-a toda i, y tal que Cy=,p(z;) = p < 1. Entonces definimos
b
una función f que satisface !(x) 2 O, J, f(z)alz = 1 - p . Para toda a , b ,
con -00 < a < c < $00,

De esta manera satisfacemos la condición

P ( S ) = P(-m < x < 0 O ) = 1.

Una variable aleatoria del tipo mixto pue8de aparecer como sigue.
Sup6ngasequeestamosprobandounequipo y X es el tiempode
fhcionamiento. En la mayoría de los problem.as describiríamosS como
una variable aleatoria continuacon valores pos'ibles x 2 O. Sin embargo,
hay algunos casos en los cuales hay una probabilidad positiva de queel
artículo no funcione del todo, es decir, falla a l tiempo S = O. En tal
caso desearíamos modificar nuestro modeloy asignar una probabilidad
positiva, por ejemplo p , a l resultado x' = O. Portanto,tendríamos
P(-Y = O) = p y P ( X > O) = 1 - p. Así, el número p describiría la
distribución d e ,X en O, mientras que la fdp f describiría la distribución
de valores de S > O (Fig. 4.13).

P ( X = O ) =p

FIGURA
4.13 FIGURA
4.14
96 Variables
unidimensiotrales
aleatorias 4.7

4.7 Variables aleatorias distribuidas uniformemente

En los capítulos 8 y 9 estudiaremos con detalle algunas importantesva-


riables aleatorias discrctasy continuas. Ya hemos presentadola relevan-
cia de la variable aleatoria binomial. Ahora consideremos brevemente
una variable continua también importante.

Definición. Supongamos que X es una variable aleatoria continua


que toma todos los valores en el intervalo [ a ,b ] , donde ambos, n y
b, son finitos. Si la ftlp d e X está dada por

=O para
cualquier
otro
valor (4.13)

decirnos que S está distl-ibuidu unifomcmente en el intervalo [ a ,b].


(Véase 12 Fig. 4.14.)

Obsenmlones: a ) Una variable aleatoria clislribuida uniformemente tiene una


fdp que es una constante en el intervalo d e definición. A fin d e satisfacer la
condición S-+," f(z) dx = 1, esta constante debe ser igual a l recíproco d e la
longitud del intervalo.
b) Una variable aleatoria distribuida uniformemente representa el término
continuo an5log.o a los resultxlos igualmente posibles en el sentido siguiente.
Para cualquier subintervalo [c,dl, donde a 5 c < d 5 b, P ( c 5 ,Y 5 d ) es la
7rusmna para todos los subintervalos que tienen la misma longitud. Esto es,

d-C
P(c 5 A- 5 d ) =
b-a

y así s61o depende de I n longitud del intervalo y no d e l a ubicación d e &te.


c ) Ahora podemos precisar la nociBn intuitiva d e elcgir un punto P al azar
en un intervalo, por ejemplo [ a ,61. Con esto sólo indicaremos que la coorde-
11acla x del punto elegido, p.x ejemplo S , est5 distribuida uniformemcntc en
[ a ,hl.

EJEMPLO4.17. Se elige al azar un punto sobreel segmento de linca


[0,2]. <Cuál es la probabilidad de que el punto escogido quede entre 1
y i?.
~1.8 Una observacidn 97

Rcprescntando la coordenada del punto elegido por X , tenemos


que la fdp de X está dada por f(x) = z, O < x < 2 y, portanto,
1

P(l 5 S 5 23 ) = +.

t i

EJEMPLO4.18. Se puede suponer que la dureza, digamos H , de


una muestra de acero (medida en la escala Rockwell) es una variable
aleatoria continua distribuidauniCormemente sobre [50,70] en la escala
B . Por tanto,
!
f(h)= 50 < h < 70,
=O paracualquierotro valor.

EJEMPLO4.19. Obtengamosunaexpresiónpara la fda deuna


variable aleatoria distribuida uniformemente

F(x)= P(X 5 x) = J-b, ,f(s) ds

= O si x<a,

La grrifica correspondiente aparece enla figura 4.15.

4.8 Una obseruación

I-Icmos señalado varias veces que en alguna etapa del desarrollo de nues-
tro modelo probabilístico deben asignarse algunas probabilidades a los
resultados sobre la base de alguna evidencia experimental (como es la
frecuencia relativa, por ejemplo) o algunas otras consideraciones, tales
\ !
98 Variubles aleatoriusunidimensionales

como cxpcricncias pasadas con los rcnómenos estudiados. El interro-


gante siguiente sc le podría presentar al estudiante: ?por qué no po-
dríamos obtcncr todas las probabilidades e n las cuales estamos intere-
sados porun medio no deductivo? La respuesta cs que muchos eventos
c u p s probabilidades dcscamos conocer, son tan complicados que nucs-
tro conocimiento intuitivo es insuficiente. Por ejemplo, supongamos
quc diariamcntc salen 1000 artículos de una línea d c producción, al-
gunos de cllos son defectuosos. Deseamos conocer la probabilidad de
tener 50 o mtis artículos dcfcctuosos en un día dado. Aun si estamos
familiarizados con el comportamiento general del proceso dc produc-
cidn, nos podría ser difícil asociar una medida cuantitativa al evcnto:
50 o mcnos artículos son derectuosos.Sin c m l x q o , podríamos afirmar
quc individualmcnte cualquier artículo tcnia la probabilidad 0. 10 d e ser
defectuoso. (Esto es, las experiencias anteriores nos permiten saberque
cerca del 10% de los artículos son dcfcctuosos.) Aún más, podríamos su-
poner que los artículos individuales son defectuosos o no defectuosos,
illdependicntemente uno dc otro. Ahora podcmos proccdcr de manera
dcductiva y derivar la probabilidad del evcnto que se considera.Esto es,
si X = número de defectuosos,

Lo quc aquí se dcstaca es que los diversos mCtodos para calcular pro-
babilidades que hemos derivado(y los que estudiaremos posteriormen-
te) són dc mucha importancia, puesto que con cllos podcmos calcular
las probabilidadcs asociadas con eventos más complicados, lo cual sería
dificil d e obtcncr con medios intuitivoso empíricos.

PROBLEMAS
4.1. Se sabe que al lanzar una moneda, a nlcnudo sale cara tres veces m,is
que scllo. Esta moneda se lanza tres veces. Sea ,Y el número de caras que
aparccen, estííblccer l a distribución de probabilidades de X , así como l a fda.
IIacer u n a gr5Gca de ambas.
4.2. De u n lote que contiene 25 articulos, 5 de los cualcs son dcfectuosos, se
eligen 4 al azar. Sea S el número dc artículos defectuosos encontrados, obtcner
la distribución d e probabilidades de S si
a) los artículos se escogen con sustitución,
b ) los artículos se escogen sin sustitución.
Problemas 99
,I' ~'

4.3. Supóngase que la variable aleatoria X tiene valores posibles 1 , 2 , 3 ,. . .,


y P ( X = j ) = 1/2.', j = 1 , 2 , .. .
, , . " a )Calcular P ( X es par).
b ) Calcular P ( X 2 5).
c) Calcular P ( X es divisible entre 3).

4.1. Considérese una variable aleatoria X con resultados posibles: O , 1 , 2 , . . .


Suponer que P ( X = j ) = (1 - a ) a j , j = O, 1 , 2 , .. . 1

?Para qué valores d e a es significativo el modelo anterior?


u)
b ) Verificar que lo anterior representa una distribución de probabilidades
legítima.
c) Demostrar que para dos enterospositivos cualesquiera S y t ,
1
f

4.5. Supcingase que la máquina 1 produce (diariamente) el doble d e articulos


que la m5quina 2. Sin embargo, cerca del4% d e lo's artículos d e la mriquina 1
tiende a ser defectuoso, mientrasque la máquina 2 sólo produce alrededor d e
2% defectuosos. Supongamos que se combina la producción diaria dea ls dos
máquinas. Se toma una muestra aleatoria de diez del resultado combinado.
?Cuál esla probabilidad de queesta muestra contenga dos defectuosos?
4.6. Se lanza una serie d e cohetes hasta que ocurre el primer lanzamien-
to exitoso. Si esto no sucede en cinco ensayos, el experimento se detieney se
inspecciona el equipo. Supóngase que hay una probabilidad constante de 0.8
de tener unlanzamiento exitoso y que los ensayos sucesivos son independien-
tes. Ademjs, el costo del primer lanzamiento es I.; dólares, mientras que los
siguientes cuestan A'/3 dólares. Cada vez que hay un lanzamiento esitoso, se
obtiene cierta cantidad d e información que puede expresarse como una ganan-
cia financiera d e C dólarcs. Si T es el costo neto dell experimento, encontrarla
distribución de probabilidades d e T .
4.7. Calcular P ( X = 5), donde X esla variable aleatoria definida en cl
ejemplo 4.10. Supongamos que n1 = 10, n2 = 15,111= 0.3 yp2 = 0.2.
4.8. (Propicdades delusfn-obabilidudes binonziales.) E,n laexposición del ejemplo
4.8 se sugirió un modelo general paralas probabilidades binomiales pk(1- (T)
p)%-'. Indicar estas probabilidades por p n ( b ) .
u) Demostrar que para O 5 b < n tenemos

b ) Usando a ) , demostrar que

i) p n ( k + 1) > p , ( k ) si k < n p - (1 - P ) ,
100 Mriablesaleatorias unidimensionales

ii) PrL(k+ 1) = p n ( k ) si k = n p - (1 - p ) ,
izi) p n ( k + 1) < p , ( k ) si k > n p - (1 - p ) .
c) Demostrar que si n p - (1 - p ) es un entero, p,(k) toma su valor máximo
para dos valores de k , llamados ko = n p - (1 - p ) y kb = n p - (1 - p ) 1. +
d ) Demostrar que si np - (1 - p ) no es un entero, entonces p , ( k ) toma su
valor máximo cuando k es igual al entero m& pequeño mayor que Lo.
e ) Demostrar que si n p - ( 1 - p ) < O, P, ( O ) > Pn (1) > . . . > P, ( n ) ,mientras
que si n p - (1 - p ) = O, P,(O) = P n ( l ) > P n ( 2 ) > . . . > P,(n).
4.9. La variable alcatoriacontinua X tienefdp f ( ~ )= 1 / 2 , O 5 I 5 2.
Se hacen dos determinaciones independientes d e X. ¿Cu5l es la probabilidad
de que ambas determinaciones sean mayores q u e l ? Sise han hecho tres
dcLerminaciones independientes, ¿cuál es la probabilidad d e que exactamente
dos sean mayores que 1 ?
4.10. Sea S la duración de un tuboelectr6nico y supongamos que X
se puede representa- como una variable aleatoria continua con fdp f ( ~ )=
be-bx, 2 2 O. Sea p i = P ( j 5 X 5 j + 1). Demostrar que p j es d e la forma
(1 - a ) a j y determinar a.
) 3 x 2 , -1 5 I 5 O.
4.1 1 . La variable aleatoria continua X tiene la fdp f ( ~ =
Si 6 es un nillnero que satisface -1 < b < O, calcular P ( X > b I X < b / 2 ) .
4.12. Supóngase que f y g son fdp en el mismo intervalo, a 5 I 5 b.
a)Demostrar que f + g no es una fdp en ese
intervalo.
b) Demostrar que para todo número p, O < /?< 1, , B ~ ( I ) + (1 - P ) g ( z ) es
una fdp enese intervalo.
4.13. Suponer que la gráfica de la
figura 4.1G representa la fdp de una
variable aleatoria X .
a) ¿Cuál es la relación entre a y b?
6) Si a > O y b > O, ¿quépuede
decir acercadel mayor valor que puede X
tomar b? (Véase Fig. 4.16.) x= - a

FIGURA
4.16
4.14. El porcentaje d e alcohol (1OOX) en cierto compuesto se puede con-
siderar como una variable aleatoria, donde X , O < X < 1, tiene la siguiente
fdp:
Problemas 10 1

a) Obtener una expresión parafda F y dibujar su grAfica.


b ) Calcular P ( X 5 3).
C) Supóngase que el precio d e venta del compuesto anterior depende del
contenido d e alcohol. Específicamente, si $ < X <: 6,
el compuesto se vende
en C1 dólares/gA5n; de otromodo se vende en C2 dólares por galón.Si el costo
es C3 dólares/galón, encontrarla distribución d e probabilidades d e la utilidad
neta +I

4.15.Sea X una variable aleatoria continua con fdpf dada por:


J,
"

f(x) = ax, o 5 x 5 1,
..
=a, 1<x52, \
Y

= -ax+3a, 25x53,

= O, paracualquier otro valor.

a) Determinar la constante a.
"

6) Dctcrminar F , la fda y dibl?jarla gr5fica.


c) Si S I , X2, y X 3 son tres observaciones independientes d e X Ccu5l es la
probabilidad d e que exactamente uno de esos tres números sea mayor que
1.5?
4.16. Se suponc que el di5metro de un cable eléctrico, digamos X , es una
variable aleatoria continua con fdp f ( x ) = 62(1 - z), O 5 x 5 1.
a ) Verificar que la antcrior es una fdp y dlbujarla.
0) Obtener una expresión parala fdp d e X y dilbujarla.
c) Determinar un número b, tal ne P ( X < b ) =: 2P(X > b ) .
d ) Calcular P ( X 5 $ I $ < X < 5).9
, 4.17. Cada una delas siguientes frmciones representa la fda d e una variable
aleatoria continua. En cada caso F ( c ) = O para x < a y F ( x ) = 1 para x > b,
donde [a,b] es el intervalo indicado. En cada uno d e los casos,dibujar la fnnción
F , determinar la fdp f y dibujarla. También verificar que f cs una fdp.
a) F ( z ) = x / 5 , 05 x 5 5 6 ) F ( c ) = (2,lw)sen-'(fi),O 5 x 5 1
<c5O + g, -1 5 5 1.
\
c) ~ ( z =
) e3x,-00 d) q X ) =2 / 2

4.18. Sea X la duración de un instrumento electrónico (medida en ho-


ras). Supóngase que X es una variable aleatoria continua con fdp f ( x ) =
k / P , 2000 5 x 5 10000.
a) Para n = 2, determinar IC.
b ) Para n = 3, determinar k .
102 Variables aleatorias unidimensionales

c) Para n en general, determinar k.


d ) ?Cu,il es la probabilidad de queel instrumento falle antes d e 5000 horas
de funcionamiento?
e ) Dibujar la fda F(1) para c) y determinar su forma algebraica.

4.19. Sea X una variable aleatoriadistribuidabinomialmentecon base


en diez repeticiones de un experimento. Si p = 0.3, calcular las siguientes
probabilidades usando la tabla d e la distribución binomial del Apéndice.

U) P(X 5 S) b ) P ( X = 7 ) C) P ( X > 6).


4.20. Supóngase que X está distribuida uniformemente en [-a, +(Y],
donde
a > O. Cada vez que sea posible, determinar (Y d e modo que se satisfaga lo
siguiente.
U ) P ( X > 1) = $ b ) P(X > 1) = f C) P ( X < f)= 0.7
d ) P ( X < f = 0.3 e ) P(JX1< 1) = P(lX1 > 1).

4.21. Suponiendo que X está distribuida uniformemente en >


[O,cr],a O
responder las preguntas del problema4.20.

4.22. Se escoge un punto al azar de un segmento d e longitud L. ?Cuál es


la probabilidad de quela razón del segmento m& corto en relación con el más
largo sea menor que 1 ?

4.23. Una fábrica produce diariamente diez recipientesd e vidrio. Se puede


suponer que hay una probabilidad constante p = 0.1 d e producir uno defec-
tuoso. Antes de que estos depósitos se almacenen son inspeccionados y a los
defectuosos se les aparta. Supongamos que hay una probabilidad constante
r = 0.1 d e qLe un recipiente defectuoso sea mal clasificado. Sea X igual al
número de recipientes clasificados como defectuosos al término de un día d e
producción. (Suponemos que todos los recipientes que sefabrican en un día se
inspeccionan ese mismo día.)

= 3) y P(X > 3),


u ) Calcular P ( X
h ) Obtencr una expresión para P ( X = k).

4.24. Supóngase que el 5% d e los artículos que salen d e una linea d e


producción son dcfectuosos. Se escogen diez de ellos y se inspeccionan. ?Cu,il
es la probabilidad d e que se encuentren cuando mucho dos defectuosos?
4.25. Suponer que la duración (en horas) d e cierto tubo d e radio es una
variable aleatoria continuaX con fdp f ( x ) = 10o/;c2, x > 100 y O para cualquier
otro valor.

u ) ?Curil es la probabilidad de que un tubo dure menos d e 200 horas si se


sabe que el tubo todavía funciona después d e 150 horas d e servicio?
Problemas 103

b ) ? C u d es la probabilidad de que si se instalan tres d e esos tubos en un


conjunto, exactamente uno tenga que ser sustituido después d e 150 horas d e
servicio?
c) ?Cuál esel nfimero máximod e tubos que se pueden poner en un conjunto
d e modo que haya una probabilidad 0.5 de que después d e 150 horas d e
servicio funcionen todavía?
4.26. Un experimento consta d e n ensayos independientes. Se puede su-
poner que debido al “aprendizaje”, la probabi1ida.d d e obtener un resultado
exitoso aumenta con el númerode ensayos realizados. Específicamente, su- b

pongamos que P(éxito enla i-ésima repetición) = (isI)/(i+ a), i = 1 , 2 , .. . , n.


<
1
a ) ?Cuál es la probabilidad d e tener tres resultados exitosos por lo menos
en ocho repeticiones?
b ) ?Cuál es la probabilidad de queel primer resultado exitoso Ocurra en la
octava repetición?
4.27. ReGriCndonos al ejemplo 4.9,
u ) calcular P ( X = 2) si n = 4,
b ) para un n arbitrario, demostrar que P ( S = n - 1) = P (exactamente un
+
intento no exitoso) es igual a [I/(n l)]Ey=l(l/i).
4.28. Si la variable aleatoria Ií est5 distribuida uniformemente en(0.5), ?cuál
es la probabilidad d c que l a s raíces de la ecuación 4z2 + 4 2 +~K + 2 = O sean
reales?
4.29. Supóngase que la variable aleatoria X tiene valores posibles 1 , 2 , 3 ,. . .
y que P ( X = r ) = IC(I- ,o)~”I, O < L,I < 1.
a) Determinar la constante IC.
b) Encont.rar la m d u d e esta distribución (es decir, el valor d e T que da el
mayor valor deP(X = r)).
4.30. Una variable aleatoriaX puede tomar cualtro valores con probabilida-
+
des (1 32)/4, (1 - 2)/4, ( 1 + 2z)/4, y (1 - 42)/4. ?Para qué valores d e X es
éSta una distribución d e probabilidades?
5.1 Un ejemplo

Supongamos queel radio X d e la entrada de un tubo muy bien calibrado


se considera como una variable aleatoria continua con fdp f . Sea A =
7 r X 2 el áread e la sección d e la entrada; entonceses evidente que, puesto
que el valor d e X es el resultado de un experimento aleatorio, también
lo es el valor de A . Es decir, A es una variable aleatoria (continua), y
podríamos obtener su fdp, digamos g. Esperaríamos que, puesto que
A es una función d e X, la fdp 9 se puede dlerivar de alguna manera
conociendo la fdp f . En este capítulo trataremos problemas d e esta
naturaleza. Antes de familiarizarnosconalgunastécnicasespecíficas
necesarias, formularemos los conceptos anteriorescon mayor precisión.

FIGURA5.1
106
de Funcioftes
aleatorias
variables 5.2

5.2 Eventos equivalentes

Sean E un experimento, S un espacio muestra1 asociado conE y S una


variable aleatoria definida enS;
supongamosque y = H ( z ) es una funciónreal d e x. Entonces,
E' = E I ( S ) es una variable aleatoria puesto que para cada S E S se
determina un valor de Y , digamos y = I I [ X ( s ) ] .Esto se representa
en forma esquemática en la figura 5.1. Como antes, llamamos R, al
espacio del intervalod e X , el conjunto de valores posibles d e la hnción
X . De igualmodo,definimoscomo R, el espacio del interuulo de la
variable alen¿oria Y , el conjunto de valores posibles d e Y . Previamente
(ecuación 4.1) definirnos la noción d e eventos equivalentes enS y en Rr .
Extendamos ahora este concepto dela siguiente manera natural.

Definición. Sea C un evento (subconjunto) asociadocon el recorrido


de Y , R,, comosedescribióanteriormente. Definase B c R,
como sigue:

En palabras, B es el conjunto delos valores d e X tales que H ( x ) E


C . Si B y C estánrelacionados d e estamanera los llamamos
eventos equivulentes.

Observaciones: a ) Como dijimos antes, la interpretación informal d e lo ante-


rior es que B y C son eventos equivalentes si y sólo si B y C ocurren juntas.
Esto es, cuando ocurreB, ocurre C y recíprocamente.
b ) Supóngase que A cs u n evento asociado con S , el cual es equivalentea un
evento B asociado con R,. Por lo tanto, si C es un evento asociado conRg que
es equivalente a B , tenemos que A es equivalente a C.
c) Nuevamente es importante darse cuenta de que cuando hablamos de
cventos equivalentes (en el sentido anterior),esos eventos están asociados con
espacios nluestrales diferentes.

EJEMPLO5.1. Supongamos que H(x) = T X 2 como en la sección 5.1.


I,uego, los eventos B : {X > a} y C : {Y > 4 ~ son ) equivalentes,
porque si Y = Tx2,entonces {S > 21 ocurre si y sólo si {Y > 4x1
ocurre, puesto que en el presente contexto, no puede tomar valores
negativos. (Véase la Fig. 5.2.)
5.2 Eventosequivalentes 107

Obseruacwn: Otra vez es importante señalar que se usa una notación abre-
viada cuando escribimos expresionescomo { X >: 2) y {Y > 4 ~ ) . Por su-
puesto, nos estamos refiriendo a los valores d e X y a los valores d e Y , o sea,
{S I %S) > 21 Y {x I Y(.> > 4s).
Como hicimos en el capítulo 4 (Ec. 4.2), nuevamente haremos la
definición siguiente.

Definición. Sean X una variablealeatoriadefinida en el espacio


muestra1 S , R, el recorrido de X y I1 una función real, y consi-
deremos la variable aleatoria Y = H ( X ) con recorrido R,. Para
cualquier evento C C R,, deJinirnos P ( C ) como sigue:

En palabras, la probabilidad de unevento asociado con el recorri-


d o d eY está definida comola probabilidad del evento equivalente
(en terminos deX ) , como aparece enla ecuaci6n (5.2).

Obseroacwnes: a) La definición anterior haráposible calcular las probabilida-


des relacionadas con eventos conY si conocemos la distribución d e probabili-
dades deX y podemos determinar el evento equivalente en cuestión.
b ) Puesto quelo tratado previamente (ecuaciones 4.1 y 4.2 relaciona proba-
bilidades asociadas con R, con probabilidadesasociadas con S , podemos escri-
' bir la ecuación (5.2) como sigue:

P ( C ) = P [{x E R, : H ( x ) E C } ]= P [{S ~i S : H ( X ( s ) )E C } ]
\

!
EJEMPLO5.2. Sea X una variable aleatoria continua con fdp

f ( z ) = e-x, z > o.
108 Funciones de variables aleatorias 5.3

(Una integración sencilla indica que


so” e-’& = 1.)

+
Supóngase que B ( z ) = 22 1. Por tanto,
R, = {x I x > O}, mientras que R y = {y I y >
l}. Supóngase que el evento C está definido
como sigue: C = {Y 2 5). Ahora, y 2 5 si y
sólo si 2x+1 2 5, lo que asu vez da x 2 2. Por lo
tanto, C es equivalente a B = {X 2 2}. (Véase
la Fig. 5.3.) Ahora, P ( X 2 2) = J2m e-’& =
1/e2. Por lo tanto, aplicando la ecuación (5.2)
encontramos que
FIGURA5.3
P ( Y 2 5) = 1/e2

Observacwnes: a) Nuevamente conviene señalar que hay que considerar in-


corporar la evaluación d e z = X(s) y la evaluación d e y = H ( z ) en nuestro
experimento y, por tanto, considerar simplementeR y , el recorrido deY , co-
mo el espacio muestral d e nuestro expcrimento.
Estrictamente hablando, elespacio muestral del experimentoes S y el resul-
tado del experimentoes s. Todo lo que hagamosa continuaci6n no est5 influido
por la naturaleza aleatoria del experimento. La determinación de z = X(s) y
la evaluación de y = H ( z ) son estrictamente procesos determinism una vez
que se ha observado s. Sin embargo, como vimos antes, podemos incorporar
estos cálculos en la descripción d e nuestro experimentoy así relacionarlos di-
rectamente con el recorridoR y .
b) Así como la distribución d e probabilidades se indujo enRx por la distri-
bución d e probabilidades sobreel espacio muestral originalS, de igual manera
la distribución d e probabilidades d e Y se determinasi se conocela distribución
d e probabilidades d e X . Asi en el ejemplo5.2 la distribuci6n específica d e X
determinó completamente elvalor d e P ( Y2 5).
c) N considerar la hnción de unavariable aleatoria X , digamos Y = H(X),
debemos comentar que no se puede permitir toda funciónH concebible. Sin
embargo,a s funciones que aparecen en
l al aplicaciones están inevitablemente
s
entre aquellas que podemos considerar y, por tanto, m& adelante no nos
referiremos a esta pequeñadificultad.

5.3 Variables aleatorias discretas

Caso 1 .X es una variable aleatoria discreta. Si X es una variable


5.3 Variables aleatorias discretas 109

aleatoria discreta y Y = H ( X ) , entonces de inlmediato se deduce queY


es también una variable aleatoria discreta.
Porque supóngase quelos valores posibles de X se pueden enumerar
como x 1 , x2,.. . ,xn,.. . Con seguridad, los valores posibles d e Y se
pueden enumerar como y1 = H ( z l ) ,y2 = H(x'),. . . (Algunos d e los
valores anteriores d e Y pueden ser iguales, pero esto ciertamente no
impide el hecho de queesos valores puedan enumerarse.)

EJEMPLO5.3. Supóngase que l a variable aleatoria X toma los tres


valores -1,0 y 1 conprobabilidades3, 1 1 y it, -
respectivamente. Sea
Y = 3X + 1, entonces los valores posibles de Y son - 2 , l y 4, cuyas
probabilidades se supone que son 3, 1 1 y 1
Este ejemplo sugiere el siguienteprocedimiento generul: si x 1 ,. . . ,x n ,
. . . son los valores posibles de X , ~ ( 2 . =; )P ( X = x.;)y H es una función
tal que a cada valor de y le corresponda exactamente un valor de x,
entonces la distribución de probabilidades deY se obtiene como sigue:

Valores posibles de Y : y.; = H ( x ; ) , i = 1,2, . . . ,n , . . . ;

A menudo, l a funci6n I1 no tiene la característica anterior, y puede


suceder que varios valores d e X den el mismo valor de Y , como ilustra
el siguiente ejemplo.

EJEMPLO5.4. Supóngase que consideram'osla misma variable alea-


= toria X como en el ejemplo 5.3. Sin embargo, introducimos Y = S'.
En este caso, los valores posibles d e Y son O y 1, cuyas probabilidades
se supone que son 21 , 21 , porque Y = 1 si y sólo si X = -1 o X = 1
&
y la probabilidad d e este último evento es -+ = $. Debido a nues-
tra terminología anterior, los eventos B : {X = &l}y C : {Y = l}
son eventos equivalentes y, por lo tanto, según la ecuación (5.2), tienen
probabilidades iguales.

Elprocedimientogeneralpara situaciones como la descrita en el ejemplo


anterior es el que sigue: representemos con x i l , x i 2 , .. . ,x ! k , . . ., los
valores de X . que tienen la propiedad Ei(zij) = y.; para toda J . Luego,
11 0 Fumiones de variables aleatotias 5.4

En palabras, para calcularla probabilidad del evento {Y = y;}, encuen-


tre el evento equivalente en términos Xde(en el recorrido Rx)y luego
agregue todas las probabilidades correspondientes. (Véase la Fig. 5.4)

EJEMPLO5.5. Tenga X los valores posibles 1 , 2 , . . . , n , . . . y supón-


gase que P ( X = n ) G a".
Digamos

Y = 1 si X es par,
= -1 si X es impar.

Entonces, Y toma los dos valores -1 y +l. Puesto que Y = 1 si y sólo


si X = 2, o X = 4, o X = 6, o ... , aplicando la ecuación (5.2) se tiene

P ( Y = 1 ) = 14 + T1 t ; + W1 + ' " J 1

Por lo tanto,
P ( Y = -1) = 1 - P ( Y = 1) = 3'
2

Caso 2. X es una variable aleatoria continua. Puede suceder que


X sea una variable aleatoria continua, mientras que Y sea discreta. Por '
ejemplo, supongamos que S puede tomartodos los valores reales, mien-
>
tras que se define queY sea $1 si X O y que Y = -1 si X < O. Para ob-
tener la distribución d e probabilidades de Y , determinemos simplemen- ,
te el evento equivalente (enel recorrido R,y) que corresponde a los di-
ferentes valores de Y . En el caso anterior, Y = 1 si y sólo si X >_ O, mien-
>
tras que Y = -1 si y sólo si X < O. Por lo tanto, P ( Y = 1) = P ( X O),
mientras que P(Y = - 1) = P(X < O). Si se conoce la fdp de S pue-
den calcularse estas probabilidades. En el caso general, si {Y = yi} es
equivalente a un evento, digamosA, en el recorrido deX entonces,

q(7J;j = P ( Y = yzj = f(zjdz.


A
5.4 Variables aleatorias continuas 11 1

5.4 Variables aleatorias continuas

El caso más importante (y el que se encuentra con mayor frecuencia)


aparece cuando X es una variable aleatoria continua con fdp f y H es
una función continua. Por tanto, Y = H ( X ) es una variable aleatoria
continua y nuestro propósito será obtener su fdp, digamosg.
El procedimiento
generul será así: I

a) Obtenga G, la fda de Y ,donde G(y) := P ( Y 5 y), después de


encontrar el evento A (en el recorrido de X ) que equivale al evento
{ Y I Y>.
b ) Direrencie G(y) respecto a y para obtener g(y).
c ) Determine estos valores d e y en el reco:rrido d e Y para los cuales

EJEMPLO5.6. Supóngaseque X tiene Y

fd P

f(2) = 22, o < < 1,


2

=O en otra parte.

Sea H ( x ) = 3 2 +
1. Portanto,para
encontrar la fdp deY = H ( X ) tenemos (Fig.
5.5)

22dx = [(y - 1)/312.


=ty-l)ja
FIGURA5.5

Puesto que f(2) > O para O < x < 1, encontramos que g(y) > O para
1<y<4.

Observacwn: El evento A , antes mencionado,que equivale al evento {Y 5 y}.


es sinlplemente {A’ 5 (y - 1)/3}.
Y

112
aleatorias
variables
Funciotzes de 5.4

Existe otro método algo diferente para obtenerel mismo resultadoy


quc m i s adelantc será fitil. Consideremos nuevamente

G ( y ) = P ( Y 5 y) = P (x 5 Y 1 ’ > = F ( F ) ,
-

donde F es la fda d e X , esto es,

F ( x )= P(X 5 x).

Para evaluar la derivada de G, G’(y), usamos la regla d e la cadena


para la dcrivación como sigue:

por tanto ,
. ,
(T)
1 = P ( ~ )1. ?= 2 y - 1
G’(y) = F’(u).? .:,
y=l y=4

FIGURA
5.6

como antes. En la figura 5.6 aparece la gráfica d e la fdp de Y . (Para


vcrificar los crilculos nótese que Jl4 g(y)dy = 1.)

EJÉMPLO 5.7. Supóngase que una variable aleatoria continua tiene


fdp como en el ejemplo5.6. Sea H ( x ) = e-’. Para encontrar la fdp de
IT = H ( X ) procedemos como sigue (Fig. 5.7):

= 1 - (-1ny) 2 .

Por tanto, g(y) = G’(y) = -21n y/y. Puesto que f ( x ) > O para
O <x < 1, encontramosque g(;y) > O para 1/e < y < 1. (Nótese
que el signo algebraic0 para g(y) es correcto, puesto que In y < O para
I/e < y < 1.) Ida gráfica de g(y) se ilustra en la figura 5.8.
Variables aleatorias continzcas 113

t
Y

x= -In y

FIGURA5.7 FIGURA5.8

Otra vez podemos obtenerel resultado anterior con un planteamien-


to algo diferente que esbozaremos brevemente. Como antes,

G(y) = P ( Y 5 y) = P ( X 2 -In( y)
= 1- P(X 5 -In y) = 1 -- F ( - I n y),

donde, como antes,F es la fda d e X. A fin de obtener la derivada de G


usaremos otravez la regla d e la cadena como sigue:

dG(y)
dG- du
donde u = - I n y.
dy '
"

dY
"

du

As í,

como antes.
Generalicemos ahora el planteamiento que sugieren los ejemplos
anteriores. El paso crucial en cada uno de los ejemplos se efectuó a l
sustituir el evento {Y 5 y} por el evento equivalente en términosd e l a
variable aleatoriaX. En los problemas anteriores esto fue relativamente
sencillo, puesto que en cada uno los de casos la función fue una función
d e X estrictamente creciente o estrictamente (decreciente.
114 Funcionesaleatorias
de variables 5.4

x. Por lo
En la figura 5.9, y es una función estrictamente creciente de
tanto, podemos resolver y = H(x) para x en términos d e y, digamos
x = I f - l ( y ) , donde H-' se llamafuncióninversa de H. A s í , si If
esestrictamentecreciente, { I I ( X ) 5 y) equivalea { X 5 ~ - ' ( y ) > ,
mientras que si H es estrictamente decreciente, { H ( X ) 5 y} equivale
a {S 2 ~ - ' ( y ) } .
Y
1

FIGURA
5.9

El método empleado en los ejemplos anteriores ahora se puede ge-


neralizar como sigue.

Teorema 5.1. Sea X una variable aleatoria continua con fdp f , donde
f(x) > O para a < x < b. Supóngase quey = H ( x ) sea una función
d e x estrictamente monótona (creciente o decreciente). S u p h g a s e
que esta función es derivable(y, por tanto, continua) para todax.
Entonces, la variable aleatoria Y definida como Y = B ( X ) tiene
una fdp g dada por

donde x se expresa en términos dey. Si H es creciente, entonces g es


distinta de cero para los valores d e y que satisfacen H ( a ) < y < H ( b ) .
Si H es decreciente, entonces g es distinta d e cero para los valores d e y
que satisfacen H ( b ) < y < H ( a ) .

Demostracidn: a) Supongamos que H es una función estrictamente


creciente. Por tanto,
I
5.4 Variabler:aleatorias continuas 115

Diferenciando G ( y ) respecto ay, obtenemos, al usar


la regla d e la cadena
para las derivadas,

Así

Id x d xd F ( x )
G (y) = -- -
dxdy - f(4,.
b ) Supongamos que H es una función decreciente. Por lo tanto,

G(y) = P(Y 5 y) = P ( H ( X )5 y) = P ( X 2 H-'(y))


= 1 - P ( X 5 +(y)) = 1- F(H-l(y)).

Procediendo como antes, podemos escribir

Observación: El signo algebraic0 obtcnido en b ) es correcto, puesto que si es


una fimción decrecientede x,x es una función decrecientede y y, por lo tanto,
dx/dy < O. Así, al usar el símbolo dcl valor absoluto en torno aclx/dy, podemos
combinar el resultado de a ) y b ) y obtener laformal final del teorema. , .
L
EJEMPLO5.8. Reconsideremos los ejemplos 5.6 y 5.7 aplicando el
teorema 5.1
a) En el ejemplo 5.6 teníamos f ( x ) = 22, O < x % <1 y y = 3x 1. Por +
lo tanto, x = ( y - 1)/3 y d x / d y = 1 Así, g(y) == 2[(y - 1)/3];.= ;(y - 1),
1 < y < 4, lo que concuerda con el resultado obtenido previamente.
b ) En el ejemplo 5.7 teníamos f ( x ) = 22, O < x < 1 y y = e - " . Por
tanto, x = - I n y y d x / d y = - l / y . Así, g(y) = -2(ln y)/y, 1/e < y < 1,
lo que d e nuevo está de acuerdo con el resultado anterior.

Si y = I I ( x ) no es una función monótona de x no podemos aplicar


directamente el método anterior.En su lugar, volveremos al método ge-
neral antes bosquejado.El ejemplo siguiente ilustra este procedimiento.
1 16 Funciones de variables aleatorias 5.4

x=- 1 X=]

FIGURA
5.10 FIGURA
5.11
EJEMPLO5.9. Supongamos que

f(z) = ;, -1 < x < 1,


=o para
cualquier
otro valor.

Sea fir(,) = z2.Obviamente esta no es una función monótona en


todo el intervalo [-1,1] (Fig. 5.10). Por lo tanto, obtenemos l a fdp de
Y = X 2 como sigue:

En donde F es la fda d e la variable aleatoria X . Por tanto,

+ i)
A s í , g(y) = ( 1 / 2 f i ) ( i = 1/2fi, O < y < l.(Véase la Fig. 5.1 1.)
El método usado en el ejemplo anterior da el siguiente resultado
general.
Problemas 117

Teorema 5.2. Sean X una variable aleatoria continua con fdp f y


Y = X2. Entonces, la variable aleatoria 1Y tiene fdp dadapor

Denwstrución: Véase el ejemplo 5.9.

PROBLEMAS
5.1. Supóngase que X est5distribuidauniformemente en(-1,l). Sea
Y = 4 - X 2 . Encontrar la fdp de Y , sea g(y), y dlibujarla. También verificar
~ que g(y) es una fdp.
5.2. Supóngase que X está distribuida uniformemente en (1,3). Obtener las
fdp d e las siguientes variables aleatorias: .i

a) Y=3X+4 b)Z=e"
Verificar en cada uno delos casosque la función obtenida es una fdp ydibujarla.
5.3. Supóngase que la variable aleatoria continlia S tiene fdp f(x) = e - x ,
x > O. Encontrar las fdp de las siguientes variables aleatorias:
a) Y =X3 6) 2 = 3 / ( X + 1)2.
5.4. Supóngase que la variable aleatoria discreta X toma los valores 1,2
y 3 con igual probabilidad. Encontrar la distribución d e probabilidades d e
Y=2X+3.
5.5. Supóngase que X está distribuida Uniformementeen el intervalo (0,l).
Encontrar la fdp d e las siguientes variables aleatorias:
U) Y = X2+ 1 6) 2 = 1/(X + 1).
en (- 1 , l ) . Encontrar
5.6. Supóngase que X está distribuida uniforme mente
la fdp d e las siguientes variables aleatorias:
a) Y = sen(~/2)X 6) 2 = c o s ( ~ / 2 ) X c) IY =I X I.
/
5.7. Supóngase que el radio d e una esferzes unavariable aleatoria continua.
(Debido ala imprecisión en el proceso de fabricación, los radios d e las diversas
esferas pueden ser diferentes.) Supóngase que el radio R tiene fdp f ( r ) =
6r(l - r ) , O < r < 1. Encontrar la fdp del volumen V y del área superficial S
d e la esfera.
5.8. Una corriente eléctrica I que fluctúa se puede considerar como una
variable aleatoria distribuida uniformemente en todo el intervalo (9, 11.). Si
118 Funciottes de variables aleatorias

esta corriente pasa por una resistencia d e 2 ohms, encontrar la fdp d e la


potencia P = 2 1 ~ .
5.9. La velocidad de unamolécula en un %?S uniforme enequilibrio es una
variable aleatoria I.'
cuya fdp está dada por

f ( v ) = a v 2 e -hv2 , v > O,

En donde b = m / 2 k T y k , T y m denotan la constante d e Boltzman, la


temperatura absoluta y la masa de la molécula, respectivamente.
Calcular la constante a (en terminos d e b). [Indkuczbn: Usar el hecho d e
m
a)
que S", e-x2da: = e integrar por partes.]
b ) Derivar la distribución d e la variable aleatoria IV = m V 2 / 2 que represen-
ta la energía cinética d e la molécula.
5.10. Un voltaje aleatorio X está distribuido uniformemente en el inter-
valo ( - k , k ) . Si X es la energía recibida en un dispositivo no lineal, con las
características que se indican en la figura 5.12, encontrar la distribución d e
probabilidades d e Y en los tres casos siguientes:
U) k < u b)a<k<zo c)~>zo.

0bsemzcw.n: La distribución d e probabilidades d e Y es un ejemplo de distri-


bución mixta. Y toma el valor O con una probabilidad positiva y también toma
todos los valores en ciertos intervalos. (Véase la Sec. 4.6.)
5.1 1. Laenergíaradiante(en Btu/hr/pie2) est5 dada como la siguiente
fimción d e la temperatura T (engradosfnhrenheit): E = 0.173(T/100)4.
Supóngase que la temperatura T se considera como una variable aleatoria
continua con fdp

f ( t ) = 200t-2, 40 5 t 5 50,
=0 para cualquier otro valor.

Encontrar la fclp d e la energía radiante E.


Problemas 1 19

5.12. Para medir a l


s velocidades del aire se usa un tubo (conocido como
el tubo estAtico de Pitot) que permite medir la diferencia d e presibn. Esta
diferencia d e presi6n esd dada por P = (1/2)dV2, donde d es la densidad
delaire y V es la velocidad del viento (kph). Si V es una variablealeatoria 1
distribuida
uniformementeen (1O, 20), encontrar la fdp d e P. 4

5.13. Supóngase que P(X 5 0.29) = 0.75, donde X es una variable aleatoria
continua con alguna distribución definida en (0,111.
Si Y = 1 - X,determinar
12, d e modo que P(Y 5 k ) = 0.25.
I
En nuestro estudio delas variables aleatorias hemos considerado, hasta
aquí, sólo el casounidimensional. Es decir, el r'esultadodel experimento
se podía registrar como un solo número 2 .
En muchoscasos, sin embargo, nos interesa observar sinlultáneamen-
te doso mAs características numéricas. Por ejemplo,la dureza I1 y la re-
sistencia a la tensión T de unapieza manufacturada de acero pueden ser
de interésy consideraríamos ( h ,t ) como un solo resultado experimental.
Podríamos estudiarla altura A y el pesoP de ulna persona determinada,
que daría lugar al resultado ( p , u ) . Finalmente, podríamos observar la
cantidad de lluvia total, L L , y el promedio de temperatura,T , en cierta
región durante unmes específico, que daría lugaral resultado (II, t ) .
Haremos la siguiente definición formal.

Definición. Sea E un experimentoy S un espacio muestra1 asociado


con E. Sean X = X(S) y Y = Y ( , ) dosfunciones que asignan
un número real a cada uno de los resultados S E S (Fig.6.1).
122 Variables
aleatorias
bidimemionales y mayor
de dimenswn 6.1

Llamamos a ( X , Y ) variable aleatoria bidimensional (que también se


denomina vector aleatorio).

Si X1 = X 1 (S), X 2 = X2(s), . . . ,X, = X n ( s ) son n funciones,


cada una de las cuales asigna un número real a cada resultado
S E S , entonces llamamos a ( X I , . . . ,X n ) una variable aleatoria 71-
divzensional (o un vector aleatorio n-dimensional).

FIGURA6.1

Obseruario'n: Como en el caso unidimensional, no nos interesa la naturaleza


filncional d e X ( s ) y Y(s), sino los valores que toman , Y y Y . Hablaremos
nuevamente delrecorrido d e ( X ,Y ) ,digamos R X ~ Ycomo , el conjunto d e todos
los valores posibles d e ( X , Y ) . Enel caso bidimensional,porejemplo, el
recorrido de ( X , Y )ser5 u n subconjunto del plano euclidiano. Cada uno de los
resultados X ( s ) ,Y(s) se puede representar como un punto(x,y) en el plano.
Suprimiremos nuevamente la naturaleza hncional d e X y Y al escribir, por
cjcmplo,P[X 5 u , Y 5 b], en vez de P [ X ( s )5 u , Y ( s ) 5 b].
Como en el caso unidimensional, distinguiremos entre dos tipos bAsicos d e
variables aleatorias: las variables aleatorias discretas y las continuas.

Definición. ( X , E') es una variable aleatoria bidimensional discreta si


los valores posibles d e ( X ,Y )son finitos o infinitos numerables. Es
decir, los valores posibles d e ( X ,Y ) se pueden representar como
( z ; , y j ) , i = 1 , 2 ,..., n ,...; j = l , 2 ,...,m ,...

(X, Y ) es una variable aleatoria bidimensionalcontinua si (X, Y )


puede tomar todos los valores en un conjunto no numerable del
plano euclidiano. [Por ejemplo, si ( X , V ) toma todos los valores
en el rectángulo {(x,y) I a 5 z 5 b, c 5 y 5 d } o todos los valores
en el círculo {(x,y ) I x2 + y2 5 I } , diríamos que ( X ,E') es una
variable aleatoria bidimensional continua.]
6.1 Variables
bidimensionales
aleatorias 123

Obsemacwnes: a ) En otras palabras, ( X ,Y )es una variable aleatoria bidimen-


sional si representa el resultado de un experimentoaleatorio en el cual hemos
medido las dos características numéricas X y Y .
b ) Puede suceder que uno d e los componentes; d e ( X ,Y ) ,digamos X, sea
discreto, mientras que el otroes continuo. Sin embargo, en la mayor parte de
las aplicaciones nos interesamos sólo por los casos analizados anteriormente, en
los cuales ambos componentes sondiscretos, o am.bos continuos.
c) En muchas situacioneslas dos variables aleatorias X y Y , consideradas en i
conjunto, son d e u nmodo muy natural el resultaldo de unsolo experimento,
como se ilustróen los ejemplos anteriores.Es así como X y Y pueden represen-
tar la altura y el pesode unmismo individuo, etc. Sin embargo, noes necesario
que exista esta clase d e conexión. Por ejemplo, X podría ser la corriente que
circula por uncircuito en un momento específico, irnientras que Y podría serla
temperatura enla habitación en ese instante, entonces podríamos considerar la
variable aleatoria bidimensional ( X ,Y ) . En la mayor parte de las aplicaciones
hay una razón importmte para considerarX y Y conjuntamente.
Para describir la distribución de probabilidades de ( X , Y ) procedemos d e
modo análogo al caso unidimensional.

Definición. a ) Sea (X, Y ) una variable aleatoria bidimensional dis-


creta. Con cada resultado posible (xi,35) asociamos un número
p ( z ; ,y j ) que representa P ( X = xi)Y = !tj) y que satisface las con-
diciones siguientes:

La función p definida para toda (xi,y j ) en el recorrido d e (X)Y )


se llama funcidn de probabilidad d e (X, Y ) . El conjunto de ternas
(xi)yj,p(xi)yj)), i , j = 1 , 2 , .. ., en algunos casos se denomina
distribución de probabilidadesde (X, Y ) .

b) Sea (X)Y ) una variable aleatoria bidimensional continua que


toma todos los valores en una región R del plano euclidiano. La
función de densidad de probabilidades conjuntas f es una función que
satisface las siguientes condiciones:
124 Variables aleatorias
bidimensionales y de
mayor
dimenswn 6.1

3) f ( x , y) 2 O para toda (x,y) E R,

Obseruacwnes: a ) La analogía auna distribuci6n d e masas es otravez induda-


ble. Tenemos unamasa unitaria distribuidaen una región del plano. En elcaso
discreto, toda la masa se concentra en un númerofinito o infinito numerable
d e puntos con masa p ( q , yj) ubicados en (xi, yj).En el caso continuo, la masa
se encuentra en todoslos puntos de un conjunto no numerable el enplano.
b) La condición 4 indica que el volumen total bajo la superficie dada por l a
ecuación z = f(z,y)es igual a 1.
c) Como en el caso unidimensional, f ( z , y) no representa la probabilidad
d e nada. Sin embargo, para Ax y Ay positivos y suficientemente pequeñas,
f ( z , y)AzAy es aproximadamenteigual a P ( x 5 X 5 x + A x ,y 5 Y 5 y+Ay).
d ) Como e n el caso unidimensional, adoptaremos la convención de que
f ( x , y) = O si (x, y) 6 R. Por tanto, podemos considerar f definida para toda
(x,y) en el plano y la condición 4 anterior se convierte en S_’,” JJz
f ( z ,y)
dx dy = 1.
e ) Nuevamente suprimiremos la naturaleza funcional d e la variable aleato-
riabidimensional ( X , Y). Deberiamos escribir proposiciones d e la forma
P [ X ( s ) = x;, Y ( s ) = yj], etc. No obstante, si se entiende nuestra notación
abreviada, no debe surgir ninguna dificultad.
J) De nuevo, comoen el caso unidimensional, la distribuci6n d e probabilida-
des d e (X, Y)está realmente inducidapor la probabilidad d e eventos asociados
con el espacio muestra1 original S. Sin embargo, principalmente nos interesa-
remos por los valores d e (X,Y )y, por tanto, relacionados en forma directa con
el recorridod e (X, Y ) . No obstante, el lector no debe perder de vista el hecho
de que si P ( A ) está especificada para todos los eventos A c S , entonces esti5
determinada la probabilidad asociada con eventos en el recorrido d e ( X ,Y).
Es decir, si B está en el recorrido d e ( X , Y ) ,tenemos
P ( B ) = P [ ( X ( s )Y
, (,)) E 131 = P [ s I (X(s),Y(,)) E B ] .
Esta ííltima probabilidad se refiere a un evento en S y, por tanto, determina la
probabilidad d e B. En nuestra terminologia previa, B y { S 1 ( X ( s ) Y
, ( s ) )E I?}
son eventos equiz~alentes(Fig. G.2).
6.1 I.'ariables aleatorias bidimensionales 12 5

Si B estA en el recorrido de ( X ,Y)tenemos

si ( X , Y ) es discreta, la suma se tomacon todos los indices ( i ,j ) para los cuales t

(.i,Yj) E B. y

si ( X ,Y)es continua.

EJEMPLO6.1. Dos líneas deproducciónfabricanciertotipo de 1

artículo.Sup6ngaseque la capacidad(encualquierdíadado) es d e 5 1
artículos para la línea I y d e 3 artículos para la1 línea 11, y que el número
verdadero de artículos producidos por cada una de las líneas es una
variable aleatoria. Sea (X, Y ) la representacitjn de la variable aleatoria
bidimensional que da el número deartículos producidos por la línea I
y por la línea 11, respectivamente.
TABLA
6.1

O 1 2

0.02 0.04 0.05 0.06 0.08


0.03 O. 05 0.05 0.05 0.06
3 0.01 0.02 0.04 0.06 0.06 0.05

La tabla 6.1 muestra la distribucidn d e probabilidades conjunta d e


( X ,Y ) .Cada dato representa

p(.;,yJ = P ( X = %;,Y Yj).


=I

A s í , p ( 2 , 3 ) = P ( X = 2 , Y = 3 ) = 0.04, etc. Por lo tanto, si B está


definida como

B = {MAS artículos producidos por la línea I que por la línea 11)

encontramos que
126 Variables
aleatorias
bidimensionales y de
mayor
dimenswn 6.1

P ( B ) = 0.01 + 0.03 + 0.05 + 0.07 + 0.09 + 0.04 + 0.05 + 0.06


+ 0.08 + 0.05 + 0.05 + 0.06 + 0.06 + 0.05
= 0.75.

EJEMPLO6.2. Supóngase que un fabricante de bombillas está inte-


resado en el número de éstas que le han sido pedidas durantelos meses
de enero y febrero. X y Y indican el número debombillas ordenadas
durante esos dos meses, respectivamente. Supondremos que ( X ,Y ) es
una variable aleatoria bidimensional con
la siguiente fdp conjunta(véase
la Fig. 6.3):

f(z,y) = c si 5000 L; z 5 10000 y 4000 5 y 5 9000,


=O en otro caso.

X = 5000 X = 10,000

FIGURA6.3

Para determinar c usamos el hecho de que S-’,” S-+,“ f ( z , y ) dz d y = 1.


Por tanto,

J_,
$03

J_,
+m
f ( z , y ) dx dy = J;,,,Lo,,
9000 10000
f(z,y) da: dy = c[5000]
2

Así, c = (5000)-2. Por tanto, si B = { X 2 Y } ,tenemos


6.1 Variables aleatorias bidimensionales 127

P ( B )= 1- JgooO JY dx dy
(5000)'
~

5000 5000

17
=I-- [y - 500OIdy = -*
(5000)' /gOOO
5000 25 i

I
Obsemación: En el ejemplo anterior, X y Y obviamente deben ser nilmeros
enteros, pues ¡nopodemos ordenar un número fraccionario de bombillas!
Sin embargo, nuevamente tratamos con una situaci6n idealizada en la cual
permitimos que X tome todos los valores entre 5000 y 10 O00 (inclusive).

i
EJEMPLO6.3. Supóngaseque la variablealeatoriabidimensional
continua ( X ,Y ) tiene una fdp conjunta dada por

f(X,Y) = + xy
"7 O < X < l , o<y<a,

=O para cualquier otro punto.

Para verificar que S,- +m S,- +m f(x, y) dz dy = 1 :

f ( z , y ) dx dy = J"
O 0
(x' + y ) dx dy

+
Sea B = { X Y 2 l}. (Véase la Fig.6.4.) Calcularemos P ( B ) al evaluar
1 - P(BC), +
donde BC = { X Y < 1). Por lo tanto,
128 kriables aleatorias bidimensionales y de mayor dimenswn 6.2

P ( B ) = 1- 1' (x2 + y ) dy dx Y
t

L.
- 1 - ' i z7- m
- - *65
y=l-x
N estudiar variablcs aleatorias unidimen-
sionales encontramos que F , la función d e
distribución acumulativa, tenía un papel im-
"

portante. En cl caso bidimensional, otra vez


podemosdefinir
una
función
acumulativa FIGURA
6.4
como se indicaa continuación.

Definición. Sea (X, E') una variablealeatoriabidimensional. La


función de distribuciónacumulativa (fda) F d e la variable aleatoria
bidimensional (A', Y ) está definida por

Obsemacióu: F es una función d e dos variables y tiene un número de propie-


dades anjlogas a las estudiadas para l a fda unidimensional. (Véase la Sec. 4.5.)
Mencionaremos sólo la siguiente propiedad importantc.
Si F es fda d e u n a variable aleatoria bidimensional con fdp conjunta f ,
entonccs

dondequiera queF sea diferenciable. Este resultado es anjlogo a l del teorema


4.4 en el cual probamos que ( d / d z ) F ( x ) = f(z),donde f es la fdp d e una
variable aleatoria unidimensional X.

6.2 Distribuciones de probabilidades marginales


y condicionales

Con cada variable aleatoria bidimensional ( X , Y ) asociamos dos varia-


bles aleatorias unidimensionales llamadas X y Y , respectivamente. Es
decir, podemos interesarnos porla distribución d e probabilidades d e X
o por la distribuci6n d e probabilidades d e Y .
6.2 Distribuciones
de
probabilidades
marginales y condicionales 129

EJEMPLO6.4. Consideremos otra vez elejemplo 6.1. AdemAs d e


los datos de la tabla 6.1, calculemos también los totales "marginales",
esto es, la suma de las 6 columnas y 4 filas de la tabla. (Véase la tabla
6.2.)

TABLA
6.2

3 4 5 Suma

O o 0.01
1 0.01 0.02
2 0.01 0.03
3 0.01 0.02 0.04 0.24
I I I I
1

c
Suma 0.03 0.08 0.16 0.21 0.24 0.28 1.o0

Las probabilidades que aparecen en los márgenes delas filasy colum-


nas representan la distribución d e probabilidades d e Y y X , respectiva-
mente. Por ejemplo, P ( Y = 1) = 0.26, P ( X = 3) = 0.21, etc. Debido
a la forma de la tabla 6.2, nos referirnos generalmente ala distribución
marginal d e X o a la distribución marginal de Y , cada vez que tenemos
una variable aleatoria bidimensional(X, Y ) ,ya sea discreta o continua.
En el caso discreto procedemos así: puesto que X = x; debe ocurrir
con Y = yj para una j, y puede ocurrir con Y = yj para sólo una j,
tenemos:

p(xc;) = P ( X = x;) = P ( X = z;,Y = y1 C) x = x ; , Y = y2 o


00

1 P ( x ~~j>1.
j=l

La función p definida para x1,x2,.. ., representa la distribucidn mar-


ginal de probabilidades d e X. Análogamente definimos q(yj) = P ( Y =
q) = C z , , p ( x ; ,yj ) como la distribucidn marginal de probabilidades d e Y .
En el caso continuo procedemos como sigue: sea f la fdp conjunta de
la variable aleatoria bidimensional continua( . X 7 Y ) .Definimos g y h, las
funciones densidad de probabilidades marginalesd e S y Y , respectivamente,
como sigue:
130 Variables akatorias bidimensionales y de
mayor
dimensidn 6.2

Estas fdpcorresponden a las fdp básicas d e las variablesaleatorias '

unidimensionales X y Y , respectivamente. Por ejemplo,

rd

EJEMPLO6 6 . El empuje X y la razón d e la mezcla Y sondos


características del funcionamiento de un motor a reaccibn. Supóngase
que ( X , Y ) es una variable aleatoria bidimensional continua con fdp
conjunta:

(Las unidades se han ajustado para usar valores entre O y 1.) La fdp
marginal d e X está dada por

Es decir X está distribuida uniformemente en[O, 11. La fdp marginal


d e Y está dada por

h(y) = J'O 2(2 + y - 22y) dx = 2(x 2 /2 + xy - x 2y) 101


=1, O<y<l.

Por lo tanto, Y también está distribuida uniformemente en[O, I].


-
Definición. Decimos que una variable aleatoria bidimensional con-
tinua esta distribuidu uniformemente en una región R en un plano
euclidiano, si \
6.2 Distribuciones de probabilidades marginales y condicionales 13 1

f ( x , y) = const. para (x,y) E R,


=O para todo otro punto.

Debido a la condici6n::J S"", f(x,y) dx dy = 1, lo anterior


implica que Ia constante es igual a l/áreai ( R ) . Suponemos que R
es una región con Area finita distinta d e cero.

Obseruacidn: Esta definici6n representa el tkrmino bidimensional an6logo;I


la variable aleatoria unidimensional distribuida uniformemente.

EJEMPLO6.6. Supóngase que la variablealeatoriabidimensional


(X, Y ) esta dktn'buidu uniformemente en la regi6n sombreada R que se
indica en la figura 6.5. Por tanto,

1 .Y
f(z,y) = area(n)Y (X,Y) E R.

Encontramos que

área ( R ) =
1' (x - x 2 )dx = 61 .

Luego, la fdp está dada por

FIGURA
6.5

En las ecuaciones siguientes encontramoslas fdp marginales d e X y Y .

+m

h(y) = J'"
-m
f(z, y) d z = 1," 6 da:
132 Variables
aleatorias
bidimensionales y mayor
de dimenswtt 6.2

Las gráficas d e estas fdp aparecen enla figura 6.6.

El concepto d e probabilidad condicional se puede presentarde una


manera muy natural.

EJEMPLO6.7. Consideremos otra vez los ejemplos 6.1 y 6.4. Supón-


gase que queremos evaluar la probabilidad condicional P ( X = 2 I Y =
2). De acuerdo con la definición d e probabilidad condicional tenemos

P ( X = 2,Y = 2) - 0.05
P(X=2lY=2)= - - = 0.20.
P ( Y = 2) 0.25

Podemos efectuar tal cálculo en forma bastante general para el caso


discreto. Tenemos

q x ; 1 yj) = P ( X = x ; I Y = yj)

q(yj I x ; ) = P ( Y = Yj I X = x ; )

Obsemacwn: Para una j dada, p(x; I yj) satisface todasa


lscondiciones de una
distribución d e probabilidades. Tenemos p(z; I yj) 2 O y también
6.2 Distribuciones de probabilidades margimales y condicionales 133

En el caso continuo, la formulación d e la plrobabilidad condicional


presenta alguna dificultad, puesto que para cualesquierax0 y yo dadas,
tenemos P ( X = xo) = P ( Y = yo) = O. Enunciemos las siguientes
definiciones formales.

Definición. Sea ( X ,Y ) una variable aleatolria bidimensional conti-


nua con fdp conjunta f . Sean g y h las fdp marginales d e X y Y ,
respectivamente.
La fdp condicional de X para Y = y dada, está definida por

La fdp condicional de E’ para una X = x dada se define

Obseruaciones: a) Las fdp condicionales anteriores satisfjcen todaslas exigen-


>
cias de unafdp unidimensional. A s í , para yjja, tenemos g(x 1 y) O y

Un cálculo análogo se puede hacer para h(y I x). Por tanto,las ecuaciones (6.7)
y (6.8) dejnen las fdp e n R, y R,, respectivamente.
b) Una interpretación intuitiva d e g(x I y) se obtiene si consideramos que la
superficie representada por la fdp conjuntaf es cortada, digamos, por el plano
y = c. La intersección del plano con la superficie z I= f ( x , y) resultará en una
fdp unidimensional llamada la fdp d e X para Y = (c. Ésta ser5 precisamente
g(x I c ) .
c) Supongamos que ( X ,Y ) representan la altura y el peso de unapersona,
respectivamen$e. Sea f la fdp conjunta d e ( X ,Y ) y slea g la fdp marginal d e X
(sin tomar e n cuenta Y). Por tanto, J’, g(x) d x representaría la probabilidad
delevento (5.8 5 X 5 6 ) sin tomarencuentael peso Y . Porsuparte
J$g(x I 150) d x seinterpretaríacomo P(5.8 5; X 5 6 I Y = 150).
Estrictamente hablando, esta probabilidad condicional no está definidaen los
términos d e nuestra convención previa conla probabilidad condicional, puesto
que P(Y = 150) = O. Sin embargo, sólo usamos la integralanteriorpara
definir esta probabilidad. Sobre u&base intuitiva, ciertamente, éste debe ser el
significado d e dicho número.
134 Variables
aleatorias
bidimensionales y de
mayor
dimenswn 6.3

EJEMPLO6.8. Refiriéndonos al ejemplo 6.3, tenemos

g ( ~=
) l2 + y)
(X’ dy = 222 + 32
-2,

h(y) = /’
O
(X’ + y ) dx = Y + ?.1
Por tanto,

’ +
x 2 xy/3
+
= 1/3 y/6
x2 + xy/3
-
-
Gx’

-
2+Y
+
2xy

32’
’ O < X < l ,

+ xy -- 32 + y
OLyL2;

+ 2/3(x) + 22 6 2 + 2 ’
-
h(y I x) = 22’ GX’
o<y<2, O < X < l .

Para verificar que g(xI y) es una fdp, tenemos

dx = -
2+Y

y = 1 para today.

Un cálculo semejante se puede hacer parah ( y I x).

6.3 Variables aleatorias independientes

Tal como definimos el concepto de independencia entre dos eventos


A y B , ahora definiremos las variables aleatorias independientes. Lo que
queremos decir intuitivamente es que X y Y son variables aleatorias
independientes si elresultadode X , digamos, de ninguna manera
influyeenelresultadode Y . Ésta es una nociónextremadamente
importante y hay muchas situaciones en que dicha suposición se justifica.

EJEMPLO6.9. Consideremos dos fuentes d e material radiactivo, si-


tuadas a cierta distancia una a. Suponga-
de otra, que emiten partículas
mos que ambas se observan durante un periodo de dos horas y se anota
el número de partículas emitidas. Supóngase que las siguientes varia-
bles aleatorias sond e interés: X1 y X2, el número departículas emitidas
por la primera fuente durantela primera y la segunda hora, respectiva-
mente; Y1 y 15, el número de partículas emitidas por la segunda fuente
durante la primera y la segunda hora, respectivamente. Parece obvio
6.3 Variables
independientes
aleatmius 13 5

por intuición que (X1 y Yl),o ( X 1 y Y2),o (X2 :y Yl),o (X; y Y2)son to-
das pares devariables aleatorias independientes. Las X dependen sólo
de las características de la fuente 1, mientras que las Y dependen delas
características d e la fuente 2 y posiblemente no hay razón para suponer
que una fuente influya de manera alguna en el comportamiento dela
otra. Cuando consideramos la posible independencia de X1 y X 2 , el
asunto no es tan claro. (El número de partículas emitidas durante la
segunda hora esta influido por el número emhido durante la primera
hora? Para responder a este interrogante tendríamos que obtener in-
formación adicional acerca del mecanismo d e emisi6n. ciertamente no
podríamos suponera priori que X 1 y X 2 son independientes.
Hagamos ahora mas precisa la anterior noci6n intuitiva de indepen-
dencia.

Definición. a) Sea (X,Y ) una variable aleatoria bidimensional dis-


creta. Decimos que X y Y son variables aleatorias independien-
tes si y sólo si p(z;,yj) = p(zc;)q(yj) paratoda i y j. Esto es,
p ( X = X;,Y = yj) = P ( X = zc;)P(Y= y;¡), para toda i y j.

b) Sea (X, Y )una variable aleatoria bidimensional continua.Deci-


mos que X y Y son variables aleatorias independientes si y sólo si
f ( z , y) = g(z)h(y) para toda (x,y), donde f es la fdp conjunta, y
g y h son las fdp marginales d e X y Y , respectivamente.

Obseruacidn: Si comparamos la definición anteriolr conla que se proporcionó


para eventos independientes, la semejanza es aparente: esencialmente necesi-
tamos que la probabilidad conjunta (o fdp conjunta) pueda factorizarse. El
teorema siguiente indica que la definici6n anterior es equivalente a otro plan-
teamiento que podríamos haber hecho.

Teorema 6.1. a) Sea ( S , Y ) una variablealeatoriabidimensional


discreta. Entonces X y Y son independientes si y sólo si p ( z ; I
yj) = p ( z : ; )para toda i y j (o lo que es equivalente, si y s610 si
4(Yj I Zi) = d Y j ) para toda i y d.

b ) Sea (X, Y ) una variable aleatoria bidimensional continua. En-


tonces X y Y son independientes si y s610 si g(z I y) = g(z), o lo
que es equivalente, si y sólo si h(y 1 z)= h(y) para toda (z,~).

Denmtracidn: VCase el problema 6.10.


136 Variables akatorias
bidimensionaks y de
mayor
dimenswn 6.3

EJEMPLO6.10. Supongamos que una máquina se usa para un traba-


jo específico en la mafiana y para otro diferente en
l a tarde. Represente-
mos por X y Y el número deveces que la mAquina falla en la mañana y
en la tarde, respectivqmente. En la tabla 6.3 se muestra la distribución
d e probabilidades conjunta d e ( X , Y ) .
Un cAlculo fácil revela que para todus las ubicaciones d e la tabla 6.3
tenemos

P(% Yj> = P ( 4 d Y j ) .
A s í , X y Y son variablesaleatoriasindependientes.(Paracomparar
véase también el Ej. 3.7.)
TARLA 6.3

I 1 I 0.04 1 0.08 I 0.08 I 0.2


2 0.06 0.12 0.12 0.3 __
P(Xi) 0.2 0.4 0.4 1.o

EJEMPLO6.1 1. Sean X y Y la duración dedos dispositivos electróni-


cos. Supóngase que su fdp conjunta está dada por

f (x,Y> = e --(”+Y), x 2 o, y 2 o.
Puesto que podemos factorizar f(x,y) = e-”e-Y, se establece la inde-
pendencia deX y Y .
EJEMPLO6.12. Supóngase que f (x,y ) =
8zy, O 5 z 5 y 5 1. (El dominioestáda- y
do porla región sombl-eada en la figura 6.7.)
Aunque f ya está escrita en forma factoriza-
da, X y Y n o son independientes, puesto que
el dominio dedefinicicin
{(z,Y>I O I x I Y 5 1) J I *

x
es tal quc para una x dada, y puede tomar
sólo valores mayores que la z dada y meno-
res que 1. Por tanto, X y Y no son indepen- FIGURA
6.7
dientes.
6.4 Funciones de una
aleatoria
variable 137

Obscmacidn: De la definición de la distribución marginal de probabilidades


(en cualesquiera de los casos, discreto o continuo) (3s claro que la distribución
conjunta de probabilidadesdetermina, en forma única, la distribución marginal
de probabilidades. Es decir, que conociendola fdp f conjunta podemos obtener
las fdp marginales g y h. Sin embargo, lo inverso no es verdadero. Es decir,
en general, el conocimiento de las fdp marginales g y h no determina la fdp
conjunta f . Esto sólo esverdadero cuandoX y Y son independientes, porque
en este caso tenemos f ( 2 , y) = g(z)h(y).

de variables alea-
El resultado siguiente indica que nuestra delinición
torias independientes estáde acuerdo con nuestra definición previad e
eventos independientes.

Teorema 6.2. Sea (X, Y ) una variable aleatoria bidimensional. Sean


A y B eventos cuya ocurrencia (o no ocurrencia) depende sólo
d e X y Y respectivamente.(Esto es, A es un subconjunto de
R z , el recorrido de X, mientras que B es un subconjunto de R y ,
el recorrido de Y . ) Entonces, si X y Y son variables aleatorias
independientes, tenemos P ( A n B ) = P ( A ) P ( B ) .

Demstrucidn: (sólo el caso continuo):

6.4 Funciones de una variable aleatoria -

Al definir una variable aleatoria X señalamos enfáticamente que X es


una funcidn definida del espacio muestral S a los números reales. Al
definir una variable aleatoria bidimensional ( X ,Y ) ,tratamos un par de
funciones, X = X(s), Y = Y ( s ) ,cada una de I,as cuales está definida en
el espacio muestral d e algún experimentoy cada unad e las cuales asigna
un número real a cada S E S , produciendo así el vector bidimensional
[ X ( 4Y(S)l*
Consideremos ahora2 = H I ( X , Y ) ,una función d e las dos variables
aleatorias X y Y . Debe ser claro que2 = Z(s) es otra vez una variable
138 fi'ariables aleatorias bidimensionales y de mayor dimenswn 6.4

aleatoria. Consideremos la siguiente sucesión de pasos:


a) Se realiza el experimento E y se obtiene el resultado s.
b ) Se evalúan los números X ( s ) y Y(,).
c) Se evalúa el número2 = Hl[X'(s),Y(,)].

El valor de 2 depende claramente deS, el resultado original del expe-


rimento. Esto es, 2 = Z ( S )es una función que asigna a cada resultado
S E S un número real, Z ( S ) . Por lo tanto, 2 es una variable aleato-

ria. Algunas variables aleatorias importantes que nos van a interesar


+
son X Y , X Y , X / Y , mín ( X ,Y ) ,mAx (X, Y), etcetera.
El problema que resolvimos en el capítulo anterior para la variable
aleatoria unidimensional aparece otra vez: dada la distribución de pro-
babilidades conjunta de( X ,Y ) ,¿cuál es la distribución d e probabilida-
des d e 2 = I I 1 ( X , Y ) ? (Debe haber quedado claro en los númerosos
tratamientos previos sobre este punto que una distribución de probabi-
lidades se induce en R,, el espacio muestra1 de 2.)
Si (X, Y ) es una variable aleatoria discreta, este problema se resuel-
ve fácilmente. Supóngase que ( X ,Y ) tiene la distribución dada en los
ejemplos 6.1 y 6.4. Las siguientes variables aleatorias (unidimensiona-
les) podrían ser de interés:

U = mín ( X ,Y ) = el menor número deartículos producidos por las


dos líneas;
V = máx (X, Y ) = el mayor número de artículos producido porlas
dos líneas;
TY = X +Y = número total de
artículos producidos porlas dos líneas.

Para obtener la distribución de probabilidades de U , por ejemplo,


procedemos como sigue. Los valores posibles de U son: 0,1,2 y 3. Para
evaluar P(U = O) argumentamos que U = O si y sólo si ocurre uno de
los casos siguientes: X = O, Y = O o X = O, Y = 1 o X = O, Y = 2
ox=o,Y=3oX=1,Y=ooX=2,Y=oox=3,Y=oo
X = 4, Y = O o X = 5, Y = O. Por lo tanto, P(U = O) = 0.28. El resto
d e las probabilidades asociadas con U se pueden obtener de manera
semejante. Por tanto, la distribución d e probabilidades d e U se puede
resumir como sigue: u : O, 1,2,3; P(U = u ) : 0.28, 0.30, 0.25, O. 17. La
distribución d e probabilidades d e las variables aleatorias V y W , como
se defini6 anteriormente, se puede obtener de una manera semejante.
(Véase el Prob. 6.9.)
6.4 Funciones
una de variable aleatoriu 139

Si ( X ,Y ) es una variable aleatoria bidimensional continua y si 2 =


H I ( X , Y ) es una funcióncontinua d e ( X , Y ) , entonces 2 será una
variable aleatoria continua (unidimensional) y el problema de encontrar
su fdp es algo más complicado. Para resolver este problema necesitamos
un teorema que vamos a indicar y analizar a continuación. Antes d e
hacerlo, bosquejemos la idea básica.
Para encontrar la fdp de 2 = N l ( X , Y ) ab menudo es más simple
introducir una segunda variable aleatoria, digamos W = H 2 ( X 7 Y ) ,y
obtener primerola fdp conjunta de 2 y W ,digamos k ( z ,w).Conociendo
k ( z , w), entonces podcmos obtenerla fdp de2,digamos g ( z ) ,al integrar
simplemente k ( z , w)respecto a w. Esto es,

g(z)= J'" k ( z ,w)dzo


"O0

Los problemas que quedan son 1) cómo enclontrar la fdp conjunta d e


2 y W , y 2) cómo elegir la variable aleatoria apropiada JV = H 2 ( X , Y ) .
Para resolver el último problema, simplemente digamos que en general
hacemos la elección más scncilla posibled e W . En el contexto presente,
W desempeiia sólo un papel intermcdiario,y en realidad no nos interesa
en sí misma. Conel fin deencontrar la fidp conjuntade 2 y 1Y
necesitamos el teorema 6.3.

Teorema 6.3. Supongamosque ( X ,Y ) e s una variablealeatoria


bidimensional continua con fdp conjunta f . Sea 2 = I l 1 ( X ,Y ) y
W = I I 2 ( S , Y ) ,y supongamos quelas fünlciones If1 y I12 satisfacen
las condiciones siguientes:
a ) Las ecuaciones z = I l l ( x , y ) y w = II2(x,y ) se pueden resolver
únicamente para x y y en términos dez y w,digamos x = G l ( z ,w )
y Y = G2(z,4 .
b) Las derivadas parciales d x l a z , ax:/aw, dylaz y d y l d w existen
y son continuas.
Entonces la fdp conjunta de (2, JY);digarnos k( z , w),está dada por
la expresión siguiente: k ( z ,w ) = f [ G , ( z ,w ) , G ~ ( wz ), ] I J ( z , w)
donde J ( z ,w),es el siguiente determinante2 x 2:
140 kriables aleatorias
bidimensionales y de
mayor
dimenswn 6.4

Este determinante sellamajucobiuno d e la transformación (x,j ) ( z ,w j "-f

y algunas veces se denota con 8 ( x 7y)/8(z7 w). Observemos que k ( z , w )


será distinta d e cero para esos valores d e ( z 7 w ) que corresponden a
valores de ( x 7y) para los cuales f ( x , y) es distinta d e cero.

"x

FIGURA6.8

Obsemaciones: a) Aunque no demostraremos este teorema, por lo menos


indicaremos lo que necesita demostrarse y dónde se encuentran las dificultades.
Considérese la fda conjunta d e la variable aleatoria bidimensional ( 2 ,W ) ,

K(z,w)= P(Z 5 z, W 5 w)= I" I" K ( s , t ) ds d t ,


J - m J-00

En donde k es la fdp buscada. Puesto que se supone que la transformación


(z,y) + ( z , w ) es de uno a uno (véase la suposición a ) anterior), podemos
encontrar el evento, equivalente a {Z 5 z, W 5 w}, en términos d e X y Y.
Supóngase que esteevento se denota con C. (Véase la Fig. 6.8.) Esto es,
{(X, Y ) E C} si y sólo si (25 z , LY 5 w}. Por tanto,

Puesto que se supone quef es conocida, puede calcularse el segundomiem-


bro dela integral. Diferenciándola respecto za y w obtenemos la fdp requerida.
En la mayoría d e los textos d e cálculo avanzado se demuestra queestas tkcnicas
conducen al resultado formulado en el teorema anterior.
b ) Nótese la gran semejanza entre el resultado anterior y el obtenido en
el caso unidimensionaltratadoen el capítuloanterior. (Véase el Teorema
5.1.) L a condición de monotonía de la función y = H ( z ) se sustituye por
la condición de que la correspondencia entre ( x , ~y) ( z , w ) es uno a uno.
La condición d e difercnciabilidad se sustituye por ciertas suposiciones acerca
6.4 Funciones de una variable aleatoria 141

de las derivadas parciales consideradas. La solución final que se obtiene es


también muy semejantea la obtenida en elcaso unidimensional: las variables
z y y sencillamente se sustituyen por sus expresiones equivalentes en tkrminos
de z y w,y el valor absoluto de dx/dy se sustituye por el valor absoluto del
jacobiano.

;
EJEMPLO6.13. Supóngase que estamos al-
puntando a un blanco circular de radio unlo
quesehacolocado demodoquesucentr’o
está en el origen de unsistema de coordenadas
rectangulares (Fig. 6.9). Supcingase que las
coordenadas ( X )Y ) de los puntos de impactlo
están distribuidas uniformemente en el círculo.
Es decir, FIGURA
6.9

f(z,y) = I / T si (x,9 ) queda en el interior o sobre el círculo,

=O en otro punto.

i
Y
t

FIGURA
6.10 FIGURA
6.11
Sup6ngase que estamos interesados en la variable aleatoria R que re-
presenta la distancia delorigen.(Véase la Fig. 6.10.) Es decir, R =
d m . Encontramos la fdpde R, digamos g, comosigue:sea
= t a n - ’ ( Y / X ) . Por tanto, X = H I ( & a) y Y = H 2 ( R , a), donde
z = H l ( r , 4 ) = r c o s 4 y y = EI2(r, 4) = r s e n d . (Simplemente hemos
introducido coordenadas polares.)
El jacobiano es

J=

= r cos2 4 + r sen 2 4 = r.
142 Variables
aleatorias
bidimensionales y de
mayor
dimenswn 6.5

En la transformación anterior, el circulo unitario en el plano x y está en


correspondencia con el rectángulo en el plano +r en la figura 6.11. Por
tanto, la fdp conjunta de(a, R ) estA dada por

A s í , la fdp pedida deR, digamos h , está dada por

h(r)= 1
27r
g ( 4 , r )&5 = 2r, O 5 r 5 1.

Obsemacidn: Este ejemplo señala la importancia de obtener una represen-


tación precisa d e la región d e los valores posibles introducidos por la nueva
variable aleatoria.

6.5 Distribución del producto y del cociente de


variables aleatorias independientes

Entre las funciones de x'y Y más importantes que deseamos considerar


+
están la suma S = X Y , el producto W = X Y y el cociente 2 = X / Y .
Podemos usar el método d e esta sección para obtener las fdp de cada
una de esas variables aleatorias en condiciones muy generales.
En el capítulo 12 estudiaremos la suma de variables aleatorias con
mayor detalle. Por tanto, postergaremos hasta entoncesel análisis d e la
distribución de probabilidades de +
S Y . Sin embargo, consideraremos
el producto y el cociente en los dos teoremas siguientes.

Teorema 6.4. Sea ( X ,Y ) una variable aleatoria bidimensional conti-


nua y supongamos queX y Y son independientes. Por tanto, la fdp
f se puede escribir comof(r,y) = g(x)h(y). Sea bV = XY.
Luego, la fdp deW , digamos p , está dada por

Demostrución: Sea w = xy y u = x. Así, x = u y y = w f u. El jacobia-


no es
l o
J= -
- -.1
"w 1 'U
7 ü
6.5 Distribucwn
producto
del ycociente
del de . .. 143

Por tanto, la fdp conjunta deW = X Y y U = X es

La fdp marginal deW se obtiene al integrar s(w, u)respecto a u,lo


que da el resultado pedido. Los valores de w para los cuales p ( w ) > O
. dependen de los valores (x,y) con los cuales f ( z , y) > O.

Obseruacidn: Al evaluar la integral anterior se puedeusar el hecho de que

EJEMPLO6.14. Supóngase que tenemos un circuito en el cual la co-


rriente I y la resistencia R varían de modo aleatorio. Supóngase espe-
cíficamente que I y R son variables aleatorias continuas independientes
con las siguientes fdp.

I : g ( i ) = 2i, O5i 5 1 y O on otra parte;


R : h ( r ) = r2/9, O 5 r 5 3 y O en otra parte.

Es d c interés la variable aleatoria E = I R (el voltaje en el circuito).


Sea p la fdp deE .
Segiln el teorema 6.4 tenemos

Se debe tener cuidado al evaluaresta integral. Nótese, primero, que la


variable d e integración no puede tomarvalore:; negativos; segundo,que
con el fin d e que el integrando sea positivo, ambas fdp que aparecen en
é1 deben ser positivas. Considerando los valores para los cuales g y h no
son iguales a cero, encontramos que deben satisfacerse las condiciones
siguientes:

Estas dos desigualdades son, a su vez, equivalentes a e/3 5 i 5 1. Por


tanto, la integral anterior se convierte en
144 Variables akatorias
bidimensionaks y de
mayor
dimenswn 6.5

IJn cálculo fácil demuestra que Jip ( e ) de FIGURA6.12


= 1. (Véase la Fig. 6.12.)

Teorema 6.5. Sea (X, Y ) una variable aleatoria bidimensional con-


tinua y supóngase que X y Y son independientes. [Por tanto,
la fdp de ( X , Y )puede escribirse como f(z,y) = g(z)h(y).] Sea
2 = X / Y . Entonces la fdp de 2,digamos q, está dada por

Demostrucidn: Sea z = ./y y sea v = y. Por tanto, x = v z y y = v. El


jacobiano es

Por tanto, la fdp conjunta de2 = X / Y y V = Y es igual a

2(2, v) = g(vz)h(v) 1911.

Integrando esta fdp conjunta respecto a v, se obtiene la fdp margi-


nal d e 2.

EJEMPLO6.15. Representemos con X y Y la duración de dos bom-


billas fabricadas mediante dos procedimientos distintos. Supongamos
que X y Y son variables aleatorias independientes con fdp f y g, respec-
tivamente, donde

f(z)= e-”, x 3 O, y O en otra parte;


-
g(y) = 2e 2Y, y 5 O, y O en otra parte.
6.6 n-dimensionales
aleatorias
Variables 145

Podría ser de interés la variable aleatoria X / Y , que representa la


razón d e las dos duraciones. Sea q la fdp deZ.,
Según el teorema 6.5 tenemos q ( z ) = S_'," g(wz)h(w)lwl dw. Puesto
que X y Y sólo pueden tomar cantidades no negativas, la integración
anterior únicamente necesita calcularse sobre los valores positivos d e la
variable d e integración. Además, el integrando será positivo sólo cuan-
do las dos fdp que aparecen sean positivas. Esto implica que debemos
tener w 2 O y wz 2 O. Puesto que z > O, estas; desigualdades implican
que w >_ O.
Así, lo anterior se convierte en

Una fácil integración por partes da

2
= (. + 2)2' z 2 o.

(Véase la Fig. 6.13.) De nuevo es un ejerci-


so"
cio fácil verificar que q(z) d z = 1. FIGURA6.13

6.6 Variables aleatorias n-dimensionales -

Hasta ahora nuestra exposici6n se ha restringido a variables aleatorias


bidimensionales. Sin embargo, como lo indicamos al principio de este
capítulo, podemos interesarnos en tres o más (características numéricas
simultáneas.
Sólo haremos una brevísima exposición d e 'las variables aleatorias n-
dimensionales. La mayor parted e los conceptos antes presentados para
el caso bidimensional se pueden extender al caso n-dimensional. Nos
limitaremos al caso continuo. (Véase la nota al finald e este capítulo.)
Supongamos que( X , , . . . ,X n ) puede tomar todoslos valores en una
regióndel espacio n-dimensional. Estoes, e1 valores un vector n-
dimensional

Caracterizamos la distribución d e probabilidades (S1,.. . ,X n ) como


sigue.
146 Variables aleatorias
bidimensionales y mayor
de dimenswn 6.6

Existe una función de densidad de probabilidades conjunta f que


satisface las condiciones siguientes:

Con la ayuda de esta fdp definimos

donde C es un subconjunto del recorrido de ( X , , . . . ,X,).


Con cada variable aleatoria n-dimensional podemos asociar un nú-
mero de variablesaleatorias d e dimensióninferior.Porejemplo, si
n = 3, entonces

donde g es la fdp marginal de una variable aleatoria unidimensional


X3,
mientras que

donde h representa la fdp conjunta de la variable aleatoria bidimen-


sional ( X , , X,), etc. El concepto d e variables aleatorias independientes
tambiCn se extiende de una manera natural. Decimos que (XI,. . . ,X n )
sonvariablesaleatoriasindependientessi y sólo si s u fdp conjunta
f ( x 1 , . . . ,z n )se puede factorizar en

Hay muchos casos en los cuales deseamos considerar las variables


aleatorias n-dimensionales. Daremos unos cuantos ejemplos.
a) Supóngase que estudiamos el patrón de precipitación debido a
un sistema particular de tormentas. Si tenemos una red de, digamos
5 estaciones d e observación, y si X ; es la cantidad d e lluvia caída en la
estación i debido a un sistema frontal particular, querríamos considerar
la variable penta-dimensional ( X I , X 2 , S 3 , X 4 , X,).
6.6 Variables
n-dimensionales
aleatorias 147

b ) Una delas aplicaciones más importantes de las variables aleatorias


n-dimensionales se presenta cuando tratamos con medidas repetidas de
una variable aleatoria X. Supóngase que se pide información acerca
de la duración, X, de cierto tubo electrónico. Un fabricante produce
un gran número de estos tubos, d e los cuales probamos n. Sea X;
la duración del i-ésimo tubo, i = 1 , .. . , n. Por tanto, ( X I , . . . ,X,,)es
una variable aleatoria n-dimensional. Si suponemos que cada X; tiene
la misma distribución de probabilidades (puesto que todos los tubos
se producen de l a misma manera), y que las X ; son todas variables
aleatorias independientes (puesto que, posiblemente, la producción de
un tubo no afecta la producción d e los otros)l, podemos suponer que
la variable aleatoria n-dimensional ( X I , . . , ,X n ) está formada d e los
componentes XI,. . . ,X n independientes e identicamente distribuidos.
(Debe ser obvio que aunque X1 y X2 tienen la misma distribución, no \
necesitan adoptar elmismo valor.)
c) Otra manera en que aparccenlas variables aleatorias n-dimensio-
nales es la siguiente. Representernos con X(¿)la potencia requerida por
cierta empresa industrial durante un tiempo t . Para t fija, X ( t ) es una
variable aleatoria unidimensional. Sin embargo, podemos estar intere-
sados en establecer la potencia requerida en detcrminados n tiempos
específicos, digamos t l < t 2 < . . . < t n . A s í , deseamos estudiar la varia-
ble aleatoria n-dimensional.

[x(t&Jqt.), ..., x ( t , ) l ] .
Este tipodeproblemas se estudiaaun nivel más avanzado.(Una
referencia excelente para este tema es el libro Stochastic Processes por
Emanuel Parzen, San Francisco, Holden-Day, 1962.)

Obseruacibn: En alguna parte de nuestra exposición nos referimos al concep-


to d e “n-espacio”. Resumamos algunasd e las ideas bjsicas necesarias.
Con cada número real x podemos asociar un punto sobre la recta d e los
números reales y recíprocamente. De igual manera, con cada par denúmeros
reales (11, x2) podemos asociar un punto e s el plano rectangular d e coorde-
nadas y recíprocamente. Para finalizar, con cada conjunto d e tres números
reales ( x 1 , 2 2 , xpodemos
3) asociar un punto en el espacio tridimensional d e
coordenadas y recíprocamente.
En muchos d e los problemas que nos interesan tratamos un conjunto d e n
números reales, ( x 1 , 2 2 , .. . , x,), también llamado una n-tupla. Aunque no es
posible dibujar ninguna gráfica, si n > 3, para continuar podemos adoptarla
terminología geométrica sugerida por los casos d e dimensión menor citados
148 Variables aleatorias bidimensionaks y de mayor dimensidn

anteriormente. Así, hablaremos de un "punto" en u n n-espacio dimensional


determinado porla n-tupla (XI,.. . ,x,). Definiremos como n-espacio (algunas
veces llamado n-espacio euclidiano)el conjunto d e todas las ("1, . . . , zn),donde
x ; puede ser cualquier número real.
Aunque en realidad no necesitaremos evaluar integrales n-dimensionales,
vamos a encontrar que es un concepto muy útil y algunas veces necesitamos
expresar una cantidad como una integralmúltiple. Si recordamos la definición
de

donde A es una región del plano ( x , ~ ) entonces


, la extensión de este con-
cepto a

I
donde R es una región en el n-espacio, sería justificada. Si f representa la fdp
i

conjunta de la variable aleatoria bidimensional ( X ,Y),


entonces

representa P [ ( X , Y )E A ] . Anrilogamente, si f representa la fclp conjunta de


(X,, . . . , X,), entonces

representa

PROBLEMAS
6.1. Sup6ngase que la tabla siguiente representa la distribuci6n de proba-
bilidades conjunta de la variable aleatoria discreta ( X , Y ) . Calcular todas las
distribuciones marginales y condicionales.
Problemas 149

6.2. Supóngase que la variable aleatoria bidimensional ( X , Y )tenga fdp


conjunta

f ( 2 ,y) = k z ( 2 - y), o < 2 < 2, "2 < y < 2,


= O, en otra parte. i
a) Evaluar la constante IC.
6) Encontrar la fdp marginal de X .
c) Encontrar la fdp marginal d e Y

6.3. Supóngase que la fdp conjunta d e la varialble aleatoria bidimensional


( X ,Y ) estí5 dada por

f(2,y) = 2 2 + -,
XY o < 2 < 1, o < y <,a,
3
= O, en otra parte.

Calcular lo siguiente.

6.4. Supóngase que se sacan dos cartas a l azar de una baraja. Sea X el
número deases obtenidos y Y el número dereinas obtenidas.
a) Obtener la distribución d e probabilidades conjunta d e ( X ,Y ) .
6) Obtener la distribución marginal d e X y d e Y.
c) Obtener la distribución condicional d e X (dada Y )y d e Y (dada X).

6.5. ¿Para quevalores d e k es f(2,y) = ICe-(z+Y) Itma fclp conjunta d e (X, Y )


en la región O < 2 < 1, O < y < l ?
6.6. Supóngase que la variable aleatoria bidimensional continua ( X ,Y ) está
distribuida uniformemente en el cuadrado cuyos vértices son (l,O), (O, l), (-1,O)
y (0,-1). Encontrar las fdp marginales d e X y d e Y .
150 Phriables aleatorias bidimensionales y de mayor dimenswn

6.7. Supóngase que las dimensiones, X y Y , de unaplancha metálica rectzn-


gular se pueden considerar comovariables aleatorias continuasindependientes
con las siguientes fdp.

x: g(z) = 2 - 1, 1 < 2 5 2,
-
- -x+3, 2<x<3,
= O, en otra parte.
Y : h ( y ) = $, 2 < y < 4 ,
=O en otra parte.
Encontrar la fdp del área d e la plancha, A = X Y
6.8. Representar con X la duración de undispositivo electrónico y suponer
que X es una variable aleatoria continua con fdp

f ( x ) = loo0
7 1 2 > 1000,
= O en otra parte.

Sean X 1 y X 2 dos determinaciones independientes de la anterior variable


aleatoria X . (Es decir, suponer que se está probando la duración de dos de
tales dispositivos.) Encontrar la fdp d e la variable aleatoria 2 = X * / X 2 .
6.9. Obtener la distribución d e probabilidades d e las variables aleatorias V
y W presentadas en la p. 138.
6.1 O. Demostrar el teorema6. l .

.\OO
6.1 1. La fuerza magnética H en un punto P , a X
unidades d e u n alambre que transporta una corrien-
te I , estí5 dada por H = 2 Z / X . (Vease la Fig. 6.14.)
Supóngaseque P es unpunto variable. Es decir, X es
una variable aleatoria continua distribuida uniforme- p+"
//
-
'.
"""

menteen ( 3 , 5). Supóngaseque la corriente I estam-


bién una variable aleatoria continua distribuida uni-
aleatorias
formemente S een
I son ZO), y además, que
(10,independientes. Encontrar
las variables
la fdp \ I

de la variable aleatoria H. FIGURA


6.14
6.12. La intensidad d e la luz en un punto determinado está dada por la
relación I = C / D 2 , donde C es la potencia luminosa d e la fuente y D es
ladistzzncia d e la fuente al punto dado. Supóngase que C está distribuida
uniformemente en (1, Z), mientras que D es una variable aleatoria continua
Problemas 15 1

con fdp f (d) = e - d , d > O. Encontrar la fdp d e I, si C y D son independientes.


[Indicacidn: Hallar primero la fdp d e D 2y luego alplicar los resultados d e este
capítulo.]
6.13. Cuando una corriente d e I (amperes) paja por una resistencia d e R
(ohms), la potencia generada esd dada porW = 12R (watts). Supóngase que
I y R son variables aleatorias independientescon las siguientes fdp.

I: f(i) = 6i(l - i), O 5 i 5 1,


= O en otra parte.
R: g ( r ) = 2r, O < r < 1,
= O en otra parte.

Determinar la fdp dela variable aleatoria W y dibujar su gráfica.


6.14. Supóngase quela fdp conjunta de( X , Yestá
) dada por

f ( z , y ) = e-?', para z > O, y > z,


= O en otra parte.

a) Encontrar la fdp marginal d e X .


6) Encontrar la fdp marginal d e Y .
c) Evaluar P ( X > 2 I Y < 4).
7.1 El valor esperado de una variable aleatoria

+
Consideremos la relación determinista u2 by = O. Reconozcámosla
como una relación lineal entre z y y. Las constantes a y b sonparúmetros
d e esta relación en el sentido de que para cualquier elección particular
d e u y b obtenemos una función lineal especifica. En otros casos, uno
o mAs parámetros pueden caracterizar la relación que se considera.
+ +
Por ejemplo, si y = u z 2 bz c son necesarios tres parámetros. si
y = e - k x un parámetro es suficiente. No sólo una relación particular se
caracteriza por los parámetros sino, recíprocamente, por cierta relación
podemos definir varios parámetros pertinentes. Por ejemplo, si a y +
bz = O, entonces m = -b/a representa la pendiente de la recta, y si
+ +
y = a z 2 b z c, entonces - b / 2 u representa el valor para el cual existe
un mAximo relativo o un mínimo relativo.
En los modelos matem5ticos no deterministas o aleatorios que hemos
considerado, los parámetros también pueden usarse para señalar la dis-
tribuci6n d e probabilidades. Con cada distribución de probabilidades
podemos asociar ciertos parAmetrosque dan información valiosa acerca

. .
154 características
Otras
variables
las
nleatorias
de 7.1

de la distribución (tal comola pendiente de una recta proporciona una


información útil acerca d e la relación lineal que representa).

EJEMPLO 7.1. Supongamos queX es una variable aleatoria continua


con fdp f(z)= k e - k x , x 2 O. Para verificar que esta es una fdp observe
que S r k e - k x dx = 1 para toda k > O, y que k e - k x > O para k > O.
Esta distribución se llama distribución exponencial, la cual estudiaremos
m8s adelante con mayor detalle. Es una distribución muy útil para
representar la duración, digamos X , d e cierta clase de componentes de
equipos. La interpretación de IC, en este sentido, también se analizará
posteriormente.

EJEMPLO7.2. Supongamos que en una línea indefinida d e mon-


taje se produce un artículo dado. La probabilidad de que un artículo
sea defectuoso es p , y este valor es el mismo para todos los artículos.
Supóngase también quelos artículos sucesivos son defectuosos (D) o no
defectuosos ( N ) , independientemente uno de otro. Sea la variable alea-
toria X el número de artículos inspeccionados hasta que se encuentra
el primer artículo defectuoso. A s í , un resultado típico del experimen-
to sería d e la forma N N N N D. Por tanto, X ( N N N N O ) = 5. Los
valores posibles d e X son: 1 , 2 , . . . , n , . . . Puesto que X = k si y sólo si
los primeros ( k - 1) artículos son no defectuosos y el k-ésimo artículo
es defectuoso, asignamos al evento la probabilidad siguiente {X = IC}:
P ( X = F;) = P(I - p ) " - l , IC = 1 , 2 , . . . , n , . . . Para verificar que ésta es
una legítima distribución d e probabilidades observemos que

1
=Pl-(l-p)
= 1 si O < Ipl < 1.

Así, el parPmet1-o p puede ser cualquier número quesatisfaga O< p < 1. '
Supongamos que se especifican una variable aleatoria y su distribu-
ción d e probabilidades. ¿Hay alguna manera d e establecer esta distri-
bución en función de unos cuantos parametros numéricos apropiados?
Antes de continuar con la preguntaanterior, motivemos nuestro
análisis considerando el siguiente ejemplo.

EJEMPLO 7.3. Una máquina corta alambre de una longitud detei-mi-


nada. Debido a cierta imprecisión del mecanismo de corte, el largo del
7.1 variable
Eluna
aleatoriu
esperado
valor
de 155

alambre cortado (en pulgadas), digamosX , se puede considerar como


unavariablealeatoriadistribuidauniformementeen [11.5,12.5].El lar-
<
'

go específico esde 12 pulgadas.Si 11.7 X < 12.2, el alambre se puede


vender con una utilidad de $0.25. Si X 2 12.2, el alambre se puede cor-
tar de nuevo y, por consiguiente, se obtiene una utilidad de $0.10. Y si
X < 11.7, el alambre se desecha con una pérdida de $0.02. Un cálculo
sencilloindica que P(X 2 12.2) = 0.3, P(11.7 5 X < 12.2) = 0.5 y
P ( X < 11.7) = 0.2.
Supongamos que se corta un gran número de muestras de alambre,
digamos N. Sea N S el número de muestras para las cuales X < 11.7,
N R el número de muestras para las cuales 111.7 5 X < 12.2 y NL el
número de muestras para las cuales X 2 12.2. :Por tanto, la utilidad total
obtenida d e la producci6n de N muestras es 'igual a T = Ns(-0.02) +
+
N~(0.25)N~(0.10). La utilidad totalpor alamhlre cortado, digamos W , es
iguala" = (N~/N)(-O.~~)+(NR/N)(O.~~)+(NL/N)(O.~). (Obsérvese
que W es una variable aleatoria, puesto que Ns, N R y NL son variables
aleatorias.)
Ya hemos mencionado que la frecuencia relativa de un evento está
cercana a la probabilidad de ese evento,si el nlimero de repeticiones en
las que se basa la frecuencia relativa es grande. (Discutiremos esto con
más precisidn en el capítulo 12.) Por tanto, si N es grande, esperaríamos
que Ns/N est6 cercana a 0.2, NR/N esté cercana a 0.5 y NL/N esté
cercana a 0.3. Entonces para N grande, W podría aproximarse como
sigue:

W N (0.2)(-0.02) + 0.5(0.25) + (O.3)1(0.1)= $0.151.

* A s í , si se produjera un gran número de alamlbres, esperaríamos tener


una utilidad de $0.151 por alambre. El númlero 0.151 se llama valor
esperado de la variable aleatoria W .

Definición. Sea X una variable aleatoria discreta con valores po-


sibles x ~ ,... ,xn,.. . y sea p ( z i ) = P(X := zp), i = 1,2,.. . ,n,.. .
Entonces el valor esperado de X (o esperanza matemática de X ) ,
que se denota con E ( X ) , se define como
156 Otras caradterísticas de
variables
lasaleatorias 7 .I

si la serie C z l q p ( x ; ) converge absolutamente, es decir, si C z l


Iz:ilp(zi) < OO. Este númerotambién sedesignacomo vdor
promedio d e X .

Observaciones: a) Si X toma sólo un número finito d e valores, la expresión


anterior se convierte en E ( X ) = p(z;)zi. Ésta sepuedeconsiderar
como un “promedio ponderado” delos valores’posibles q , . . . , X,. Si todos
los valores posibles son igualmenteprobables, E ( X ) = ( l / n ) x;, lo que
representa el promedio aritmktico ordinario d e los n valores posibles.
b ) Si se lanza un dado regular y la variable aleatoria X designa el número
d e puntosque salen,entonces E ( X ) = h(1 2 + + + + +
3 4 5 6) = g.
Este ejemplo sencillo ilustra notablemente, que E ( X ) no es el resultado que
esperaríamos cuando X se observa una sola vez. ¡De hecho, en la situación
anterior, E(X)= no es siquiera u n valor posible d e X ! Por el contrario, si
obtenemos un gran número observacionesde independientes d e X, tales como
2 1 , .. . , x,, y calculamos el promedio aritmético d e esos resultados,.entonces,
en cond.iciones generales regulares, el promedio aritmético estará cercano a
E ( X ) en un sentido probabilístico. Por ejemplo, en la situación anterior, si
lanzáramos el dado un gran númeroveces de y luego calculáramosel promedio
aritmético d e los diversos resultados, esperaríamos que este promedio llegase
a estar más cercano a cuanto m& veces se lance el dado.
c ) Se debe observar la similitud entre la noci6n d e valor esperado como se
defini6 anteriormente (en especial si X puede tomar sólo un númerofinito d e
valores) y la noci6n del promedio de un conjunto de números, como, 21, . . . , zn.
Usualmente definimos f = ( l / n ) ELl r ; como el promedio aritmético d e los
números 2 1 , . . . , z,. Suptingase, ademhs, que tenemos los números z i , . . . , rh,
donde z: ocurre ni veces, k ni = n. Haciendo f; = n ; / n , E:==, fi = 1,
definimos el promedio ponderado delos números r i , . . . , zh como

#‘
i=l i= 1

Aunque hay una fuerte semejanza entre el promedio ponderado an-


terior y la definición d e E ( X ) , es importante señalar que este último
es un número (parámetro) asociado con una distribución d e probabili-
dades tebrica, mientras que el primero es”simplemente el resultado d e
combinar un conjunto de números de una manera especial. Sin embar-
go, es más que una semejanza superficial. Consideremos una variable
aleatoria X y sean q 7 . . . , zn los valores obtenidos cuando el experi-
mento que da origen a X se realizó n veces independientes (Es decir,
q 7 . . . ,zn simplemente representa los resultados d e n medidas repeti-

das de la característica numérica X . ) Sea 1 el promedio aritmético de


7.1 Elesperado
valor de
variable
aleatoriu
una 157

esos n números. Entonces, como analizaremos con más precisión en el


capítulo 12, si n es suficientemente grande, a: estará "cercana" a E ( X )
en un determinado sentido.Este resultado est;$muy relacionado con la
idea (que también se estudiará en el capítulo 12) de quela frecuencia re-
lativs f~ asociada con n repeticiones de un experimento estará cercana
a la probabilidad P ( A ) si fA se basa en iln gran.número de repeticiones
de E .

EJEMPLO7.4. ,Un fabricanteproduceartículos d e tal modo que


el 10% es defectuoso y el 90% no loes. Si seproduceunartículo
defectuoso el fabricante pierde $1, mientras que un artículo sin defectos
le produce una utilidad de $5. Si X es la utilidad neta por artículo,
entonces X es una variable aleatoria cuyo valor esperado se calcula como
E ( X ) = -l(O.l) +5(0.9) = $4.40. Supongamos quese produce un gran
número de esos artículos. Entonces, puesto que el fabricante perderá
$1 alrededor del 10% d e las veces y ganará $5 ,alrededor del 90% de las
veces, esperará obtener alrededor de$4.40 por artículo a la larga.

Teorema 7.1. Sea X una variable aleatoria distribuida binomialmen-


te con parámetrop , con baseen n repeticilones de un experimento.
Entonces

n
n!
$(X) = k p k (1 - j o y
k ! ( n- k ) !
k=O
n

(ya que el término con k = O es igual a cero). !Sea S = k - 1 en la suma


anterior. Como k toma valores de uno hasta n, S toma valores de cero
hasta ( n - 1). Sustituyendo k en todas partes por (S 1) obtenemos+
158 caracteristicas
Otras variables
de las
aleatorias 7.1

La suma en la última expresión es simplemente la suma de probabili-


dades binomiales conn sustituida por ( n - 1) [esto es, ( p (1 - p))"-'] +
que, por tanto, es igual a uno. Esto establece el resultado.

Obseruacwn: El resultado anterior corresponde ciertamentea nuestra noción


intuitiva, porque se supone quela probabilidad de algún eventoA es, digamos
0.3, cuando se realiza un experimento. Si repetimos este experimento 100
veces, por ejemplo, esperaríamos que A ocurriera alrededor de lOO(0.3) =
30 veces. El concepto de valor esperado que antes se presentó para variables
discretas, se extenderá brevementeen el caso continuo.

EJEMPLO7.5. Una máquina impresora tiene una probabilidad cons-


tante d e 0.05 d e fallar en cualquier día. Si la mAquina no tiene fallas
durante la semana, se obtiene una utilidad d e $S.Si ocurren una o dos
fallas, se obtiene una utilidad de $ R ( R< S) y si ocurren tres o m&
fallas, la utilidad es d e $(-Lj. (Suponemos que R, S y L son mayores
que cero, y también que si la máquina falla cualquier día, permanece
fuera d e uso durante el resto del día.) Sea A' la utilidad obtenida en
una semana de cinco días. Los valores posibles d e X son R, S y ( - L ) .
Sea B el número de fallas por semana. Tenemos

P ( B = k) =
(3(0.05jk(0.95)"-k, k = O, 1 , . . . , 5 .

Puesto que X = S si y sólo si B = O, X = R si y sólo si B = 1 o 2 y


X = (- L j si y sólo si B = 3 , 4 o 5, encontramos que

E ( X ) = S P ( B = O) + R P ( B = 1 O 2) + ( - L ) P ( B = 3 , 4 O 5)
= S(0.95)5 + R [5(0.05)(0.95)4 + 10(0.05)2(0.95)3]

= ( - L ) [10(0.05)3(0.95j2+ 5(0.05j4(0.95) + (0.05j5] dólares.

Definición. Sea X una variable aleatoria continuacon fdp f . El valor


esperudo de X se define como

J
$00
E ( X )= xf(.) dz.
"o0

Nuevamente puede suceder que esta integral (impropia) no con-


verja. Por lo tanto, decimos que E(A) existe si y sólo si
7.1 El valor esperado de una variable aleatoria 159

es finita.

Obseruacidn: Debemos observar la analogía entre el valor esperado de una


variable aleatoria y el concepto de “centro de masa” en mecánica.Si una
masa unitaria está distribuida a lo largo de la recta en los puntos discretos
2 1 , . . . , zn,. . . y si p ( z ; ) es lamasa en xi, entonces vemos que z;p(z;)
representa el centro de masa (respecto al origen). De modo semejante, si una
masa unitaria está distribuida continuamente en una recta, y si I(.) representa
la densidad de masa en z, entonces S-+,” zf(z)dz se puede interpretar de
nuevo comoel centro de masa. En el sentido anterior, E ( X ) puede representar
“un centro” de la distribución de probabilidad. Algunas veces E ( X ) se llama
tambiCn medida de tendencia central y estA en las mismas unidades que X .

x=i500 x=3000 ” FIGURA7.1

EJEMPLO7.6. Vamos a definir la variable aleatoria X como sigue.


Supongamos que X es el tiempo (en minutos) durante el cual un dis-
positivo eléctrico seutiliza a su maxima carga cierto periodode tiempo
determinado. Supongamos que X es una variable aleatoria continua
con la siguiente fdp:

- -1

(x - 3000)’ 1500 5 Z 5 3000,
( 1500)2

=O para cualquier otro valor.

Así,
160 Otras características de las variables aleatorias 7.1

[/ Lso0 1
J--00

1500 3000
-
- x dx - x(x - 3000) dx
(1500)( 1500) o

= 1500 minutos.

(Véase la Fig. 7.1.)

EJEMPLO7.7. El contenidode ceniza en el carbón(porcentaje),


digamos X , se puede considerar como una variable aleatoria continua
conlasiguientefdp: f(x) = &x2, 10 5 x 5 25. Por lo tanto,
E(X)= & Jft x3 dx= 19.5%. Así, el contenido esperado de ceniza
en la muestra particular d e carbón que se considera es 19.5%.

Teorema 7.2. Supongamosa X distribuidauniformementeenel


intervalo [ a ,61. Entonces

Demostrucidn: La fdp deX esta dada por f(x) = l / ( b - a), a 5 x 5 b.


Por tanto,

(Nótese que esto representa el punto w d i o del intervalo [ a ,b], como


intuitivamente lo esperaríamos.)

Obseruacidn: Valdría la pena recordar en esta coyuntura que una variable


aleatoria X es una función d e u nespacio muestra1 S con relación a l recorrido
R,. Como repetidamente,lo hemos señalado, parala mayoría d e las aplicacio-
nes esta nos ha interesado s610 en el recorriday enlas probabilidades definidas
en él. Esta noción d e valor esperado fue completamente definidaen términos
del recorrido. [VCanse las-ecuaciones (7.1) y (7.2.)]. Ocasionalmente, sin em-
bargo, deberíamos observarla naturaleza funcional d e X . Por ejemplo, ¿cómo
expresamos la ecuación (7.1.) e n términos d e los resultados S E S , suponiendo
que S es finita? Puesto que x; = X ( s ) para una S E S y puesto que

p(e1) = P [S : X ( s ) = 4 ,
7.2 Esperanza de una funcidn de una variable aleatoriu 161

podemos escribir

donde P ( s ) es la probabilidad de evento {S} c S . Por ejemplo, si el experi-


( 0 )o no defectuosos
mento consisteen clasificar tres artículos como defectuosos
( N ) ,un espacio muestra1 para este experimento sería

S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD}.

Si X está definida como el número de defectuosos, y si se supone que todos


los resultados anteriores son igualmente posibles, tenemos, de acuerdo con la
ecuación (7.3),

-
- 2
-.3

Por supuesto este resultado se habría podido obtener más fácilmente al aplicar
en forma directa la ecuaci6n (7.1.) Sin embargo, es bueno recordar que para
emplear la ecuaci6n (7.1.) necesitábamos conocer los valores si), lo que a
su vez significaba la necesidad de un cAlculo como el que se utiliz6 antes. Lo
importante es que unavez que se conocela distribuci6nde probabilidadessobre
R, [en este caso los valoresde los númerosp(xi)], plodemos suprimir la relación
funcional entre R, y S.

7.2 Esperanza de una función de una variable aleatoria

Como lo expusimos previamente, si X es una variable aleatoria y si


Y = H ( X ) es una fünci6n d e X , entonces Y es tambiCn una variable
aleatoria con una distribucih de probabilidades. Por lo tanto, ser5
interesante y significativo evaluar E ( Y ) . Hay dos maneras de hacerlo
que resultan equivalentes. Demostrar que en general son equivalentes
no estrivial y probaremos s610 u n casoespecial. Sinembargo,es
importante que el lector comprenda los dos planteamientos que se
presentan a continuaci6n.
162 Otras características de las variables aleatorias 7.2

Definición. Sea X una variable aleatoria y sea Y = H ( X ) .

a) Si Y es una variable aleatoria discreta con valores


posibles y1, y2,
. . . y si q(y;)
= P ( Y = y;), definimos

i=l

b) Si Y es una variable aleatoria continua con fdp g, definimos

Observación: Naturalmente, estas definiciones sonpor completo consistentes


con la definición previa dada para elvalor esperado de unavariable aleatoria.
De hecho, lo anterior s610 representa una repeticidn en términos de Y. Una
“desventaja” de aplicar la definición anterior para obtener E ( Y ) es que la
distribución de probabilidades deY (es decir, la distribución de probabilidades
en el recorrido RY)es necesaria. En el capítulo anterior expusimos métodos
mediante los cuales podemos obtenerya sea las probabilidades puntuales q(y;)
o g , la fdp de Y . Sin embargo, el problema que se presenta es si podemos
obtener E ( Y )sin encontrar primerola distribución de probabilidades de Y, es
la distribución de probabilidades d e X.
decir, sólo a partir del conocimiento de
La respuesta es afirmativa, como lo indica el siguiente teorema.

Teorema 7.3. Sea X una variable aleatoria y sea Y = H ( X ) .

a) Si X es una variable aleatoria discreta y p ( x i ) = P ( X = x;),


tenemos
o;)

E ( Y ) = E ( H ( X ) )= H(zi)p(xj). (7.6)
j=1

b ) Si X es una variable aleatoria continua confdp f , tenemos

E ( Y ) = E ( H ( X ) )= 1+o;)
-m
H ( x ) f ( z )dx (7.7)

Obseruacidn: Este teorema hace mucho más sencilla la evaluaci6n de E ( Y ) ,


porque quiere decir que nonecesitamos encontrar la distribuci6n de probabi-
lidades de Y para evaluar E ( Y ) . Es suficiente conocer la distribucidn de pro-
babilidades de X .
7.2 Esperanza
de una función
una
variable
de aleatoriu 163

Demostrucidn: [Sólo demostraremos la ecuación (7.6). La demostra-


ción d e la ecuación (7.7) es un poco más complicada]. Consideremos
la suma H ( z j ) p ( z j )= Cj”=,(C; H ( z ; ) p ( : c ; ) ) , donde la sumainte-
rior se toma sobre todos los indices i para los cuales H ( z i ) = y j para una
y j fija. Por tanto, todos los términos H ( z ; )so’n constantes en la suma
interior, de modo que

o3 o3

Pero

Por
tanto, H ( z j ) ~ ( z j=
) CFl yjq(yj), lo que establece la
ecuación (7.6).
II

Obseruacidn: El método de demostración equival~e esencialmenteal método


de contar en el cual ponemos juntos todos los artiiculos que tienen el mismo
valor. Así, si queremos encontrar la suma total de los valores 1 , 1, 2, 3, 5, 3,
2, 1, 2, 2, 3, podemos sumarlos directamente o indicar que, puesto que hay 3
unos, 4 doses, 3 treses y 1 cinco,’la suma total es igual a

3(1) + 4(2) + 3(3) + l(5) = 25.


EJEMPLO7.8. Sea V la velocidad del viento (kph) y supongamos que
V est& distribuida uniformemente en el intervalo [O, lo]. La presión,
W(en lb/pie2), sobre la superficie delala de un aeroplanoestA dada por
la relación: W = 0.003 V 2 . Para encontrar 121 valor esperado de W ,
E ( W ) ,podemos proceder de dos maneras:
u) Usando el teorema 7.3, tenemos

E ( W )= 1O
10
, 0.003v2f(v) dv

0 . 0 0 3 2~-
1
C€V
10

= 0.1 lb/pie2
164 características
Otras de las
variables
aleatorias 7.2

b) Usando la definición de E ( W ) ,primero necesitamos encontrar la


fdp de W , digamos g , y luegoevaluar S_'," wg(w)dw. Para encontrar .
g(w), observemos que w = 0 . 0 0 32~ es una función monótona dew, para
v 2 O. Podemos aplicar el teorema 5.1 y obtenemos

=O para cualquier otro valor.

Por tanto,

E ( W )= 1
O
0.3
wg(w) d w = 0.1

después de un cálculo sencillo. A s í , como lo indicó el teorema, las dos


evaluaciones d e E ( W ) producen el mismo resultado.

EJEMPLO7.9. En muchos problemas nos interesa sólola magnitud d e


una variable aleatoria sin considerar su signo algebráico. Es decir, nos
interesa 1x1.Supongamos queX es una variable aleatoria continua con
la siguiente fdp:

ex
f ( ~=
) si x 5 0 ,

- e-'
- - si z
2
> O.
Sea Y = 1x1.Para obtener E(Y) debemos proceder de una de las dos
maneras.
a) Usando el teorema 7.3, tenemos
7.2 Esperanza
de una funcidn de una variable
aleatoriu 165

b ) Para evaluar E ( Y ) usando la definición, necesitamos obtener la


fdp de Y = 1 x1,es decir 9 . Sea G la fda d e Y . Luego,

puesto que la fdp deX es simétrica respecto al cero. Por lo tanto,

G(y) = 2JYf(a:) da: =


O
'2kYq dsc = -e-Y + 1.
Así tenemos para g, la fdp deY , g(y) = G'(y) =: e-Y, y >O. Por lo tanto,
E ( Y )=so"yg(y)dy = so"
ye-Ydy = 1, como antes.

EJEMPLO7.10. En muchos problemas podemos usar el valor espera-


do de una variable aleatoria fin
a de tomarcierta decisiónde una manera
óptima.
Supóngase que un fabricante produce cierta1 tipo d e aceite lubricante
que pierde alguno de sus atributos especiales si no se usa dentro de cier-
to periodo de tiempo. Sea X el número de unidades deaceite pedidas
al fabricante durante cada año. (Una unidad 'es igual a 1000 galones.)
Supongamos que X es una variable aleatoria continua distribuida uni-
formemente en [2,4]. Por lo tanto, la fdp f tiene la forma,

f ( 4 = ;, 2 5 2 5 4,
=O para cualquier otro valor.

Supongamos que por cada una las deunidades; vendidas se obtiene una
utilidad d e $300, mientras que cada una de las unidades no vendidas
(durante un año determinado) produce una pérdida de $100, ya que
cada unidad no utilizada tendrá que desecharse. Consideremos que el
fabricante debe decidir pocos meses antes del comienzo de cada año
cuanto producirá,y que decide fabricar Y unidades (Y no es una variable
aleatoria; estA especificada por el fabricante). Sea 2 la utilidad por año
(en d6lares). Aquí 2 es desde luego una variable aleatoria, puesto que
es una función d e la variable aleatoria X . Específicamente, 2 = H ( X ) ,
donde

H ( X ) = 300 Y si X 2 Y,
= 300 X + (-lOO)(Y - X ) , si X < Y.
166 Otras características de las variables aleatorias 7.3

(La última expresión puedeescribirse romo 400X - lOOY .)


Para obtener E ( 2 ) aplicaremos el teorema
7.3 y escribimos z

l -
t
E ( 2 )= J'"
-m
H ( x ) f ( x ) dx
-x
2 Y 4
FIGURA
7.2

Paraevaluar esta integral se debenconsiderartres casos: Y < 2,


2 5 Y 5 4 y Y > 4. Con ayuda de la figura 7.2 y después de algunas
simplificaciones obtenemos

E(2)= 300 Y si E' 5 2


= - 100 Y 2 + 700 Y - 400 si 2 <Y <4
= 1200 - 100 Y si Y 2 4.

La pregunta siguiente es interesante. ¿Cómo elegirA el fabricante el


valor d e Y a fin d e maximizar la utilidad esperada? Podemos responder
esta pregunta con facilidad al poner simplemente d E ( Z ) / d Y = O. Esto
produce Y = 3.5. (Véase la Fig. 7.3.)

Y =Y2 = 3 .Y5 = 4
FIGURA
7.3

7.3 Variables aleatorias bidimensionales

Los conceptos expuestos anteriormente para el caso unidimensional


también se mantienen para elcaso de variables aleatorias d e mayor di-
mensión. En particular, para elcaso bidimensional hacemosla siguiente
definición.
1
7.3 Variables aleabsrias bidimensionales 167

Definición. Sea ( X , Y ) una variable aleatoria bidimensional y sea


2 = H ( X ,Y ) una función real d e ( X ,Y ) . Por lo tanto, Z es una
variable aleatoria (unidimensional)y definimos E(2)como sigue:

a) Si 2 es una variable aleatoria discreta con valores posibles zl,


252,. . . y con

p(z2) = P( z = Zi),

entonces,

b ) Si 2 es una variable aleatoria continua con fdp f , tenemos

Como en el caso unidimensional, se puede demostrar el teorema


siguiente (análogo al teorema 7.3).

Teorema 7.4. Sea ( X ,Y ) una variable aleatoria bidimensional y sea


z = H(X,Y).
a) Si ( X ,Y ) es una variable aleatoria discretay si
. .
p(z2,yj) = P ( X = z2,Y = yj), 2,J = 1,2,. . . ,

tenemos

(7.10)

b ) Si ( X ,Y )es una variable aleatoria continuacon fdp conjunta f,


tenemos

E(2)= J'" /'"


-03 "03
H ( z ,y)f(z, y) dx dy (7.11)
168 características
Otras variables
de las
aleatorias 7.4

Observacidn: No demostraremos el teorema 7.4. Otra vez, como en el


caso unidimensional, éste es un resultado muy útil puesto que indica que no
necesitamos encontrar la distribuci6n de probabilidades de la variable aleatoria
Z a fin de evaluar su esperanza. Podemos encontrar directamenteE(2)a partir
del conocimiento de la distribución conjunta de (X, Y ) .

EJEMPLO7.1 1. Reconsideremoselejemplo6.14 y encontremos


E ( E ) , donde E = I R . Encontramos que I y R son variables aleatorias
independientes con las siguientes fdp, g y h, respectivamente:

También encontramos que la fdp de E es p ( e ) = $ e ( 3 - e ) , O 5 e 5 3.


Puesto queI y R son variables aleatoriasindependientes, la fdp conjunta
2 . 2,
d e (I,R ) es sencillamente el producto delas fdp deI y R: f(i, r ) = gzr
.O 5 i 5 1, O 5 r 5 3. Para evaluar E ( E ) usando el teorema 7.4 tenemos

E(E)= J3 J' i r f ( i ,r ) d i dr = J3J' i r $ i r 2 d i dr

$1' i3
O 0 O 0

= i2 d i r3 dr = 3 .

Usando directamente la definición (7.9), tenemos

E ( E )= J" e p ( e ) de =
O

7.4 Propiedades del valor esperado

I-Iaremos una lista de propiedades importantes del valor esperado de


una variable aleatoria que será muy útil en el trabajo subsiguiente. En
cada caso se supondrá la existencia de todos los valores esperados a los
cuales nos referimos. Las demostraciones sólo se harán para el caso
continuo. El lector debe ser capaz d e d a r el argumento para el caso
discreto sustituyendo simplemente las integrales por sumatorias.
7.4 Propiedades del valor esperado 169

1
F(4
Propiedad 7.1. Si X = C, donde C es
una constante, entonces E ( X ) = C.
Demostracidn: F(x) = I

-
x=c
I
FIGURA7.4

Obseruacidn: El significado de X igual C es el siguiente. Puesto que X es una


funci6n del espacio muestra1a Rz, el significado de lo anterior es que R, consta
de un solo valor C. Por tanto, X es igual a C si y ~'610si P [ X ( s )= C] = 1. Esta
noci6n se explica mejoren términos de la fda de X . Asaber, F ( z ) = O, si t < C;
F ( z ) es igual a 1, si x 1 C (Fig. 7.4). Algunas veces esta variable aleatoria se
llama degmeruda.

Propiedad 7.2. Supongamos que C es una constante y X es una


variable aleatoria. Entonces, E(CX') = C E ( X )

Demostración:

E ( C X )= 1, +m
Cxf(x) dx= C 1, +m
~f(x) d xC E ( X ) .
=

Propiedad 7.3. Sea (X, Y ) una variable aleatoria bidimensional con


una distribución de probabilidades conjunta. SeanZ = H l ( X , Y )
+ +
y T.V = H z ( X , Y ) . Entonces, E ( Z W ) == E ( 2 ) E ( W ) .

Demostración:

[donde f es la fdp conjunta de ( X ,Y)]

= E(2)+ E ( W ) .
170 caractertsticas
Otras variables
de las
aleaton'as 7.4

Propiedad 7.4. Sean X y Y dosvariablesaleatoriascualesquiera.


+
Entonces, E ( X Y ) = E ( X ) E ( Y ) . +
Demostración: Esta se deduce de inmediato de la propiedad 7.3 al
hacer H l ( X , Y ) = X y H z ( X , Y ) = Y .

Obseruacwnes: a ) Combinando las propicdades 7.1, 7.2 y 7.4 observamos el


siguiente hecho importante:si Y = aX+b, donde a y b son constantes, entonces
+
E(Y) = a E ( X ) b. En palabras, la esperanza de una función lineal es esa
misma función lineal d e las esperanzas. Esto no es cierto a menos que esté
implicada una función lineal y es un error común creer que sea de otromodo.
Porejemplo, E ( x ~ # ) ( E ( x ) ) ~E(ln
, X) # In E ( x ) , etc. A s í , si X toma
los valores -1 y +1, cada uno con probabilidad i,
entonces E ( X ) = O. Sin
embargo,

E(X-2) = ( - 1 ) 2 (i)+ ( 1 ) 2 + (i)= 1 # o2


b ) En general, es dificil obtener expresiones para E ( 1 / X ) o E(X1/2),por
ejemplo, en términos de l/E(X') o (E(X))1/2. Sin embargo,hayalgunas
desigualdades que son muy fáciles d e derivar. (Véanse los artículos d e Fleiss,
Murthy y PiIlai y Gurland en los números d e febrero y diciembre d e 1966 y
abril d e 1967, respectivamente, d e The A m r i c a n Statistician.)
Por ejemplo, tenemos:
1) Si X toma sólo valores positivos y tiene una esperanza finita, entonces
E ( 1 I X ) 2 1/E(X).
2) Con la misma hipdtesis que en l), E(X1/2)5 ( E ( X ) ) 1 / 2 .

Propiedad 7.5. Sean X I ). . . X n n variables aleatorias. Entonces,


)

JqX1 + - . .+ Xn) = E ( X 1 ) + + E ( X n ) .
* * -

Demostración: ÉSta se deduce inmediatamente de la propiedad 7.4 a l


aplicar la inducción matemática.

Observacwn: Al combinar esta propiedad con la anterior, obtenemos

/ n \ n

\kl 1 i=l

donde las a; son constantes.


7.4 Propiedades del valor esperado 171

Propiedad 7.6. Sea ( X , Y ) una variable aleatoria bidimensional y

Demostración:

Observacidn: L a hip6tesis adicional de independencia es necesaria para es-


tablecer la propiedad 7.6, mientras que para obtener la propiedad 7.4 no se
necesit6 ninguna suposici6n.

EJEMPLO7.12. (Este ejemplo se basa en un problemad e An Introduc-


tion to Probability Theory and Its Applications d e 'W. Feller, p5g. 225.)
Sup6ngase quenecesitamos examinar un gran número de personas,
buscando cierta característica con resultados positivo o negativo. Más
aún, supongamos que se toman muestras de personas y se prueba
varias
la muestra combinada como una unidad, tal como puede ser elcaso en
ciertos tipos de exámenes de sangre.

Suposicidn: La muestra combinada dará un resultado negativo si y


sólo si todas las muestras componentes son negativas.
A s í , en el caso d e resultados positivos (de la muestra combinada),
todas las muestras deben ser individualmente: probadas d e nuevo para
determinar cu6lessonpositivas.Si las N personassedividenen n
grupos de k personas (suponiendo N = k n ) aparecen las siguientes
elecciones:
a ) Examinar a todas las N personas individualmente, requiriendoN
pruebas.
b ) Examinar grupos dek muestras, lo cual puede necesitar tanpocas
+ +
como n = N / k o tantas como (k 1)n = N n pruebas.
Nuestro objetivo ser5 estudiar el número esperado de pruebas nece-
sarias en 6) y luego compararlas conN .
172 caractertsticas
Otras de las variables
aleatorias 7.4

Suposición: La probabilidad de que el resultado dela prueba sea po-


sitivo es igual a p y es la misma para todas las personas. Aún más, los
resultados d e las pruebas para las personas delmismo grupo quese exa-
mina son independientes. Sea X = número de pruebasnecesarias para
determinar la característica que se estudia para todaslas N personas, y
sea X ; = número de pruebas necesarias para examinar personas en el
i-ésimo grupo, i = 1,.. . ,n.
+ +
Luego, X = X1 . .. X,, y, por lo tanto, E ( X ) = E ( X 1 ) + +
las X; tienen la misma
E ( X , ) , lo cual es igual a n E ( X 1 ) ,puesto que todas
esperanza, Ahora XI1 sólo toma dos valores: 1 y k 1. Además, +
P ( X 1 = 1) = P(todas las k personas en el grupo 1 son negativas)
= (1 - p)'".

Por tanto,
k
P(X,=k+l)=l-(l-p)

y luego,

E ( X 1 ) = 1 . (1 - p ) k + ( k + 1) [l - (1 - P I k ]
= k [1 - (1 - p ) ' " + k - 1] .
As i,

(La fórmula anterior es válida sólopara k > 1, puesto que parak = 1


+
da E ( X ) = N p n , ¡lo cual obviamente es falso!)
Un asunto de interés es la elección d e k , para la cual el anterior
E ( X ) es más pequeño. Esto se puede manejar fácilmente por algún
procedimiento numCrico. (Véase el Prob. 7.1 la.)
Finalmente,observamosqueparaque la "pruebaengrupo" sea
preferible a la prueba individual, debemos tener E ( X ) < N , esto es,
+
1 - (1 - p)'" k - l < 1, lo cual equivale a k" < (1 - p)'". Esto no puede
ocurrir si (1 - p ) < i,
porqueen esecaso, (1 - < f"
< 1 / k , la
última desigualdad proviene del hecho de que 2'" > k . Así obtenemos
la siguiente conclusión importante: si p , l a probabilidad de una prueba
7.4 delPropiedades valor esperado 173

positiva en cualquier persona determinada, es mayor que f , entonces


de ningún modoes aconsejable agrupar las muestras antes d e examinar.
(Véase el Prob. 7.1 lb.)

EJEMPLO7.13. Apliquemos algunas d e las propiedades anteriores


para derivar (nuevamente)la esperanza de unavariable aleatoria distri-
buida binomialmente. El método usado puede aplicarse con ventaja en
muchas situaciones semejantes.
Consideremos n repeticiones independientes de un experimento a-
leatorio y sea X el número de veces que ocurre un evento A . Sea p
igual aP ( A ) y supongamos que este número es constante para todaslas
repeticiones consideradas.
Definamos las variables aleatorias auxiliaresYl,. . . ,Yn como sigue:

Y , = 1 si el evento A ocurre en la &-ésimarepetición,


= O en cualquier otro caso.

Por lo tanto,

y aplicando la propiedad 7.5, obtenemos

E ( X ) = E ( q )+ * * + E(Yn).
Sin embargo,

E ( Y , )= l ( p ) + 0(1 -p ) = p. ]para toda i.

Así, E ( X ) = np, lo que concuerda con el resultado previo.

Observacidn: Reinterpretemos este importante resultado. Consideremos la


variable aleatoria X / n . Esta representa la frecuencia relativa del evento A
entrea l n repeticiones d e E. Usando la propiedad 7.2, tenemos E ( X / n ) =
s
( n p ) / n = p . Esto, intuitivamente, es como debería ser, porque expresa que la
frecuencia relativa esperada del evento A es p , donde p = P ( A ) . Representa
la primera verificación teórica del hecho de que hay una relación entre la
frecuencia relativa de unevento y la probabilidad die ese evento. Enun capítulo
posterior obtendremosm& resultados que dan unarelación mucho más precisa
entre la frecuencia relativa y la probabilidad.
174 características
Otras de las
variables
aleatorias 7.4

EJEMPLO7.14. Supóngaseque la demanda D , por semana,de


cierto producto es una variable aleatoria con determinada distribución
de probabilidadcs, P ( D = n ) = p ( n ) , n = O, 1 , 2 , . . . Supóngase que
el costo para el proveedor es C1 dólares por artículo, mientrasque é1 lo
vende enC2 dólares. Cualquier artículo que no se venda al término dela
semana debe almacenarsecon un costo d e C3 dólares por artículo.Si el
fabricante decide producir N artículos al comienzo de l a semana, ¿cuál
es su utilidad esperada por semana? ¿Para qué valor d e N es máxima la
ganancia esperada? Si T es la utilidad por semana, tenemos

T = NC2 - NC1 si D >N,


= DC2 - C1N - C3(N - D ) si D 5 N.

Reescribiendo lo anterior, obtenemos

Por tanto, la utilidad esperada se obtiene como sigue:

M n,

Supongamos quese sabe que para D es apropiada l a siguiente distribu-


ción d e probabilidades: P ( D = n ) = 1 n = 1 , 2 , 3 , 4 , 5 . Por tanto,
7.5 aleatoriu
variable
una
La varianza
de 175

E ( T ) = N(C2 - Cl) + (c2 c3)[ N ( N + l ) / 2 - N2] si N 5 5.

Supongamos que C2 = $9, C1 = $3 y C3 = $1. Por tanto,

E ( T ) = 6N + 2 [ N(N2+ __N " ]

si N 5 5,
= 6N + 2(15 - 5 N ) si N > 5,
2
=7N-N si N 5 5,

= 30 - 4N si N > 5.

N='3.5

FIGURA7.5

Por lo tanto el máximo ocurre para N = 3.5. (Véase la Fig. 7.5) Para
N = 3 o 4 tenemos E ( T ) = 12, el cual es el máximo obtenible, puesto
que N es u n entero.

7.5 La varianza de una variable aZeatoria=

Supongamos que para una variable aleatoria .X encontramos que E ( X )


es igual a 2. ?Cuál es la significación d e esto? Es preciso que no se
atribuya más importancia a esta información que la justificada. Significa
sencillamente, que si consideramos un gran 'número de valores de X ,
176 Otras caractertsticas variables
de las
akatorias 7.5

digamos 2 1 , . . . ,z n , y los promediamos, este resultado estará cercano


a 2 si n es grande. Sin embargo, es crucial no dar mucha relevancia
a u n valoresperado.Porejemplo,supóngaseque X representa la
duración de unabombilla que se recibe de unfabricante, y que E ( X ) =
1000 horas. Esto podría significar una de varias posibilidades. Podría
significar que se espera que la mayor parte d e las bombillas dure entre
900 y 1100 horas. También podría significar que las bombillas que se
entregan son de dos tipos diferentes: alrededor dela mitad son de muy
alta calidad y con duración de casi 1300 horas, mientras que l a otra
mitad son d e muy mala calidad y tienen una duración decerca de 700
horas.
Hay una necesidad obvia de presentar una medida cuantitativa que
distinga cntre estassituaciones. Varias medidassesugierenpor sí
mismas, pero la siguiente es la cantidad usada más comúnmente.

Definición. Sea X una variable aleatoria. Definamos la varianza d e


2 como sigue:
X , que se denota con V ( X )o ax

V ( X )= E [ X - E ( X ) 1 2 . (7.12)

La raíz cuadrada positiva de V ( X ) se llama desuiucidn estúndar d e


X y se designa con ax.

Observaciones: a) El número V ( X )está expresado en u n i h d e s cuadra-


das d e X . Esto es, siX se mide en horas, entoncesV ( X )está expresada
en(horas)*. Esta es unarazónparaconsiderar la desviación estándar. ,
Se expresa enlas mismas unidades que X .
b) Otra medida posible podría haber sido E / X - E ( X ) I . Por dife-
rentes razones, una de las cuales es que X 2 es una función “con mejor
comportamiento” que 1x1,se prefiere la varianza.
c) Si interpretamos a E ( X ) como el centro de unamasa unitaria dis-
tribuida sobre una recta, podemos interpretarV ( X )como el momento
de inercia de esta masa, respecto a un eje perpendicular a través del
centro de masa.
d ) V ( X ) ,como se definió en la ecuación (7.12), es un caso especial
del concepto más general siguiente. El k-ésimo momento d e la variable
aleatoria X respecto a su esperanza se define comopk = E [ X - E ( X ) ]k .
Evidentemente, para k = 2 obtenemos la varianza.
7.5 La varianza de una aleatoria
variable 177

El cálculo d e V ( X )se simplifica con laayuda del resultado siguiente.

Teorema 7.5.

V ( X )= E ( X 2 ) - [ E ( X ) I 2 .

Demstruciún: Desarrollando E [ X - E("i)]'!y usando las propiedades


de la esperanza establecidas previamente, se obtiene

V ( X ) = E [ X - E(X')I2

= E { X 2- 2 X E ( X ) + [E(X)]2}
= E ( X 2 ) - 2E(X)E(X) +
[Recuérdese queE ( X ) es una constante.]

= E(X2)- [E(X)I2.

EJEMPLO7.15. La oficina meteorológicaclasifica el tipo d e cielo que


t es visible en relación con los "grados de nubosidad". Se us.a una escala
de 11 categorías: O, 1, 2, . . ., 10, donde O representa un cielo perfec-
tamente claro, 10 representa un cielo completamente cubierto, mien-
tras que los otros valores representan diversas condiciones intermedias.
Supongamos que talclasificación se hace en una estación meteorológica
determinada en un día y hora determinados. Sea X la variable alea-
toria que toma uno de los 11 valores anteriores. supongamos que la
distribución d e probabilidades d e X es

Por tanto,

E ( X ) = l(0.15) + 2(0.15) + 3(0.06) + 4(0.06) + 5(0.06)


+ 6(0.06) + 7(0.06) + 8(0.15) + g(0.15)
+ lO(0.05) = 5.0.
178 caracterlsticas
Otras variables
de las
aleatorias 7.6

A fin d e calcular V ( X )necesitamos evaluar ,!?(X2).

E ( X 2 ) = l(0.15) + 4(0.15) + g(0.06) + 16(0.06) + 25(0.06)


+ 36(0.06) + 49(0.06) + M(0.15) + 81(0.15)
+ lOO(0.05) = 35.6.

FIGURA
7.6

Luego,

V ( X )= E ( X 2 )- ( E ( X ) ) ’ = 35.6 - 25 = 10.6,

y la desviación estándar 0 = 3.25.

EJEMPLO 7.16. Supongamos que X es una variable aleatoria conti-


nua con fdp

,(a:) = 1 + 2, -1 i x 5 0,
=1-2, 05XL1.

(VCase la Fig. 7.6.) Debido a la simetría d e la fdp, E ( X ) = O. (Véase la


siguiente Observación.) MAS aún,
.
E ( X 2 )= /-1
O
x2(1 + a:) da:

+ J,’ x 2 ( l - a:) 1
da: = 6.

1
Por tanto, V ( X )= 6.
7.6 Propiedades
varianza
la
de de una variable
aleatoriu 1’79

Obsemacwn: Supóngase que una variable aleatoria continua tiene una fdp
que es simétricarespecto a x = O. Es decir, f( -x) I= f ( z ) para toda x. Entonces,
siempre que exista E ( X ) , E ( X ) = O, que es una consecuencia inmediata de la
definición de E ( X ) . Esto puede extenderse a un punto arbitrario de simetría
z = a, en tal caso, E ( X ) = a. (Véase el Prob. 7.33.)

7.6 Propiedades de la varianzu de una variable aleatoria

Hay varias propiedades importantes, en parte análogas a las expuestas


para la esperanza d e u n a variable aleatoria, que se mantienen para l a
varianza.

Propiedad 7.7. Si C es una constante,

V(X + C )= V(X). (7.13)

Demostración:

+
V(X + C ) = E [(X C ) - E ( X + C)]2= E: [ ( X + C ) - E ( X ) - C]2
= E [ X - E ( X ) ] 2= V ( X ) .

Obsemacidn: Esta propiedad es intuitivamente evidente, porque al agregar


una constante a unresultado X no cambia su variabilidad,que es lo que mide
la varianza. Sólo “desplaza” los valores de X a la derecha o a la izquierda,
dependiendo delsigno de C.

Propiedad 7.8. Si C es una constante,

V ( C X )= C 2 V ( X ) .

Demostracidn:

V ( C X )= E ( C X ) 2- ( E ( C X ) ) 2= C 2 E ( X 2 )- c2( E ( X ) ) 2
= c2[ E ( X 2 )- ( E ( X ) ) 2 ]= C % ( X ) .

Propiedad 7.9. Si (X, Y ) es una variable aleatoria bidimensional, y


si X y Y son independientes, entonces
180 Otras características de las variables aleatorias 7.6

V(X + Y )= V ( S j + V ( Y ) . (7.15)

Demostracicin:

V(X + Y ) = E ( X + (E(X+ Y))2


-

= E ( S " + 2 X Y + Y2) - (E(X)j2- 2 E ( X ) E ( Y )- ( E ( Y ) y


= E ( x 3 ) - (E(X))2+ E ( Y 2 )- ( E ( Y ) ) 2
= V(X) + V ( Y ) .

Obseruacidn: Es importante establecer que, en general, la varianza no es aditiva


como lo es el valor esperado. Con la suposición adicional d e independencia, la
propiedad 7.9 es válida. La varianza no posee la propiedad de linealidad que
+
dimos parala esperanza, es decir, V ( a X + b ) # aV(X) b. En su lugar tenemos
+
V(aX 6) = a 2 V ( X ) .

Propiedad 7.10. Sean X I , . . . ,X n n variables aleatorias indepen-


dientes. Entonces,

V(X'1, + + X,,)
* * = I'(X,) + . . + V(X,). (7.16)

Demostración: Ésta sededucede la propiedad 7.9 coninducción


matemática.

Propiedad 7.11. Sea X una variable aleatoria con varianza finita.


Luego, para cualquier número reala ,

V ( X )= E [ ( X - 4 2 1 - [ E ( X )- al2. (7.17)

Demostracidn: Véase el problema 7.36.

obvia del teorema7.5, porque al hacer


Obseruacwnes: a ) Ésta es una extensión
CY = O obtenemos el teorema 7.5.
b ) Si interpretamos V ( X ) como el momento d e inercia y E ( X ) como el
centro de una masa unitaria, entoncesla propiedad anteriores una formulación
del teorema, muy conocido en mecbnica, de los ges paralelos: el momento d e
inercia respecto aun puntoarbitrario es igual al momento d e inercia respecto
al centro d e la masa mbs el cuadrado dela distancia d e este punto arbitrarioal
centro d e la masa.
c) E [ X - al2 es minimizado si (Y = E ( X ) . Esto se deduce de inmediato
d e la propiedad anterior. Así, el momento d e inercia (de una masa unitaria
7.6 Propiedades devarianza
la de una
variable
aleatoria 181

se
distribuida en unarecta) respectoa u n eje que p,asa por un punto arbitrario
minimiza si estepunto seescoge como el centro d e masa.

EJEMPLO7.17. Calculemos la varianza de una variablealeatoria


distribuida binomialmente con parámetrop.
Para calcular V ( X ) podemos proceder de dos maneras. Puesto que
ya conocemos que E ( X ) = n p , sencillament-e debemos calcular E ( X 2 )
y luego evaluar V ( X ) como E ( x ~ - ) ( E ( x > ) ~Para. calcular E ( x ~ >
usamos el hecho de que P ( X = b ) = (i)
p'(1 - p),-', IC = O, 1,. . . , n.
Por
tanto, E(X2) = IC2 ( t )p k ( l - ,p),-'. Esta suma puede
calcularse fácilmente,pero envez de hacer esto,se emplear2 un método
simple.
Nuevamente usaremos la representación (deX que se presentó en el
ejemplo 7.13, a saber, X = Y1 Y2 +. + Y,. Observemos que las r, son
a +

variables aleatoriasindependientes, puesto que el valor d e Y , depende sólo


del resultado dela i-ésima repetición, y se supone que las repeticiones
sucesivas son independientes. Por tanto, podernos aplicarla propiedad
7.10 y obtener

E(Y,)= l ( p ) + O ( 1 - p) = p, E(y)2= 1 2 ( p ) + 02(1 - p) = p.


Por tanto,

V ( Y , ) = p - p 2 = p ( 1 - p ) para toda i. Así, V ( X )= np(1 - p ) .

Obsemacidn: Consideremos V ( X ) = n p ( 1 - p ) lcomo una función d e p para

-1
una n dada. Dibujemos una gráfica como se muestra en la figura 7.7.
Resolviendo (d/dp)np(l - p ) = O encon-
tramos que el valor máximo para V(X) ocu- V(W
rre cuandop = f. El valor mínimo d e V ( X )
ocurre desde luego los en extremos del inter-
valo en p = O y p = 1. Esto es intuitivamente
comodebería ser. Recordandoque la varian- *
za es una medida d e la variación de la varia- P
p= 1 1
ble aleatoria X definida como el númerod e
veces queocurre el evento A en n repeticio- FIGURA7.7
182 Otras características de las variables aleatorias 7.7

nes, encontramos que esta variación es nula


si p *= O o 1 (es decir, si A ocurre con probabilidad O o 1 ) y es máxima cuando
estamos tan “inciertos como podemos”acerca d e la ocurrencia o no ocurrencia
de A, es decir, cuando P ( A ) = 4.
EJEMPLO7.18. Supóngaseque la variablealeatoria X e s d dis-
tribuida uniformemente en [a,b]. Como lo calculamos previamente,
+
E ( X ) = ( a b)/2.
Para calcular V ( X )hallemos el valord e ,!?(X2):

1 b3 - a 3
E(x“) = J b 22”- dx =
a b-a 3(b - U )

Por tanto,

( b - a)’
V ( X )= E ( X 2 )- [ E ( X ) I 2=
12
después de un cBlculo sencillo.

Obseruacwnes: a ) Este resultado es intuitivamente significativo. Indica que


la varianza d e X no depende de manera individual de a y b sino S610 d e
( b - a ) 2 , es decir, delcuadrado desudiferencia. Por tanto, dos
variables aleatorias
distribuidas, cada una uniformemente, en un intervalo (no necesariamente el
mismo) tendrBn iguales varianzas, mientras las longitudes d e los intervalos sean
iguales.
b ) Es bien conocido el hecho de que el momento d e inercia d e una barra
delgada d e masa M y longitud L respecto a un eje transversal q u e pasa por el
centro está dado porM L 2 / 1 2 .

7.7 Expresiones aproximadas para la esperanza y la varianza

Ya hemos observado que para evaluar E ( Y ) o V ( Y ) donde


, Y = H(X),
no necesitamos conocer la distribución d e probabilidades d e Y , sino que
podemos trabajar directamente con la distribución d e probabilidades de
X . De modo semejante,si 2 = H ( A - , Y ) ,podemos calcularE ( 2 ) y V(2)
sin obtener primero la distribución d e 2.
Si la función 11 es muy complicada, la evaluación d e la esperanza
y varianza anteriores puede conducir a integraciones (o sumas) que
sonmuy diliciles. De aquí que seanmuy útiles las aproximaciones
siguientes.
7.7 Expresiones aproximadas
para la tlsperanza y la varianza 183

Teorema 7.6. Sea una variable aleatoria X con E ( X ) = p , y V ( X )=


02. Supongamos que Y = H ( x ) .Luego,

(7.1s)

[
V ( Y )N H ’ ( p ) ] a 2 . (7.19)
(Para hacer útiles las aproximaciones anteriores, necesitamos evi-
dentemente que H sea a lo menos diferenciable dos veces para
x = p.)

Demostracidn (sólo u n bosquejo): A fin d e establecer la ecuación (7.18),


desarrollemos la función H en una serie de‘Taylor para x = p con dos
términos. A s í

donde R1 es un resto. Si descartamos el término resto R1, entonces,


tomando el valor esperado en ambos miembros, tenemos

puesto que E ( X - p ) = O. Para establecer la ecuacidn (7.19), desarro-


llemos H en una serie de Taylor para x = p con un término. Luego,
+ +
Y = H ( p ) ( X - p ) H ’ ( p ) R2. Si desechamos el resto R2 y tomamos
la varianza en amboslados, tenemos

V ( Y )N [H‘(p)I2a 2 .

EJEMPLO7.19. En ciertas condiciones, la tensión superficial de un


líquido (en dinakm) estA dada por la fórmuda S = 2(1 - 0.005T)1.2,
donde T es la temperatura del líquido (engrados centígrados).
Supongamos queT es una variable aleatoria continua con l a siguiente
fdp,

f ( t ) = 3000t-*, t 2 10,
=O para cualquier otro valor.
184 Otras características de las variables aleatorias 7.7

Luego,

E ( T ) = / m 3000t-3 dt = 15 (grados centígrados).


10

V ( T )= E ( T 2 )- (15)'

= 1; 3000tW2 dt -225 = 75 (grados centígrados)2 .

Para calcular E ( S )y V ( S )tenenlos que evaluar las integrales siguien-


tes:

l r ( 1 - 0.005t)'."t-* dt

En vez de evaluar esas expresiones, obtendremos aproximaciones para


E ( S ) y V ( S ) alusar las ecuaciones (7.18) y (7.19). Parausar esas
fórmulas tenemos que calcular H'(15) y H"( 15), donde H ( t ) = 2(1 -
0.005t)1*2.Tenemos

H ' ( t ) = 2.4(1 - 0.005t)0.2(-0,005) = -0.012(1 - 0.005t)0.2.

Luego,

11(15) = 1.82, H'(15) = 0.01.

De modo semejante,

H " ( t ) = -0.0024(1 - 0.005t)-0'8(-0.005) = 0.000012(1 - 0.005t)-0'8.

Por lo tanto,
0.000012
II"(15) = = o+.
(0.925)0.8
7.7 Expresiones
aproximadas
para la esperanza y la varknza 185

A s í tenemos

E ( S ) N- H(15) + 7511"(15) = 1.82 (dinadcm),


2
V(S) N_ 75 [11"(15)] = 0.87 (dinas/cm)*.

Si 2 es unafunción d e dos variablesaleatorias, 2 = H ( X , Y ) , se


establece un resultado análogo.

Teorema 7.7. Sea ( X ,Y ) una variable aleatoria bidimensional. Su-


pongamos que E ( X ) = p z , E ( Y ) = i ~ V(X ~ ) = ;oz2 y V ( Y )= oy.
2

Sea 2 = H ( X , Y ) . [Supondremos que existen las diversas deri-


vadas d e H para ( p L z , p y ) . ]Luego, si x' y Y son independientes,
tenemos

donde todas las derivadas parciales se evalúan en ( p 2 ,p y).

Dernastrucidn: La demostración implica eldesarrollo d e W en una serie


de Taylor en el punto ( p z , p y )con uno y dos términos, desechando el
resto, y luego tomando la esperanza y la varianza en ambos miembros
como se hizo en la demostración del teorema7.6. Dejamos los detalles al
lector. (Si X y Y no son independientes, se puede derivar una f6rmula
ligeramente más complicada.)

Obseruacidn: El resultado anterior puede extenderse a una fimción d e n


variables aleatorias independientes, esto es Z = H(X1, . . . , ,Xn). Si E ( X ; ) =
,ui, V ( X ; )= u;, tenemos las siguientes aproximacbnes, suponiendo quetodas
las derivadas existan:

donde las derivadas parciales son evaluadas en el punto (p1,. . . , ,un).


186 características
Otras variables
de las
aleatorias 7.8

EJEMPLO7.20. Sup6ngase que tenemos un circuito simple para el


cual el voltaje, M , se expresa por l a ley de Ohm como hl = I R , donde
I y R son la corriente y la rcsistcncia del circuito, respectivamente. Si I
y R son variables aleatorias independientes, entoncesM es una variable
aleatoria y, usando el teorema 7.7, podemos escribir

+
E [ h l ]N E ( I ) E ( R ) , V [ M ]21 [E(R)I2V ( I ) [ E ( I ) I 2V ( R ) .

7.8 Desigualdad de Chebyshev

Existe una desigualdad muy conocida del matemático ruso Chebyshev ’


que desempeña una función importante lo enque resta de nuestra obra.
Además, nos dará un medio para comprender con precisión como la
varianza mide la variabilidad respecto al valor esperado de unavariable
alcatoria.
Si conocemos la distribución de probabilidades de una variable alea-
toria X (la fdp en el caso continuo o la probabilidad puntual en el caso
discrcto), podemos calcular E ( X ) y V ( X ) ,si existen. Sin embargo, lo
recíproco no es verdadero. Esto es, conociendo E ( X ) y V ( X ) no po-
demos reconstruir la distribución de probabilidades deX y, por tanto,
no podemos calcular cantidades talcs como P[IX - E(.Y)l 5 C]. Sin
embargo, resulta que aunque no podemos evaluartales probabilidades
[a partir de un conocimiento deE ( X ) y V(X)], es posiblc dar una cota
superior (o inferior) muy útil para tales probabilidades. Este resultado
está contenido en lo que se conoce como la desigualdad de Chcbyshev.

Desigualdad de Chebyshev. Sea X una variablealeatoriacon


E ( X ) = p y sea c un nilmero real cualquiera. Entonces,si E ( S - c ) es
~
finita y E es cualquier número positivo, tenemos

(7.20)

Las formas siguientes, equivalentes a (7.20), son inmediatas:


u ) AI considerar el evento complementario obtenemos:

1 2
P [ \ X- CI < e ] 2 1 - -E2E ( X - c) . (7.20a)

b ) Al elegir c = /I obtenemos
7.8 DesigualdaddeChebyshev 187

(7.20b)

c) Al elegir c = p y E = kc,donde a2 = Var X > O, obtenemos

Esta última forma (7.21) indica especialmente cómola varianza mide


el “grado de concentración” de la probabilidad próxima a E ( X ) = p .

Demostmcidn (Demostraremos sólo 7.20, puesto que las otras se de-


ducen como se indicó. Trataremos Únicamente el caso continuo. En el
caso discreto, el argumento es muy parecido al de las integrales susti-
tuidas por sumas. Sin embargo, hay que tener cuidado con los puntos
extremos d e los intervalos.):

Consideremos

P [ ] X - CI 2 E ] = Jz:1z-c12&
,fW dx *

(Los límites d e la integral dicen que estamos integrando entre -.o y


+
c - E y entre c E y +.o.)
Ahora, \x! - c ( 2 E equivale a (x - c )2 /E 2 :>1. Por tanto, la integral
anterior es

donde

n = {x : 12 - c( 2 E}.

Esta integral, a su vez, es

lo que es igual a
1
T E [ X - C ]2
E
,
como queríamos demostrar.
188 características
Otras
variables
las
aleatorias
de 7.9

Observaciones: a ) Es importante darse cuentade queel resultado anterior es


notable debido a lo pocoque se presuponeacerca d e la conducta probabilística
de ia variable aleatoria X.
b ) Como podríamos sospechar, una información adicional respecto a la dis-
tribución de la variable aleatoria X nos permitirá mejorar la desigualdad que
2,
deducimos. Por ejemplo, si C = tenemos, d e la desigualdad d e Chebyshev,

Supongamos que también sabemos que X e s d distribuida uniformemente en


+
(1 - I/&, 1 I/&). Por lo tanto, E ( X ) = 1, V ( X >= y así 6

= 1- P [$ < X < $1 d3
= 1 - - = 0.134.
2

Nótese que aunque la afirmación obtenida d e la desigualdad d e Chebyshev


es consistente con este resultado, la última es una relación más precisa. Sin
embargo, en muchos problemas ningunasuposición referente a la distribución
y en tales casos, la desigualdad
específica d e la variable aleatoria está justificada,
d e Chebyshev puede darnos una información importante acerca del compor-
tamiento d e la variable aleatoria.

Como lo observamos en la ecuación (7.21),si V(X) es pequeña, la ma-


yor parte dela distribución de probabilidades deX está “concentrada”
próxima a E ( X ) . Esto se puede expresarcon más detalle en el teorema
siguiente.

Teorema 7.8. Supongamos que V ( X ) = O. Luego, P [ X = p ] = 1,


donde p = E ( X ) . (Informalmente, X = p, con “probabilidad l”.)

Demostracidn: De la ecuación (7.20b) encontramos que

P [IX - 2 t] = O para cualquier E > O.


Luego,

P [lx’ - pI < E ] = 1 para cualquier E > O.


Puesto que E puede elegirse arbitrariamente pequeña, el teorema queda
demostrado.
7.9 El co,eficiente de
correlacwn 189

Obseruacwnas: a) Este teorema demuestra que la varianza cero implica que


toda la probabilidad esd concentrada en un solo punto, a saber E ( X ) .
b ) Si E ( X ) = O, entonces V ( X )= E ( x ~ y,) por tanto, en este caso, E ( x ~
=>
O implica la misma conclusi6n.
c) En el sentido anterior decimos que unavariable aleatoria X es degenerada:
toma s610 un valor con probabilidad l .

7.9 El coeficiente de correlación

Hasta ahora nos hemos interesado en asociar parámetros como E ( X )y


V ( X )con la distribucidnd e variables aleatorias unidimensionales. Estos
parAmetros miden, en el sentido antes descritlo, ciertas característicasd e
la distribucidn. Si tenemos una variable aleatoria bidimensional (X, Y ) ,
se encuentra un problema análogo. Por supuesto, podemos presentar
nuevamente las variables aleatorias unidimensionales X y Y asociadas
con ( X ,Y ) . Sin embargo, surge la pregunta de si hay un pargmetro
significativo que midade alguna manera el “grado de asociacidn” entre
X y Y . h a es una noci6n vaga que se precisarP mPs adelante. Demos
la siguiente definici6n formal.

Definición. Sea ( X ,Y )una variable aleatoria bidimensional. Defini-


mos pxy, el coejcficzentede correlacidn entre X y Y , como sigue:

(7.22)

Observacwnes a) Suponemos que todas las espleranzas existen y que V ( X )


y V ( Y ) son distintas de cero. Cuando no hayduda ‘decu5les variables aleatorias
esdn implicadas escribiremossimplemente p en vez de pxv.
-
6 ) El numerador de p, E { [ X E ( X ) ] [ Y- E ( Y ) ] } se
, llama covarianza de X
y Y , y algunas veces se denota con uxy.
C) El coeficiente de correlaci6n es una cantidad adimensional.

d ) Antes de que la definición anterior pueda. ser significativa,debemos


establecer exactamente lo que mide p . <Sto lo haremos al considerar un
número de propiedades p .

Teorema 7.9.
190 Otras características de las variables aleatorias 7.9

Demostración: Consideremos

+
E { [ X - E ( S ) ][Y - E ( Y ) ] }= E [ X Y - X E ( Y ) - Y E ( X ) E ( X ) E ( Y ) ]
= E ( X Y ) - E ( X ) E ( Y )- E(E’)E(X) +E(X)E(Y)
= E ( X Y )- E ( X ) E ( Y ) .

Teorema 7.10. Si X y Y son independientes, entonces p = O.

Demostración: Se deduce inmediatamentedel teorema 7.9, puesto que

E ( X Y )= E(X)E(Y)

si X y Y son independientes.

Obseruacidn: El recíproco del teorema 7.10 no es verdadero en general.


(Véase el Prob. 7.39.) Esto es, podemos tenerp = O, y aun así X y Y no necesi-
tan ser independientes.Si p = O decimos qneX y Y son no correlacionados. Así,
siendo no correlacionados e independientes no son, en general, equivalentes.
El ejemplo siguiente ilustra este punto.*
Sean X y Y variables aleatorias cualesquiera con la misma distribución y
U=X-YyV=X+Y.Luego,E(U)=Oycov(U,V)=E[(X-Y)(X+Y)]=
E ( X 2 - Y*) = O. Entonces, U y V son no correlacionadas. Aun si X y Y son
independientes, U y V pueden ser dependientes, como lo indica la elección
siguiente d e X y Y . Sean X y Y los números que aparecen respectivamente en
el primeroy segundo dados, cuando se han lanzado un d e dados
par regulares.
Ahora,porejemplo, hallamos que P[V = 4 I U = 31 = O (puestoque si
X - Y = 3, X + Y no puede ser igual 4), a mientras queP ( V = 4) = 3/36. Así,
U y V son dependientes.

Teorema 7.11. -1 5 p 5 1. (Esto es, p toma los valores entre -1 y


+
1 inclusive.)

*El ejemplod e esta Observaciónestá tomado de unanálisis del artículo titulado


“Mutually Exclusive Events, Independence and Zero Correlation”, porJ. D.
Gibbons, que sepublicó en The American Statistician, 22, núm. 5, diciembre d e
1968, págs. 31-32.
7.9 El coejiciente de correlacwn 19 1

FIGURA7.8

Demstrucibn: Consideremos la siguiente función dela variable real t :

q(t) = E [V -+ t T V 1 2 ,
donde V = X - E ( X ) y iV = Y - E(E'). Puesto que [V t l Y I 2 2 O, +
tenemos que q ( t ) 2 O para toda t. Desarrollando obtenemos

q(t) = +
E [V2 2tVW + t 2 TV 2] = E ( V 2 ) + 2 t E ( T f W )+ t 2 E ( W 2 ) .
A s í , q ( t ) es una expresi6n cuadrAtica en t . En general, si una expresión
+ +
cuadrática q ( t ) = at2 bt c tiene la propiedad de que q(t) 2 O para
toda t , significa que su gráfica corta el eje I! en un solo punto o en
ninguno, como se indica en la figura 7.8. Esto, a su vez, indica que su
discriminante b2 - 4ac debe ser 5 O, puesto que b2 - 4ac > O significaría
que q ( t ) tiene dos raíces reales distinta. Aplicando esta conclusidn a l a
función q ( t ) que consideramos anteriormente,, obtenemos

4 [E(VW)I2- 4 E ( V 2 ) E ( W 2 )5 o.
Esto implica que

y, por tanto,

{ E [X - E ( X ) ][Y - E ( Y ) ] } 2
:= p2 5 1.
V(X)V(Y>
192 Otras características de las variables aleatorias 7.9

Así, -1 5 p 5 1.

Teorema 7.12. Supongamos q u e p 2 = 1. Luego (conprobabilidad


+
1 en el sentido del teorema 7.S), Y = A X B , donde A y B son
constantes. En palabras, si el coeficiente d e correlación p es fl,
entonces Y es una función lineal d e X (con probabilidad 1).

Demostracidn: Consideremos nucvamente la función q ( t ) descrita en la


demostración del teorema 7.11.Es sencillo observar enla demostración
d e ese teorema que si q(l) > O para todu t , entonces p2 < 1. Luego la
hipótesis del presente teorema, a saber, p2 = 1, implica que debe existir
al menos un valor de 1, digamos t o , tal que q ( t 0 ) = E(V +
to^)^ = O.
Puesto que 1’ + +
toW = [ S - E ( X ) ] to[Y - E ( Y ) ] , tenemos que
E ( V + tow)= O y, por tanto, la varianza de (V tow) = E ( V + +
t o i V ) 2 . Así encontramos que la hipótesis del teorema 7.12 conduce a
+
la conclusión de que la varianza d e (V tow) = O. Por tanto, del
teorema 7.8 podemos concluir que la variable aleatoria (V Col%’) = O +
+
(conprobabilidad 1). Portanto, [X - E ( X ) ] to[l’ - E(Z’)] = O.
Keescribicndo, encontramos que Y = AX +
B (con probabilidad l),
como se iba a demostrar.

Observaciones: El recíproco del teorema 7.12 tmlbién se cumple como se


demuestra en el teorcma 7.1 3.

Teorema 7.13. Supongamos que X y Y son dos variables aleatorias


para las cuales Y = AX +
B , donde A y B son constantes.
Entonces, p 2 = 1. Si A > O, p = $1; si A < O, p = -1.

Demostracidn: Puesto que Y = AX + B, tenemosque E(Y) =


+
A E ( X ) B y V ( Y )= A2V(X).
También

+
E ( X Y ) = E [ X ( A X + B ) ]= A E ( X 2 ) B E ( X ) .

Luego,

2 [ E ( X Y )- E ( X ) E ( Y ) ] 2
P =
V(X)V(Y>

-
-
{ A E ( X 2 )+ B E ( X ) - E ( X ) [ A E ( X ) +
V (X ) A2V(X )
7.9 El cotflciente de correlacwn 193

[ A E ( X 2 )+ B E ( X ) - A ( E ( X ) ) 2 - B E ( X ) ]
-
-
A2 (v(X>>2

-
{
- A2 E ( X 2 )- [ I T ( X ) ] ~ } ~
= 1.
A2 (V(X)I2

(La segunda afirmación del teorema se dedulce al observar que fl=


IAIJ
Obsemacidn: Los teoremas 7.12 y 7.13 establecen las siguientes características
importantes delcoeficiente de correlación: el coeficiente d e correlación es una
medida delgrado de linealidad entre X y Y . Los valores d e p próximos a 1 o +
-1 indican u n alto grado delinealidad, mientras que los valores d e p próximos
a O indican una ausenciode tal linealidad. Los valores positivos d e p muestran
que Y tiende a aumentar convalores crecientesde X, mientras que los valores
negativos d e p muestran que E’ tiende a disminuir convalores crecientes de X .
Existe una considerable confusión acerca d e la interpretación delcoeficiente d e
correlación. Un valor de p cercano a cero sólo indica la ausencia de unarelación
lineal entre X y Y . No impide la posibilidad d e alguna relación no lineal.

EJEMPLO7.2 1. Supongamos que la varia-


ble aleatoria bidimensional ( X ,Y ) est6 distri-
buida uniformemente en la región triangular

R = {(.,y) 1 o < 2 < y < 1).


(Véase la Fig. 7.9.) Luego, la fdp est6 dada
como

f(2,Y) = 2, (2,Y) E R,
FIGURA7.9
=O para cualquier otro valor.

Entonces, las fdp marginales d e X y Y son

g(z) = 1 1
(2) d y = 2(1 - x), O 5 3: 5 1;

h(y) = /
O
Y
(2) da: = 2y, O <_ y <_ 1.
194 Otras características de las variables aleatorias 7.10

Por tanto,

E(X)= $,
J,'z2(1 - z ) dz = E(>') =
J,'y2y dy = $;

E ( X Y ) - E ( X ) E ( Y )- 1
- -
P=
J\'(S)V(Y) 2

Tal como hemos indicado, el coeficiente d e corrclacibn cs una can-


tidad adimensional. Su valor no se afecta por un canhio de escala. Se
puede demostrarel siguiente teorema fácilmente. (Véaseel Prob. 7.41.)

Teorema 7.14. Si pxy es el coeficiente d e correlacibn cntre X y E', y


si V = A X + B y T.I/ = C Y + D, donde A , B,C y D son constantes,
entonces pvw = (AC/ (AC()pxy.(Suponemos que A # O, C # O . )

7.1O Esperanza condicional

Tal como definimos el valor esperado de una variable aleatoria S (en


términos de su distribución de probabilidades) como S-$," zf(.r) d r o
Cgl z;p(z;),así podemos definir la esperanza condicional de una va-
riable aleatoria (entérminos d e su distribución condicionald e probabi-
lidades) como sigue.

Definición. a) Si ( X , Y ) es una variablealeatoriabidimensional


continua, definimos l a esperanza condicional d e S para I' = y como

(7.23)
J-00

b ) Si ( X ,Y ) es una variable aleatoria bidimensional discreta, defi-


nimos la esperanza condicional d e X para Y = y j como
7.10 Esperanzacondicional 195

La esperanza Condicional d e Y para X se define análogamente.

Observaciones: a ) La interpretación de la esperanza Condicional es como sigue.


Puesto que g(r 1 y) representa la fdp Condicional de X para Y = y, E ( X 1 y) es
la esperanza de X condicionada al evento {Y = y}. Por ejemplo, si ( S , Y )
representa la resistencia a la tensi6n y la dureza de una muestra de acero,
entonces E ( X I y = 52.7) es la resistencia esperada a la tensi6n de una muestra
de acero elegida al azar del universo de muestras cuya dureza (medida en la
escala Rockwell) es 52.7.
b) Es importante darse cuenta de que en genelral E ( X 1 y) es una función
de y y, por lo tanto, es una variable aleatoria. De manera similar, E(Y I x) es
una hnci6n de z y también es una variable aleatoria. [Estrictamentehablando,
E ( X I y) es el valor de la variable aleatoria E ( X I Y ) . ]
c) Puesto que E(Y 1 X ) y E ( X 1 Y ) son variables aleatorias tiene sentido
hablar de sus esperanzas. A s í podemos considerar E [ E ( X I Y ) ] por
, ejemplo.
Es importante reconocer que la esperanza interna se toma respecto a la distri-
bucidn Condicional de X , dado que Y es igual a y, mientras que la esperanza
exterior se toma respecto a la distribución de probabilidades de Y .

Teorema 7.15.

Demstracidn: (caso continuo solamente): Por definición,

donde f es la fdp conjunta d e ( X ,Y ) y h, es l a fdp marginal de Y . Por


tanto,

E-[E(X I Y ) ]=
“O0
1’”
”O0
E ( X 1 y)h(y) dy = J’” [/””
”M
-x f (27 Y) d r ] h ( y ) dy .
WY)

Si todas las esperanzas existen, es posible escribir la integral iterada


anterior con el orden deintegración invertido.. Así,
196 Otras
características de
Variables
las
aleatorias 7.10

E [ E ( X I Y)]
= /'"
"O3
2 [ly f(x, y) dy] dx = iT x g ( x ) dx E ( X ) .

[Se puede usar un argumento semejante para establecer la ecuación


(7.26).] Este teorema es muy útil como lo ilustra el siguiente ejemplo.

EJEMPLO7.22. Supóngase quevarios cargamentos que traen diverso


número de repuestosllegan diariamente. Si N es el número de artícu-
los en el cargamento, la distribución d e probabilidades d e la variable
aleatoria N está dada como sigue:

n : 10 11 12 13 14 15

P(N = n) : 0.05 0.10 0.10 0.20 0.35 0.20

La probabilidad de que cualquier repuesto particular sea defectuoso es


la misma para todos los repuestos y es igual a 0.10. Si X es el n(1mero
d e repuestos defectuosos que llegan cada día, ¿cuál es el valor esperado
d e X? Para N dada igual a n, X tiene una distribución binomial. Puesto
que la misma N es una variable aleatoria, procedemos como sigue.
Tenemosque E ( X ) = E [ E ( X I N ) ] . Sin embargo, E ( X 1 N ) =
0.10 N , puesto que para unaN dada, X tiene una distribución binomial.
Luego,

E ( X ) = E(O.1ON) = O.lOE(N)
= 0.10[10(0.05) + ll(O.10) + 12(0.10) + 13(0.20) + 14(0.35) + 15(0.20)]
= 1.33.

Teorema 7.16. Supóngase que X y Y son variables aleatorias inde-


pendientes. Entonces,

E(X I Y)+ E ( X ) y E(Y I X ) = E ( Y )

Demostrucidn: Véase el problema 7.43.

EJEMPLO7.23. Supóngase que el suministro d e potencia (en kilo-


watts) de una compañía hidroeléctrica durante un periodo de tiempo
específico es una variable aleatoria X, la que supondremos que tiene
7.1 1 promedio del Regresidn 197

una distribución uniforme en [ 10, 301. La demanda de potencia (enki-


lowatts), digamos Y ,también es unavariable aleatoria que supondremos
que est3 distribuida uniformemente en [ 10, 201. (Luego, en promedio,
se suministra más potencia que la que se pide, puesto que E ( X ) = 20,
mientras que E ( Y ) = 15.) Por cada kilowatt suministrado, la compaiiía
obtiene u n a utilidad d e $0.03. Si l a demanda excede el suministro, la
compafiía obtiene una potencia adicional de otra fuente y obtiene una
utilidad con esta potencia de $0.01 por kilowatt suministrado. ?Cuál es
la utilidad esperada durante el tiempo específico que se considera?
Sea T esta utilidad. Tenemos

T = 0.03Y si Y <X,
= 0.03X + O.Ol(Y - X) si Y > X. i

Para evaluar E ( T ) escribámosla como E [ E ( T I S ) ] .Tenemos

0.03yh d y + s ~ o ( O . O l y+ O.O2x)& dy
E ( T I x) = si 10 < x < 20,
0 . 0 3 y h dy si 20 < x < 30,
& [0.015x2 - 1.5 + 2 + 0.42 - 0 . 0 0 5 ~-~0 . 0 2 ~ ~ 1
si 10 < x < 20,
= { & si 20 < x < 30,
0.05 + 0.042 - 0 . 0 0 1 ~ si
~ 10 .< x < 20,
0.45 si 20 < x < 30.
Por tanto,

E [E(T1 X ) ]= & lo20


(0.05 + 0.041: - 0 . 0 0 1 ~ ~d~) +& 0.45 d x = $0.43.

7.11 Regresidn del promedio

Como sefialamos en la secci6n anterior, E ( X I y) es el valord e la variable


aleatoria E ( X I Y ) y es una funcidn de y. La gráfica d e esta función
d e y se conoce como C Z L ~ V Ude regresidn (del promedio) de X sobre Y .
AnAlogamente, l a gr3fica de la función de 2 , E ( Y 1 x) se llama curva de
regresión (del promedio) d e Y sobre X . Para cada una de las y fijas,
E ( X I y) es el valor esperado de la variable aleatoria (unidimensional)
198 Otras
características devariables
lasaleatorias 7.1 1

cuya distribución d e probabilidades estA definida por la ecuación (6.5)


o (6.7). (Véase la Fig. 7.10.) En general, el valor esperado dependerá
d e y. [Se pueden hacer interpretaciones anhlogas paraE ( Y I z).]

FIGURA
7.10

x= -1 x= 1

FIGURA
7.11

EJEMPLO7.24. Supongamosque (X,Y ) está distribuidaunifor-


memente en la sernicircunferencia indicada en la figura 7.1 l . Luego,
J ( z , y) = 2/7r, (x,y) E semicircunferencia. Así,

Por tanto,
7.1 1 Regresidn delpromedio 199

Luego,

De modo semejante

r +m

= o.

Puede suceder que una o ambas curvasd e regresión sean en realidad


líneas rectas (Fig. 7.12). Es de&; E ( Y I x) pu.ede ser una función lineal
de x o E ( X I y) puede ser función lineald e y , o pueden suceder ambas
cosas. En este caso, decimos que la regresión del promedio deY sobre
X (por ejemplo) es lineal.

Y
t

FIGURA
7.12

EJEMPLO7.25. Supongamos que ( X ,Y ) está distribuida uniforme-


mente en el triángulo indicado en la figura 7.13. Entonces f(x, y) = 1,
(x,y) E T . Las expresiones siguientes para las fdp marginal y condicio-
nal severifican con facilidad:
200 Otras caracteristicas de las variables aleatorias 7.1 I

Así, ambas regresiones d e Y sobre S y de X sobre Y son lineales (Fig.


7.14).
Resulta que si l a regresión del promedio d e Y sobre X es lineal,
por ejemplo E ( Y 1 X) = ax + /3, podemosexpresarficilmcnte los
coeficientes Q y ,B en términos de ciertos parimetros d c l a distribucibn
conjunta d e ( X , Y ) .Tencmos el tcorema siguiente.

/ y=2x

FIGURA7.13

Teorema 7.17. Sea (X)


FIGURA

Y ) unavariablealeatoriabidimensional
7.14

y
supongamos que

E ( S ) = }Lx, E(1') = p y , V(X) = fTz2 y V ( Y )= O 2y .

Sea p el coeficiente de correlación entre X y Y . Si la regresi6n d e


Y sobre X es lineal, tenemos
20 1

p”.
Problemas

E ( Y I x) = py + CY
ox
-pz). (7.27)

Si la regresión d e X sobre Y es lineal, tenemos

(7.2s)

Demstracidn: La demostración d e esteteorema se bosquejaenel


problema 7.44.

Observaciones: a ) Como se sugirió en la exposición anterior, es posible que


una de l a s regresiones del promedio sea lineal mientras que la otra no lo sea.
b ) Nótese el importante papel que desempeña el coeficiente de correlación
en las expresiones anteriores. Si la regresión de X sobre Y , por ejemplo, es
lineal, y si p = O, entonces encontramos nuevamen.te que E ( X 1 y) no depende
de y. Nótese también que el signo algebraic0 de p determina el signo de la
pendiente de regresión.
c) Si ambas funciones de regresi6n son lineales, encontramos al resolver
las ecuaciones (7.27) y (7.28) simultáneamente, que las rectas de regresión se
cortan en el “centro”de la distribución, ( p 5 , ,uy).
Como lo hemos observado (enel caso del ejemplo7.23), las funciones
d e r e g r e s i h n onecesitan ser lineales. Sin embargo, aún nos podría in-
teresar tratar deaproximar la curva d e r e g r e s i hcon una función lineal.
Usualmente se hace recurriendo al principio de los mínimos cuadrudos, lo
que en el contexto presente es como sigue: se escogen las constantes a y
+
b de modo queE [ E ( Y 1 X ) - ( a x b)I2 se minimice. De igual manera
+
se escogen las constantes c y d de modo queE [ E ( X I Y ) - (CY d)I2 se
minimice.
+
Las rectas y = ax b y x = cy + d se llamanofroximuciones mínimas cua-
drú¿icas a las correspondientes curvas de regresiónE ( Y 1 x) y E ( X 1 y),
respectivamente. El teorema siguiente relacionaesas rectas d e regresi6n
con las antes expuestas.

+
Teorema 7.18. Si y = ax b es la aproximación mínima cuadrática
a E ( Y I x) y si E ( Y 1 x) es en realidad una función lineal d e x, es
decir,

E(Y 1 .)a’. + b‘.


202 Otras características de las variables aleatorias

entonces, a = a I y b = bI . Para la regresión de X sobre Y se


mantiene una proposición análoga.

Dernostracidn: Véase el problema 7.45.

PROBLEMAS
7.1. Encontrar el valor esperado delas siguientes variables aleatorias.
a) La variable aleatoria X definida en el problema4. l .
b ) La variabIe aleatoria X definida en el problema 4.2.
c ) L a variable aleatoria T definida en el problema 4.6.
d ) La variable aleatoria X definida en el problema4.18.
7.2. Demostrar que E ( X ) no existe parala variable aleatoria X definida en
el probpma4.25.
J
7.3. Lo siguienterepresenta la distribución d e probabilidades d e D , la
Calcular E ( D ) .
demanda diaria de cierto producto.

d: 1,2,3,4,5,
P ( D = d) : 0.1,0.1,0.3,0.3,0.2.

7.4. En la fabricaci6n del petr6le0, la temperatura de destilación, T (en


grados centígrados), es crucial para determinar la calidad del producto final.
Supongamos que T se considera como una variable aleatoria distribuida uni-
formemente en(150, 300).
Supongamos que producir un galón de petróleo cuesta C1 dólares. Si el
aceite se destila a una temperatura menor que 200" C, el producto seconoce
como nafta y se vende a C2 dólares por galón.Si se destila a una temperatura
mayor que 200" C, se conoce comoaceite destilado refinado y se vende enC,
dijlares por gal6n. Encontrar la utilidad neta esperada (por gal6n).
7.5. Cierta aleación se forma al combinar la mezcla fundida de dosmetales.
La aleaci6n que resulta contiene cierto porcentajed e plomo, digamos X , que
puede considerarse como una variable aleatoria. Supongamos que X tienc la
siguiente fdp:

Suponer queP , la utilidad neta obtenida al vendcresta aleaciijn (por libra), es


la siguiente función del porcentaje del contenido d e plomo: p = C1 + C 2 X .
Calcular la utilidad esperada (por libra).
Problemas 203

7.6. Supóngase que un instrumento electrónico tiene una duración X (en


unidades d e 1000 horas)que se considera como una
variable aleatoria continua
con la siguiente fdp:

f(z)= e-z, z > O.

Suponer que costoel d e fabricación d e tal artículo es


$2.00. El fabricante vende
el artículo por $5.00, pero garantiza u n reembolso total si X 5 0.9. CCu5l es la
utilidad esperada delfabricante por articulo?
7.7. Las 5 primeras repeticiones d e u n experimento cuestan $10.00 cada
una, y todas las subsiguientes tienen u n valor d’e $5.00 cada una. Suponer
que el experimento se repite hasta obtener el primer resultado exitoso. Si la
probabilidad de unresultado exitosoes siempre igual a0.9 y si las repeticiones
son independientes, {cuál es el costo esperado d e la operaci6n completa?
7.8. Se sabeque unlote contiene 2 artículos defectuososy 8 no defectuosos.
Si estos artículos se inspeccionan al azar, uno dlespués d e otro, ?cuál es el
número esperado d e artículos que se deben escoger para inspección a fin d e
sacar todos los defectuosos?
7.9. Un lote de 10motores eléctricos se debe rechazar totalmenteo vender,
según el resultado del siguiente proceso: dos motores se escogen al azar sin
sustitución y se inspeccionan. Si uno o más son defectuosos, el lote se rechaza;
de otro modo es aceptado. Suponer quecada uno delos motores cuesta $75y
se vende por $100; si el lote contiene 1 motor defectuoso, {cuál es la utilidad
esperada del fabricante?
7.10. Suponiendo que D , la demanda diaria de un artículo, es una variable
aleatoria con la siguiente distribución d e probabilidades:

P ( D = d) = C 2 d / d ! , d = l.,2 , 3 , 4 .

a) Evaluar la constante C.
b ) Calcular la demanda esperada.
c) Suponer que un articulose vende por $5.00. Un fabricante produce
diariamente I< artículos. Cualquier artículo que no se venda al tkrmino del
día debe desecharse con una pkrdida d e $3.00. i) Encontrar la distribución
d e probabilidades d e la utilidad diaria, como una fimción d e K. ii) {Cuántos
artículos deberían fabricarse para maxinlizar la utilidad diaria esperada?
7.11. a) Con N = 50, p = 0.3, efectuar algunos cálculos para encontrar el
valor d e k que minimiza E ( X ) en el ejemplo 7.12
b ) Con los valores anteriores d e N y p y usando k = 5,10,25, determinar
para cada uno de los valores d e k si es preferibleel “examen del grupo”.
204 Otras características de las variables aleatorias

7.1 2. Suponiendo queX y Y son variables aleatorias independientescon las


siguientes fdp:

f ( z ) = 8/z3, z > 2; g(y) = 2y, o < y < 1.


a) Encontrar la fdp d e 2 = X Y .
b ) Obtener E(2)d e dos maneras: i) usando la fdp de Z como se obtuvo en
a ) ;ii) directamente, sin usar la fdp d e 2.

7.13. Suponer queX tiene fdp

f(2) = 8/23, 2 > 2.


Sea w = + X .
a) Calcular E ( W ) ,usando la fdp d e W .
b ) Calcular E ( W ) ,sin usar la fdp d e W .
7.14. Un dado regular se lanza 72 veces. Puesto que X es el número de
veces que apareceel seis, evaluar E ( x ~ ) .
7.15. Encontrar el valor esperado y la varianza d e la variable aleatoria Y y
Z del problema5.2.
7.16. Encontrar elvalor esperado y la varianza d e la variable aleatoria Y del
problema 5.3.
7.17. Encontrar el valor esperado y la varianza d e l a s variables aleatorias Y
y 2 del problema5.5.
7.18. Encontrar el valor esperado y la varianza d e las variables aleatorias Y ,
Z y W del problema5.6.
7.19. Encontrar el valor esperado y la varianza de las variables aleatorias V
y S del problema5.7.
7.20. Encontrar el valor esperado y la varianza d e la variable aleatoria Y del .
problema 5.1O para cada unod e los tres casos.
7.21. Encontrar elvalor esperado y la varianza d e la variable aleatoria A del
problema 6.7.
7.22. Encontrar elvalor esperado y la varianza d e la variable aleatoria H del
problema 6.1 l.
7.23. Encontrar el valor esperado y la varianza d e la variable aleatoria W
del problema 6.13.
7.24. Suponer que X es una variable aleatoria para la cual E ( X ) = 10 y
V ( X ) = 25. ¿Para quévalores positivos d e a y b tiene Y = a X - b esperanza O
y varianza ? ,
Problemas 2O 7

7.38. Suponer que la variable aleatoria bidimensional ( X ,Y ) tiene la fdp


dada por

f(z,y) = O <z <y <1


= O para cualquier otro valor.

(Véase la Fig. 7.18.)Encontrar el coeficiente de carrelación pZY.


7.39. El ejemplo siguienteilustra que p = O noimplica independencia.
Suponer que (X, Y ) tiene una distribución conjunta de probabilidades dada
por la tabla 7 .l.
Demostrar que E ( X Y ) = E ( X ) E ( Y )y luego' p = O.
a)
b ) Indicar
por quC X y Y no son independientes. 1

c) Demostrar que este ejemplo se puede generalizar como sigue. La elección


del número no es crucial. Lo importante es que todos los valores dentro de
un círculo son los mismos, todos los que esdn encuadrados son los mismos y
el valor del centro esigual a cero.

TABLA
7.1

7.40. Sup6ngase que A y B son dos eventos asociados con un experimento


E.Sup6ngase que P ( A ) > O y P ( B ) > O. Definir las variables aleatorias X y Y
como sigue

X = 1 si A ocurre y O en cualquier otro caso,


Y = 1 si B Ocurre y O en cualquier otro caso.

Demostrar que pZy = O implica que X y Y son ind'ependientes.


7.41.Demostrar el teorema 7.14.
7.42. Para la variable aleatoria( X ,Y )definida en el problema 6.14,calcular
E ( X 1 y), E(Y I z) yverificar que E ( X ) = E [ E ( X 1 Y ) ]y E ( Y ) = E [ E ( Y I X ) ] .
7.43. Demostrar el teorema 7.16.
208 Otras características de las variables aleatorias

7.44. Demostrar el teorema 7.17. [Zndicacidn: En el caso continuo, multipli-


car la ecuaciónE(Y I x) = Ax+ B por g(x), la fdp de X, e integrar de -m a co.
Hacer lo mismo usando x g ( z ) y luego resolver las dos ecuaciones resultantes
para A y para B.]
7.45. Demostrar el teorema 7.18.
7.46. SiX, Y y 2 son variables aleatorias
no correlacionadas con desviaciones
esthdar 5, 12 y 9, respectivamente, y si U = X + Y y V = Y + 2,evaluar el
coeficiente de correlación entre U y V .
7.47. Sup6ngase que ambascurvas de regresi6n de lospromediosson
realmente lineales.Específicamente, suponerque E(Y I x) = -?x
3
- 2 y
E ( X I y) = “ g y - 3 .
a) Determinar el coeficientede correlaci6n p.
6) Determinar E ( X ) y E ( Y ) .
7.48. Considérese el pron6stico del tiempo con dos alternativas: “lluvia”
o “no lluvia” en las próximas 24 horas. Suponicndo que p = Prob(l1uvia en
las pr6ximas 24 horas) > f. El pronosticador anota 1 punto si acierta y O si
no. Al hacer n pronósticos, un pronosticador sin destreza elige al azar r días
cualesquiera (O 5 r 5 n ) para decir “llueve” y los n - P días restantes para
decir “no llueve”. Su puntaje total anotado es S,. Calcular E ( & ) y Var(S,) y
encontrar el valorde r para el cualE ( & ) es el mayor. [Indicacidn: Sea X; = 1 o
O dependiendo si el i-ésimo pron6stico es correcto o no. Luego, S , = Cy=lX;.
Nótese que las X; no son independientes.]
8.1 La distribución de Poisson

Tal como enlos modelos deterministas, en los cuales ciertas relaciones


funcionalcs desempeñan un papel importante(tales como lineales, cua-
dráticas, exponenciales, trigonométricas, etc..), a l elaborar modelos no
deterministas para fenómenos observables, también encontramos que
ciertas distribuciones d e probabilidades apal-ecen m,is a menudo que
otras. Una razón d e esto es que, como en e l caso deterrninista, algu-
nos modelos matemáticos relativamente simples parecen ser capaces d e
describir un gran número de fenómenos.
En este capítulo expondremos con mucho detalle diversas variables
aleatoriasdiscretas.En el capítulosiguienteharemoslomismocon
variables aleatorias continuas.
Presentemos formalmente la siguiente variable aleatoria. Más ade-
lante indicaremos en qué condiciones esta variable aleatoria podría re-
presentar al resultadode un experimento aleatorio.

Definición. Sea X unavariablealeatoriaquetoma los valores


posibles: O, 1,.. . , n, . . . Si
2 10 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.1

decirnos que X tiene una distribucibn de Poisson con parámetro


(Y > o.
Para verificar que la anterior representa una legítima distribución
de
probabilidades, simplemente observemos
que P(X = k ) =
z E o ( e - C Y a k / k=
! )e-CY e a = I.

Obseruacwn: Puesto que estamos definiendo en forma directa la variable


aleatoria en términos de su recorrido y distribución de probabilidades, sin
referenciaaningilnespaciomuestraloriginal S, podemos suponer que el
espaciomuestral S se ha identificadocon R, y que X ( s ) = s. Es decir,
los resultados del experimento son simplemente los números O , 1 , 2 , . . . y las
probabilidades asociadas con cada uno de esos resultados están dadas por la
ecuación (8.1).

Teorema 8.1. Si X tiene una distribución de Poisson con parámetro


a, entonces E ( X ) = a y V(z) = a.

00 ke-aak - 00
e -CY a k
Demostrución: E ( X )=
k=O k! - k=l (k - l)!.

Haciendo S = k - 1, encontramos que se convicrte en

00 -CY s+l
e a
E ( X )= = a.
S!
3=0

De modo semejante,

Haciendo nuevamente S = k - 1, obtenemos

+ 1)
00 ,--CaY S S 1
e-"aS
00
a
S
2
E ( 2 )= =acsT+ac"s!=Q. +a
S!
s=o s=o s=o
8.2 Ladistribución dePoisson como unalaproximacwna la . . . 2 11

[puesto quela primera suma representaE ( X ) ,mientras quela segunda


suma es iguala uno]. Luego,

V(X) = E ( X 2 )- ( E ( X ) y = (Y2 4-(Y - (Y2 = (Y.

Observacwn: N6tese la interesante propiedad que posee la variabie aleatoria


de Poisson: su esperanza es igual a su varianw.
-
8.2 La distribuciónde Poisson como una -
aproximación a la distribución binomial

La distribución d e Poisson desempeña un papel importante por derecho


propio como modeloprobabilistic0 apropiado para un gran número de
fenómenos aleatorios. Este punto se expondr-5 en l a sección siguiente.
Aquí nos interesa la importancia d e esta distribución para aproximarse
a las probabilidades binomiales.

EJEMPLO8.1. Supóngase que las llamadas telefónicas llegan a una


gran central telefónica y que en un periodoe:special d e tres horas (IS0
minutos) se ha recibido un total d e 270 llamadas, o sea, 1.5 llamadas
por minuto. Supóngase que, con base la evidencia anterior, queremos
calcular la probabilidad de recibir O, 1, 2, etc. llamadas durante los
pr6ximos tres minutos.
Al considerar los fenómenos d e llamadas recibidas, podríamos con-
cluir que encualquier instante es tan probable que ocurra una llamada
telefónica como en cualquier otro momento. Es decir, la probabilidad
permanece constante de “punto de tiempo” a “punto de tiempo”. La
dificultad es que aun en un intervalo de tiemlpo muy corto, el nilmero
de puntos no sólo es infinito sino que no puede ser enumerado. Esto
nos lleva a una serie de aproximaciones que describiremos ahora.
Para empezar, podríamos considerar la subdivisión del intervalo d e
tres minutos en nueve subintervalos de20 segundos cada uno. Podría-
mos considerar entonces cada uno d e esos nueve intervalos como un
ensayo d e Bernoulli durante el cual observamos una llamada (éxito)
o ningunallamada(fracaso)conP(éxito) = (1.5)20/60 = 0.5. Así
podríamosinclinarnos a decir que la probabilidad de dos llamadas
durante el intervalo d e tres minutos (es decir, 2 Cxitos en 9 ensayos con
P(Cxito) = O, 5) es igual a ( i)(l/qg
= 9/128.
La dificultad con esta aproximación es que ignoramos la posibilidad
de, digamos, doso tres, etc., llamadas durante uno de nuestros ensayos
2 12 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2

con periodos de 20 segundos. Si se considera esta posibilidad, el uso


anterior de la distribución binomial no sería legítimo, ya que esa dis-
tribución es aplicable sólo cuando existe una dicotomía, una llamada o
ninguna llamada.
Para evitar esta dificultad hacemos la aproximación siguiente y, d e
hecho, nos lleva a una sucesión completa de aproximaciones. Una ma-
nera de estar más o menos seguro de que al menos se recibe una lla-
mada en la central durante un intervalo de tiempo pequefio, es ha-
cer que ese intervalo sea muy corto. Así, en vez de considerar nue-
ve intervalos d e 20 segundos de duración, consideremos los 18 inter-
valos siguientes, cada uno de 10 segundos de duración. Podemos re-
presentar ahora nuestro experimento como 18 ensayos d e Bernoulli
con P(éxito) = P(recibirunallamadaduranteunsubintervalo) =
(1.5)10/60 = 0.25. Por tanto, P(dos llamadas durante el intervalo d e
tres minutos) = (1;)(0.25)2(0.75)16. Nótese que aunque ahora trata-
mos una distribución binomial diferente a la d e antes (es decir, que tie-
ne parámetros n = 18, p = 0.25, en vez d e n = 9, p = 0.5), el valor n,p
esperudo es el mismo, a saber, n p = H(0.25) = g(0.5) = 4.5.
Si continuamos de esta manera, aumentando el número de subin-
tervalos (es decir, n ) , disminuiremos al mismo tiempo la probabilidad
d e recibir una llamada (es decir, p ) d e tal manera que n p permanece
constante.
Así, el ejemplo precedente nos conduce a formular la pregunta si-
guiente: ?qué sucede a las probabilidades binomiales (:) pk( l - p ) n - k
si n + 00 y p -+ O, de tal manera que n p permanezca constante, es decir,
n p = CY?
Los cálculos siguientes dan la respuesta a este importante cuestiona-
miento.
Consideremos la expresión general para la probabilidad binomial,

-
-
n ( n - l ) ( n - 2 ) - ( n - IC + 1)p k (1 -
b!

Sea n p = (Y. Por tanto, p = a / n , y 1 - p = 1 - o / n .= ( n - cr)/n.


Sustituyendo todos los terminos que contienen p por sus expresiones
equivalentes en función de (Y,
obtenemos
8.2 La distribución de Poisson como una ,aproximacwna la . . . 2 13

P(X = k ) =
n(n - 1 ) . . . ( n - IC + 1 ) ($

z]
k!
k
IC! [(I) ( 1 -
= 'y ); (1 - ); e - . (I, - ")I n [1-
n-k

=5
k
b! [ ( I ) ( 1 - ); (1 - ); * * * -)I
(11 - k - 1

x (l-;)n(l-;)-k.

Ahora sea n + 00 d e tal manera que n.p = a permanezca constante.


Esto obviamente significa que p + O cuando n + 00, porquede
otra manera n p nopodríapermanecerconstante.(Deigualforma,
podríamos necesitar que n + 00 y p -+ O de tal manera que n p -+ 0.)
En la expresión anterior, los términos de la forma ( 1 - l / n ) , (1 -
2 / n ) ,. . . tienden a uno cuando n tiende a infinito, como lo hace (1 -
~ / n ) -Es ~ bien
. sabido (dela definición delndlmero e ) que (1 - a / n ) n -+
e--(y cuando n -+ OO.
A s í , límn+m P ( X = IC) = e - a a k / k ! Es decir, en el límite obtenemos
la distribución de Poisson con parámetro a. Este importante resultado
se resume en el siguiente teorema.

Teorema 8.2. Sea X una variable aleatoria distribuida binomialmen-


te con parámetro p (con base en n repeticiones del experimento).
Esto es,

P ( X = IC) = (;) P k ( l - P)n-k.

Supóngase que cuandon -+ 00, n p = a (constante), o equivalente-


mente, cuando n -+ 00, p + O tal que n p .+ a. En estas condiciones
tenemos

e "(y CY k
lím P ( X = IC) = --
n+cc IC! '
la distribución d e Poisson con parámetro a.

Obseruaciones: a) El teorema anterior esencialmente dice que podemos apro-


ximar l a probabilidades binomiales con las probabilidades d e la distribución
d e Poisson siempre quen sea grande y p pequeña.
2 14 La variable aleatoria dePoisson y otras variables aleatorias discretas 8.2

6) Ya hemos verificado que si S tiene una distribución binomial, E ( X ) =


n p , mientras que si X tiene una distribución de Poisson (con parámetro a),
E ( X ) = N.
c) L a distribución binomial se caracteriza por dos parfimetros, n y p , mien-
tras que la distribución de Poisson se caracteriza por unsolo parhnetro, N = np,
qne representa al número esperadod e éxitos por unidad de tiempo (o por uni-
dad (le espacio en alg'in ot.ro caso). Este parámetro también se designa como
irzrensidad de la distribución. Es importante distinguir entreel número espera-
d o d eocurrencias por unidad d e tiempo y el número esperado de ocurrencias
e n el tiempo especificado. Así, en el ejemplo 8.1, la intensidad es 1.5 llamadas
por minuto y, por lo tanto, el número esperado de llamadas en un periodo de
10 minutos, por ejemplo,sería 15.
d ) TambiCn podemos considerar el siguiente argumento para evaluar la va-
rianza de una variable aleatoria S d e Poisson con parámetro a: A' se puede
considerar como u n caso límite de una variable aleatoria Y distribuida bino-
mialmente con parhnetro n y p , donde n -+ 00 y p -+ O d e tal manera que
n p -+ N . Puesto que E ( Y ) = np y Var(Y) = TIP(1 - p ) , observemos que en el
límite Var(Y) "+ CY.

Se dispone de extensastablas para la distribución de Poisson. (E. C.


Molina, Poisson's Exponential Binonaid Limit, D. Van Nostrand Company,
Inc., Nueva I'ork, 1942). Una breve tabulación d e esta distribución se
da en el Apéndice.
Consideremos otros tres ejemplos adicionales que ilustranlas aplica-
ciones de la distribución d e Poisson mencionadas previamente.

EJEMPLO8.2. En una concurrida intersección de tráfico la probabi-


lidad p de que un automóvil tenga un accidente es muy escasa, digamos
p = 0.0001. Sin embargo, durante cierta parte del día, entre las 4 P M y
las 6 PM un gran número deautomóviles pasa por la intersección, diga-
mos 1000. En dichas condiciones, ¿cuál es la probabilidad de que doso
m i s accidentes ocurran durante ese periodo?
Formulemos algunas hipótesis. Supongamos, cn primer lugar, que el
valor anterior d e p es el mismo para cada uno de los automóviles. En
segundo lugar, supongamos quesi un automóvil tieneo no un accidente,
no depende de lo que lesuceda a cualquierotroautomóvil.(Esta
suposición, obviamente, no es realista; no obstante l a formularemos.)
A s í podemos suponer quesi X es el número de accidentes entre los 1000
automóviles que llegan, entonces S tiene una distribución binomialcon
p = 0.0001. (Otra hipótesis, no indicada de manera explícita, es que n,
el número de automóviles que pasa por la intersección entre las 4 P M y
8.2 La distribución de Poisson como una 'aproximacwnala . . . 2 15

las 6 PM está predeterminada en 1000. Desde luego, un planteamiento


más realista sería considerar n misma como una variable aleatoriacuyo
valor depende de un mecanismo aleatorio. Sin embargo, no haremos ,
esto aquí,sólo consideraremos n como fija.) Por tanto, podemos obtener
el valor exactó de la probabilidad deseada:

P(X 2 2) = 1 - P ( X = O) - P ( X = 1)
= 1 - (0.9999)1000 - 1000(0.0001)(0.9999)ggg.

La evaluación de los valores anteriores da origen a una dificultad


considerable. Puesto que n es grande y p e s pequeña, aplicamos el
teorema 8.2 y obtenemos la aproximación siguiente:

Por tanto,

P(X 2 2) E 1 - e -0.1 (1 + 0.1) = 0.0045.


EJEMPLO8.3. Supóngase que un proceslo de fabricación produce
artículos d e tal manera que cierta proporción (constante) d e artículos,
digamos p , son defectuosos. Si se obtiene un lote n de tales artículos,
la probabilidad de obtener exactamentek dekctuosos puede calcularse
de la distribución binomial como P ( X = k ) =: ( i )
p k ( 1 - p ) n - k , donde
X es el número dedefectuosos en el lote.Si n es grande y p es pequeña
(como sucede a menudo), debemos aproximarla probabilidad anterior
Por

e-np(np)k
P(X = k) N -.
IC!
Supóngase, por ejemplo, que un fabricante produce artículos de los
cuales alrededor de 1 en 1000 sondefectuo'sos.Estoes, p = 0.001.
Por tanto, usando l a distribución binomial, encontramos que en un lo-
te de 500 artículos la probabilidad de que ninguno sea defectuoso es
(0.999)500 = 0.609. Si aplicamos la aproximación d e Poisson, esta pro-
babilidad puede escribirsecomo = 0.61. La probabilidaddeen-
contrar 2 o más artículos defectuosos es,
de acuerdocon la aproximación
+
de Poisson, 1 - e-0.5(l 0.5) = 0.085.
2 16 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.2

EJEMPLO8.4. [Sugerido por un análisis en Cúlculo de probabilidades


d c A. Renyi(en alemán), VEB Deutscher Verlag der Wissenschaft,
Berlín, 19621.
En la fabricación de botellas d e vidrio, se encuentran partículas duras
y pequeñas en el vidrio fundidoa partir delcual se hacen las botellas. Si
aparece una sola partícula en una botella, Csta no puede usarse y debe
desecharse. Se supone que las partículas están esparcidas a l azar en el
vidrio fundido. Supondremos que el vidrio fundido se produce de tal
manera que el número de partículas es (en promedio) el mismo para
una cantidad constante d e vidrio fundido. Supóngase en particular que
en 100 kilos d e vidrio fundido se encuentran x de tales partículas y que
es necesario 1 kilo d e vidrio fundido para hacer una de estasbotellas.
Pregunta: ?Qué porccntaje debotellas tendrá que descartarse debido
a que son defectuosas? A primera vista la “solución” d e este problema
podría ser como sigue. Puesto que el material para 100 botellas contiene
x partículas, aproximadamente el x% de las botellas deberá desecharse.
Una pcqueíia reflexicin indicar& sin embargo, que la solución anterior
no es correcta, ya que una botella defcctuosa puede tener más d e 1
partícula, bajando así cl porcentaje debotellas dcfcctuosas obtenidas del
material que sobra.
A fin de obtener unasolución “correcta”, hagamos las siguientes su-
posiciones simplificadoras: a ) cada una d e las partículas puede aparecer
en el material de cada una de las botellas con igual probabilidad y b) la
distribución d e cualquicr partícula es independiente de cualquier otra
partícula. Con estas suposiciones, podenlos reducir nuestro problema
a l siguiente modelo de “urna”. EntreN urnas, se distribuyen al azar n
esferas. (CuAl es la probabilidad de que en una urna elegida a l azar se
encuentren exactamente X: esferas? (Las urnas corresponden desde lue-
go a las botellas, mientras que las esferas corresponden a las partículas.)
Siendo 2 el número de esfcras encontradas en una urna escogida
aleatoriamente, se deduce, dela hipótesis anterior, que 2 está distribui-
d a binolnialmente con parámetro 1/N. Por lo tanto,

P ( Z = X:)= (;) (;y (1 - +)““a

Supóngase ahora que el vidrio fundido se prepara en cantidades muy


grandes. De hecho supongamos quese prepara en unidades de100 Kg,
y que se han suministrado M d e tales unidades. Luego, N = l O O M y
8.2 La distribucidn dePoisson como unaaproximacidna la . . . 2 17

n = x M . Sea Q = z/100, lo que iguala la proporción de partículas por


botella. Así, N = n / a y la probabilidad anterior puede escribirse como

P ( Z = IC) = (;) ( q (1 - E)"-"


Así, cuando el proceso de producción continúa (esto es, A4 "+ m y por
tanto n + m),obtenemos.

"(y k
P ( Z = IC) N
e a
donde (Y = -.X
100
~

b!

Calculemos la probabilidad de que deba desecharse una botella. h a es


igual a 1 - P ( Z = O). Luego,P(botel1a defectuosa) N 1 - Si
el número de botellas producidas es muy grande, podemos identificar
la probabilidad de una botella defectuosa con l a frecuencia relativa d e
botellas defectuosas. Por tanto, el porcentaje d e botellas defectuosas es
aproximadamente l O O ( 1 - e Si desarrollamos l O O ( 1 - e -x/lOO )
en una serie deMaclaurin, obtenemos

[ (
2 3
X X
+ .. .)]
X
100 1 -
100 2( 3!(100)3

2 3
X X
=x--
2( 100) + 6(100)2 - * * *

A s í , si x es pequeria, la proporción de botellas desechadas es apro-


ximadamente x, como se sugirió primero. Sin embargo, para una x
grande esto ya no es válido. En caso que x = 100, el porcentaje de bote-
llas desechadas no es 100, sino que lOO(1 - e"') = 63.21%. Éste, es por
supuesto, un caso extremo y no se encontraria en un proceso controla-
do razonablemente. Supongamos quez = 30 (un númeromás realista).
Por tanto, envez d e desechar el 30% de nuevo nuestra solucióninicial),
desecharíamos sólo l O O ( 1 - = 25.92%. Podríamosobservar que si
x es razonablemente grande,es más económico producirbotellas de me-
nor tamaño. Por ejemplo,si necesitamos sólo 0.25 kg de vidrio fundido
por botella en vez de 1 kg, y si x = 30, entonces el porcentaje descartado
se reduce de 25.92% a 7.22%.
218 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.3

8.3 El proceso de Poisson

En la secci6n anterior se us6 la distribución d e Poisson como un medio


para aproximar una distribución conocida, a saber, binomial. Sin em-
bargo, a l distribución d e Poisson desempeña un papelm u y importante
por derecho propio, puesto que representa un modelo probabilístico
adecuado para un gran número de fenómenos observables.
Aunque no vamos a dar una deducción completamente rigurosa de
algunos resultados que vamos a exponer, el planteamiento general es
d e tal importancia que deberá tomarse en cuenta para comprenderlos,
aun cuando no podamos justificar cada uno delos pasos.
Para referirnos a un ejenlplo específico mientras concluinlos los dc-
talles maternfíticos, consideremos una fuented e material radiactivo que
emite partículas CY. Sea definidaXt como el nilmero departículas emiri-
das durante un periodo de tiempo específico [O, t ] . Vamos a hacer algu-
nas hipótesis acercad e la variable aleatoria (discreta)S t que nos pernli-
tirán determinarla distribución d e probabilidades d e X t . La posibilidad
d e estas hipótesis (recordando lo que A7t representa) se justifica por el
hecho de que la evidencia empírica sostiene una cantidad considerable
d e resultados teóricos que vamos a derivar.
Puede ser iltil señalar que en la deducción d e cualquier resultado
matemático debemos aceptar algunos postuladoso axiomas fundamen-
tales. E n la búsqueda de axiomas para describir fenómenos observables,
algunos axiomas pueden ser más apropiados(y menos arbitrarios) que
otros. Por ejemplo, al describir el movimiento de un objeto impulsado
hacia arriba con cierta velocidad inicial, podríamos suponer que la dis-
tancia sobreel suelo, llamémosla S, es una función cuadrática del tiempo
t ; es decir,s = at’ +bt + c . h t a sería dificilmente una hipótesis intuitiva,
d e acuerdo con nuestra experiencia. En su lugar, podríamos suponer
que la aceleración es una constante y luego d e esto deducir qllc S debe
ser una función cuadrática de t . Lo importante es por supuesto que si
debemos suponer algo con el propósito de elaborar nuestro modelo ma-
temático, preferiríamos suponer lo que esapropiado, envez de lo que
no lo es.
El mismo objetivo nos guía a elaborar un modelo probabilistico para
la emisión d e partículas a de una fuente radiactiva. La variable aleatoria
X t antes definida puede tomarlos valores O, 1 , 2 , . . . Sea P n ( t ) = P [ X t =
n ] , n = 0 , 1 , 2,...
Vamos a enunciar ahora las cinco hifiótesis siguientes.
8.3 El proceso de Poisson 219

A l : El número de partículas emitidas durante intervalos d e tiempo


no sobrepuestos son variables aleatorias independientes.
Aa: Si X t se define como antes y si Yt es igual al número de partículas I

emitidas durante [ t l ,t l + t ] ,para cualquier t l > O, las variables


aleatorias X t y E< tienen la misma distribución de probabilidn-
des. (En otras palabras, la distribwidn del número departículas
emitidas durante cualquier intervalo depende sólo de la longitud
del intervalo y no d e los puntos extremos.)
A3: p l ( A t ) es igual aproximadamente a X A t , si At es suficientemen-
te pequeña, donde X es una constante positiva. Esto lo escribi-
mos como P l ( A t ) Ant. En toda estu sección u ( A t ) b ( A t )
N N

significa que a ( A t ) / b ( A t ) -+ 1, cuando At-+ O. También su-


pondremos que At > O. (Esta hipótesis expresa que si el in-
tervalo es suficientemente pequeño,l a probabilidad d e obtener
exactamente unaemisión durante ese intervaloes directamente
proporcional a la longitud del intervalo.)
A4: CP&pk(At) NO. (Esto implica que p k ( A t ) -+ O, k 2 2.). Esto
significa que la probabilidad de obtenerdos o más emisiones en
un intervalo suficientemente pequeñ’oes despreciable.
As: A’o = O, o de manera equivalente flo(0) = 1. Estoequivale a
una condición inicial para el modelo que estamos describiendo.

Como lo demostraremos en breve, las cinco hipótesis anteriores ha-


rán posible que deduzcamos una expresión para p,(t) = P [ X t = n].
Saquemos ahora algunasconclusiones d e diclhas hipótesis.

a) Las hipótesis Al y A2 juntas implican que la variable aleatoria X t y


la misma distri -
[Xt+tnt- X t ] son variables aleatorias independlientes con
bución d e probabilidades. (Véase Fig. 8.1.)
I
,
I I

O
I I
t l+At
FIGURA8.1
b ) De las hipótesis A3 y A4 podemos concluir quc

c) Podernos escribir
220 La variable aleatoria de Poissort y otras variables aleatorias discretas 8.3

= PO(t)PO(At). [Véase la conclusión u ) . ]

N po(f) [I - AAt]. [Véase Ec.


la (8.2).]

d ) Entonces tenemos

I-Iaciendo At O, y observando que el lado izquierdo representa


--f

el cociente de l a diferencia de la fLnciÓn PO y, por tanto, tiende a p b ( t )


(más precisamente, a la derivada por la derecha, puesto que At > O),
tenemos.

&(t) = -X~o(t) o, equivalentemente, Pb ( t ) =


- -,A.
PO (2)
Integrando ambos miembros respecto a t , obtenemos In p o ( t ) = -Xt+C,
donde C es una constante d e integración. De la hipótesis A , encontra-
mos, al hacer t = O, que C = O. Luego,

e ) Considerando p l l ( t + At) = P [ X i + n t = n ] .
Ahora X,+Ai = n si y sólo si X 1 = X ? J [ X ~ +-A X~ t ] = n - T,

2 = O, 1 , 2 , . . . , n. Utilizando las suposiciones A , y A2, tenemos


8.3 El proceso de Poisson 22 1

Luego

Nuevamentehaciendo At --+ O, y observandootra vez que el lado


izquierdo representael cociente diferenciald e la función p , , obtenemos

h a representa un sistema infinito d e ecuaciones lineales diferenciales


d e diferencias. El lector interesado puede verificar que si definimos
la función q n por la relación q , & ( t ) = e X t p r L ( t )el
, sistema anterior se
transforma en qh(1) = Xq,-l(t), n = 1,2,. . Puesto que p o ( t > = e-Xt,
,I

encontramos queqO(t) = 1. [Nótese t a m b i h que q n ( 0 ) = O para n > O.]


A s í obtenemos, recursivamente,

En general, & ( t ) = Aq,-l(t) y, por tanto, q n ( t ) = (Xt)n/n!Al recordar


la definición d e q,, finalmente obtenemos

Hemos demostrado así que el número departículas emitidas durante


el intervalo de tiempo[O, t) de una fuenteradiactiva, conlas suposiciones
hechas anteriormente, es una variable aleatolria con una distribuciónd e
Poisson con parametros (A t).

Obsemacwnes: a) Es importante darse cuentade quela distribución d e Poisson


apareció como una consecuencia de ciertas suposilcioncs que hicimos. Esto sig-
nifica que cada vez que dichas suposiciones sean válidas (o al menos lo sean
aproximadamente) la distribución d e Poisson debe usarse como un modelo
222 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.3

apropiado. Resulta que hay nna gran cantidad de fenómenos para los cuales
es adecuadoel modelo de Poisson.
i ) Representemos por X't el número de llamadas telefónicas que llegan
a una central telefónica durante un periodo de tiempo de longitud t . Las
suposiciones anteriores se satisfacen aproximadamente, enespecial durante
el "periodo congestionado" del día. Luego, X't ticne una distribución de
Poisson.
ii) Representemos porX't el número deelectrones que salen del cfitodo de
un tubo al vacío. Nuevamente las suposiciones son apropiadas y, por tanto,
X t tiene una distribución de Poisson.
zii) El ejemplo siguiente (de astronomía)indica que el razonamiento an-
terior se puede aplicar no sólo al número deocurrencias de unevento du-
rante u n periodo d e tiempo fijo, sino también al número deocurrencias de
un evento dentro delos línlites fijados de unúrea o u n volu.me?z. Supcingase
que un astrónomo investiga una parte de la Vía Láctea y supóngase que
en la parte considerada la densidad de estrellas, llamémosla X, es constante
(Esto significa que en unvolumen de V (unidades cúbicas), se encontrarían,
en promedio, AV estrellas.) Sea X, igual al número de estrellas encontra-
das en una parte dela Vía Ljctea que tiene un volumen V . Si se satisfacen
las suposiciones anteriores (sustituyendo "volumen" por "tiempo", entonces
P [ X , = n] = (AV) n e - A " / n ! (Las suposiciones, interpretadas en este ejem-
plo, establecerían esencialmenteque el número deestrellas que aparecen en
partes no sobrepuestas del firmamento representavariables aleatorias intle-
pendientes yquela probabilidad d e que aparezca n& de unaestrclla en una
porción pequeña del cielo es cero.)
iv) Se nos ocurre otra aplicación en el campo biológico, si hacemos que
X A sea el número de células sanguíneas visibles en el microscopio, donde
el área de la superficie visible en el microscopio es dada por A unidades
cuadradas.
b ) L a constante X apareció originalmente como una constante de propor-
cionalidad en la hipótesis A3. Vale la pena mencionar las siguientes interpre-
taciones de X: si X t representa el número deocurrencias de un evento duran-
te un intervalo de tiempo d e longitud t , entonces, E ( X t ) = At y, por tanto,
X = [ E ( X t ) ] / trepresenta la ruzdn esperada con la cual se emiten las partícu-
las. Si X , representa el número deocurrencias d e algún evento dentro de un
volumen especificado V , entonces E ( X , ) = AV y, por lo tanto, X = [ E ( X , ) / V
representa la densidad esperada con la cual aparecen las estrellas.
c) Es importante seiíalar que nuestra exposición en la sección 8.3 no se
refirió sólo a una variable aleatoria X que posee una distribución d e Poisson,
sino que para cada t > O, encontramos que X t tenía una distribución de
Poisson con un parámetro dependiente de t . Tal colección (infinita) de variables
aleatorias también se conoce como proceso de Poisson. (De igual forma, se genera
8.3 El proceso de Poisson 223

un proceso de Poisson cada vez que ocurre un evento en algún intervalo de


tiempo de modo que se satisfagan las hipótesis Al hasta As.) De manera
análoga podemos definir un proceso de Bernoulli: si XI, Xz, . . . , X , , . . . son
los números de ocurrencias de eventos en 1 , 2 , . . . n, ensayos de Bernoulli,
entonces la colección de variables aleatorias X I ,. . . X,, . . . se llaman proceso
de Bernoulli.

EJEMPLO8.5. Una complicada maquinaria, cuando funciona per-


fectamente, puede producir una utilidad d e C: dólares por hora(C > 2)
a una compañía. Sin embargo, esta máquina tiene una tendencia a fallar
en momentos inesperados e impredecibles. Supóngase que el número
d e fallas durante cualquier periodo de longitud t horas es una varia-
ble aleatoria con una distribución de Poisson con parámetro t . Si la
máquina falla x veces durante t horas, la pérdida ocasionada (la impro-
+
ductividad d e la máquina más la reparación) e s igual a ( x 2 x) dólares.
Luego, la utilidad total P durante cualquier periodo det horas es igual
+
a P = Ct - ( X 2 X ) , donde X es la variable aleatoria que representa
el número de fallas de la máquina. Por tanto:, P es una variable aleato-
ria, y podría ser interesante elegirt (lo que está a nuestra voluntad)d e
manera tal que la utilidud esperudu sea maximizada. Tencmos

E ( P ) = Ct - E ( X 2 + X ) .

Según el teorema8.1 encontramos que E ( X ) = t y E ( x ~ > = t (t>2. +


Luego se deduce que E( P ) = Ct - 2t - t 2 . Para encontrar el valor
de t , para el cual se maximiza E( P ) , difcrenciamos E ( P ) e igualamos
a cero la expresión resultante. Obtenemos C - 2 - 2t = O, obteniendo
t = f ( C - 2) horas.

EJEMPLO8.6. Sea S t igualal número dc partículasemitidas por


una fuente radiactiva durante un intervalo de tiempo de longitud t.
Supóngase queXt tiene una distribución de Poisson con parámetro at.
Se instala un instrumento para anotar el número de partículas emitidas.
Supóngase que hay una probabilidad constante p d e q u e cualquier
partícula emitida no se cuente. Si Rt es igual al número de partículas
contadasdurante el intervalo específico, ?cuál es la distribución d e
probabilidades d e Rt?
Para X1 = x da&, la variable aleatoria ,Rt tiene una distribución
binomial con base enx repeticiones con parámetro (1 - p ) . Esto es,
224 La variable aleatoria de Poissott y otras variables aleatorias discretas 8.1

Usando la f6rmula d e la probabilidad total, (Ec. 3.4), tenernos

Sea i = X - k . Entonces,

P(R2 = IC) =

k pfft

A s í encontramos que Rt tiene una distribución d e Poisson con paráme-


tro (1 - p ) a t .

8.4 La distribucidn geomdtrica

Supóngase que efectuamos un experimento E y que estamos interesados


sólo en la ocurrencia o no ocurrencia de algún evento A . Supóngase,
como en la presentación d e la distribución binomial, que repetidamen-
te efectuamos E, que las repeticiones son independientes y que en cada
una de ellas P ( A ) = p y P ( A C ) = 1 - p ‘S q permanecen constantes.
Supóngase que repetimos el experimento hasta que A ocurre por pri-
Inera vez. (Aquí nos apartamos d e las hipótesis que conducen a la dis-
tribución binomial. Allí el número de repeticiones era predcterminado,
mientras que aquí es una variable aleatoria.)
Definamos la variable aleatoria X como el número de repeticiones
necesarias hasta incluir la primera ocurrencia de A. Así, S toma los
8.4 geométrica
La distribución 225

valores posibles 1 , 2 , . . . Puesto que X = si y sólo si las primeras ( k - 1 )


repeticiones d e E producen A', mientras quela k-ésima da por resultado
A, tenemos

P ( X = k ) = qk-'p, k = 1 , 2 , ... (8.5)

Se dice que una variable aleatoria con una distribución d e probabilida-


des, ecuación (8.5), tiene una distribucióngeométrica.
Un cálculo sencillo indica que la ecuación (8.5) define una distribu-
ción de probabilidades legítimas. Obviamente tenemos P ( X = k ) 2 O.
Y
m \
C P ( X = k ) = p ( l + q + q 2 +"=p
k=l
[&] = l.

Podemos obtener el valor esperado deX como sigue.

C O d k
;Q
CO

E(X)= kpqk-l = p
k=l k=l

(El intercambio de derivadasy sumatorias se-iustifica aquí puesto quela


serie converge para /qI < 1.) Un cálculo simlilar muestra que V ( X ) =
q / p 2 . (Nuevamente obtendremos los dos resultados en el capítulo 10,
usando un planteamiento distinto.) Para resumir lo anterior, tenemos
el teorema siguiente.

Teorema 8.3. Si S tiene una distribución geométrica como se da en


la ecuación (8.5),

E ( S )= l / p y V ( X ) =: q / p 2 .
Observación: El hecho de que E ( X ) sea el recíproco de p es interesante
intuitivamentc, puesto que dice que con valores pequeños de p = P ( A ) se
necesitan muchas repeticiones para que ocurra A,.

EJEMPLO8.7. Supóngase que el costo d e efectuar un experimento


es $1000. Si el experimento falla, se incurre en un costo adicional de
226 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.4

$300 debido a ciertos canlbios que deben efectuarse antes de que se


intente un nuevo experimento. Si la probabilidad d e éxito en cualquiera
d e los ensayos es 0.2, si los cnsayos aislados son independientes y si
los experimentos continúan hasta que se obtiene el primer resultado
exitoso, ?cuA es el costo espcrado del procedimiento completo?
Si C es el costo y S el ntímero de ensayos necesarios para obtener
+
i‘xito, tencmos que C = 1000X 300(X - 1) = 1300X - 300. Por tanto,

1
E ( C ) = 1300E(X) - 300 = 1300- - 300 = $6200.
O .2

EJEMPLO8.8. En cierta región, l a probabilidad de que ocurra una


tormenta con truenos en un día cualquiera durantemcses dos de verano
es igual a 0.1. Suponiendo la independencia de un día con otro, ?cu,il
es la probabilidad de que l a primera tormenta con truenos del verano
ocurra el día 3 del segundo mes?
Hagamos X el número de días (empezando el 1 del primer mes
hasta l a primera tormenta y buscamos P(,Y = 34), l a cual es igual a
(0.9)33(0.1) = 0.003.

EJEMPLO 8.9. Si la probabilidad de que cicrto examen dé una reac-


ción “positiva” igual 0.4,
a ¿cuál esl a probabilidad de que ocurran menos
d e 5 reacciones “negativas” antes d e la primera positiva? Haciendo que
Y sea el númcro de reacciones negativas antes d e la primera positiva,
tenemos

k = O, 1 , 2 , . . .
k
P(Y k ) = (0.6) (0.4),

Luego,

4
P(Y .( 5) = C ( 0 . 6 ) ” ( 0 . 4 ) = 0.92.
k=O

Obsemacww Si X tiene una distribución geométrica como la descrim en la


ecuación (8.5) y si hacemos Z = X - 1, podemos interpretar a 2 como el
número defallas q u e preceden al primer éxito. Tenemos queP ( Z = k) = q k p ,
k = O , 1 , 2 , .. ., donde p = P(éxito) y q = P(fal1a).

L a distribución geométrica tiene una propiedad interesante que se


resume en cl teorema siguiente.
8.5 Pascal deLa distribucidn 227

Teorema 8.4. Supóngase que X tiene una distribución geométrica


dada por la ecuación (8.5). Entonces para dos enteros positivos
cualesquiera S y t ,

P(S2 S +t I x > S) = P(X 2 t).


Demostracidn: Véase el problema 8.18.

Obseruaciones: a ) El teorema anterior indica que la distribución geométrica


“no tiene memoria” en el sentido siguiente. Sup’ongamos que el evento A n o
ha ocurrido durantelas primeras repeticiones d e E . Entonces, la probabilidad
de queno ocurra durantelas póximas t repeticiones es la misma que la proba-
bilidad de que no ocurra durante las primeras t repeticiones. En otras palabras,
la información d e ningiln éxito es “olvidada” en lo que se refiere a crilculos
subsecuentes.
b ) El recíproco del teorema anterior también es cierto: si la ecuación (8.6) es
válida para una variable aleatoria que toma sólo .valores positivos, entonces la
variable aleatoria debe tener una distribución geo:métrica. (No demostraremos
esto aquí. Se puede encontrar tal exposición en. An Introduction to Probability
Theory and Its Applications, d e Feller, John Wiley and Sons, Inc., 2a. ed., Nueva
York, 1957, p5g. 304.)
c) En el capítulo siguiente observemos que existe una variable aleatoria
continua con unadistribución que posee una propiedad análogaa la ecuación
(8.6),es decir, la distribución exponencial.

EJEMPLO8.10. Supongamosqueunmecanismo se inspecciona


alfinalizarcadadíaparaver si aún funcionaadecuadamente. Sea
p = P [falla durante cualquier día dado]. Por tanto, si X es el número
de inspecciones necesarias para obtener la primera falla, X’ tiene una
distribución d e probabilidad geométrica y tenemos P ( X = n ) = (1 -
p. De igual manera, (1 - ~ ) ~ - ‘=p P[el artículo se encontrará que
ha fallado en la n-ésima inspeccióny no enla ( n - 1)-ésima inspección].
El valor máximo d e esta probabilidad se obtiene resolviendo

Esto da

p(” - 1)(1- p)”-2(-1) + (1 -- p y - ’ = 0,

lo que equivale a
228 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.5

(1 - p)" [(l- p ) - (11 - l)p] = o,


d e la cual obtenemos p = l / n .

8.5 La distribución de Pascal

Si planteamos la siguiente cuestión, surge una generalización


obvia d e la
distribución gcométrica. Supongamos que un experimento se continúa
hasta que un evento particularz4ocurre por r-ésimavez. Si
.
P(A)=p , P(.4")= q = 1 - p

en cada una delas repeticiones, definimos la variable aleatoria Y como


sigue.
Y es el número de repeticiones necesarias para que A ocurra exacta-
mente T veces.
Necesitamos l a distribución d e probabilidades d e Y . Debe ser evidente
que si r = 1, Y tiene la distribución geometrica dada por la ecuación
(S.5).
Ahora Y = k si y sólo si A ocurre en la k-ésima repetición y preci-
samente A ocurrió ( T - 1) veces en las ( k - 1) repeticiones previas. La
probabilidad d e este evento es simplemente p (:It) p r - l q k - r , puesto
que lo que sucede enlas primeras (IC - 1) repeticiones es independiente
d e lo que sucede enl a k-ésima repetición.
Luego,

Es muy sencillo ver que para r = 1, lo anterior se reduce a la ecuación


(8.5). Una variable aleatoriaque tenga una distribuciónd e probabilida-
des dada por la ecuación (8.7) tiene una distribución d e Pascal.

Obseroacidn: La distribución de Pascal también se conoce como distribución


binomial negativa. La razón de esto es que a l verificar la condición

P(Y = k ) = 1

obtenemos
8.6 Relacióft entre l a s distribuciones binomial y de Pascal 229

lo cual obviamente es igual a 1. L a última igualdad del desarrollo en serie de

(- r ) ("In,
00

(1 - *)- =
n
n=O

que es igual a

después de algunas simplificaciones algebraicas y recordando la definición del


coeficiente binomial (generalizado) (ver la Obscrvación antes del Ej. 2.7).
Debido al exponente negativo ( - r ) en la cxpresi'ón anterior, esta distribución
se llama distribución binomial negativa. Para calcular E ( Y ) y V(Y) podemos
proceder directamente, tratando de calcular las diversas sumas, o bien pode-
mos proceder de la siguiente manera.

Sean
1= nilmero de repeticiones necesarias hasta incluir
2 la primera
ocurrencia deA.
Z2= número de repeticiones necesarias entre la primera ocu-
rrencia d e A hasta incluir l a segunda ocurrencia de'4.

2,= número de repeticiones necesarias entre la ( r - 1) ocurren-


cia hasta incluir la r-ésima d e A .
A s í vemos que todas las 2;son variables aleatorias independientes,
cada una d e las cualestieneunadistribucitingeométrica.También,
Y = Z1 +. -S&.. Por tanto, usando el teorema 8.3, tenemos el siguiente
teorema.

Teorema 8.5. Si E' tieneunadistribucitjn d e Pascal dada por la


ecuación (8.7), entonces,

EJEMPLO8.1 1. La probabilidad de que un experimentosea exitoso


es 0.8. Si el experimento se repite hasta que ocurran cuatro resultados
230 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.7

exitosos, (cuál es el número esperado de repeticiones necesarias? De lo


anterior, tenemos E (número de repeticiones)= 4/0.8 = 5.

8.6 Relación entre las distribuciones binomial y de Pascal

Sea X una distribución binomial con parámetros n y p (es decir, X’ =


número de éxitos en n ensayos d e Bernoulli con P(@xito) = p). Sea Y
una distribuciónd e Pascal conparámetros r y p (es decir,E’ = número de
ensayos d e Bernoulli necesarios para obtenerT éxitos con P(éxito)= p).
Por tanto, se establece la siguiente relación:

a ) P ( Y 5 n) = P ( X 2r),
6) P(Y > n.) = P ( X < r).

Demostrución: a) Si hay r o más éxitos en los primeros n ensayos,


entonces es necesario n o menos ensayos para obtener los primeros r
éxitos.
6) Si hay menos que r éxitos en los primeros n ensayos, entonces se
necesitan más d e n ensayos para obtener r kxitos.

06servacwnes: a ) las propiedadesanteriores hacen posible el empleo d e


la distribuci6n binomial tabulada para evaluar probabilidades asociadns con
la distribución d e Pascal. Por ejemplo, supóngase que deseamos calcular la
probabilidad de que m& d e diez repeticiones sean necesarias para obtener el
tercer éxito cuandop = P(txito) = 0.2. Tenemos, usando la notación anterior
para X y 17,

P ( Y > 10) = P ( X < 3) =


2

k=O
(~ ) ( 0 . 2 ) k ( 0 . 8 ) 1 0 -=k 0.678
(de la tabla del Apéndice).
6) Comparemos en forma brevel a s distribuciones binomial y de Pascal. En
cada uno de los casos, nos interesan los ensayos repetidos de Bernoulli. La
distribución binomial aparece cuando consideramos un número fijo (digamos
n ) d e tales ensayos yestamos interesados en el número deéxitos que ocurren.
La distribución de Pascal se encuentra cuando prefijamos el número de éxi-
tos que debemos obtener y luego anotamosel número deensayos d e Bernoulli
necesarios Esto cs particularmente litil para el problema estadistico que pre-
sentaremos con mayor detalle más adelante (Véase el Ej. 14.1).
8.7 La distribución hipergeométrica 23 1

8.7 La distribucidn hipergeomktrica ~

Supóngase que tenemos un lote de N artkulos, de los cuales r son


defectuosos y ( N - r ) son no defectuosos. Supóngase que escogemos
al azar n artículos del lote ( n 5 N ) , sin reposición. Sea X el número
de artículos defectuosos encontrados. Puesto que X = k si y sólo si
obtenemos exactamentek artículos defectuosos(de los r defectuosos del
lote) y exactamente ( n- k ) no defectuosos [delos ( N - T ) no defectuosos
del lote], tenemos

Se dice que una variable aleatoria discreta que tiene la distribución de


probabilidades d e la ecuación (8.9) tiene una distribwión hipergeornétrica.

Obseroacwn: Puesto que (z) = O cada vez que b > a , si a y b son enteros
no negativos podemosdefinir las probabilidades anteriores para toda k =
O, 1 , 2 , . . . Obviamente no podemos obtener más que r defectuosos, pero la
probabilidad cero será asignada en ese evento segúnla ecuación (8.9).

EJEMPLO8.12. Se embarcan motores elktricos pequeños en lotes


de 50. Antes que aceptartal cargamento, un inspector elige 5 motores y
los inspecciona. Si ninguno de ellos es defectuoso, el lote
se acepta. Si se
encuentra que unoo más son defectuosos, se inspecciona elcargamento
completo. Supongamos que en realidad hay tres motores defectuosos
en el lote. ?CuA es la probabilidad de que S(: rcquiera una inspección
del 100%.
Si hacemos que x' sea el número de motores defectuosos encontra-
dos, se necesitará una inspección del 100% si y sólo si X 2 1. Luego,

Teorema 8.6. Sean X una distribución hipergeométrica dada por la


ecuación (8.9) y p = r / N , q = 1 - p . Entlonces tenemos
232 La variable aleatoria de Poisson y otras variables aleatorias discretas 8.8

a) E ( X )= np;

c ) P ( X = IC) p” (;) p k ( l- p ,

Para N g r a n d e .

Demostmcidn: Dejaremosallector los detalles de la demostración.


(Vease el Prob. 8.19.)

Obseruacwn: La propiedad c) del teorema 8 . G establece que si el tamaño N


del lote es suficientemente grande, la distribución d e X puede ser aproximada
por la distribución binomial. Esto es razonablemente intuitivo. La distribu-
ción binomial seaplica cuando muestreamoscon sustitución (puesto queen ese
caso la probabilidad de obtener un artículo defectuoso permanece constante),
mientras que la distribución hipergeométrica se aplica cuando muestreamos
sin sustitución. Si el tamaño del lote es grande, no hay gran diferencia si un
articulo en particular se devuelve o no al lote antes d e escoger el siguiente.
LA propiedad c ) del teorema8.6 es simplemente una expresión mntem5tica d e
ese hecho. Nótese también que elvalor esperado de unavariable aleatoria hi-
pergeométrica , Y es el mismo que el de la variable aleatoria correspondiente
distribuida binomialmente, mientras quela varianza d e X es un poco m5s pe-
queña que la correspondiente en elcaso binomial. El “término de corrección”
( N - n ) / ( N - 1) es aproximadamente igual a 1, para un N grande.

Podemos ilustrarel significado de c) con el siguiente ejemplo sencillo.


Supóngase que queremos evaluar P ( X = O).
Para n = 1 obtenemos, de la distl-ibución hipergeomi.tl-ica, P ( S =
O) = ( N - .)/N = 1 - r / N = q. De la distribución binomial obtenemos
directamente P ( S = O) = Q. Por tanto estas respuestas son las mismas,
como deberían ser e n efecto, para n = 1.
Para n = 2 o b t e n e m o s d ela distribucicin hipergeométrica,

$) (1 &).
N-rN-r-1
P ( X = O) = -
N N-1 = (1 - -

.,
De l a distribución binomial obtenemosP ( X = O) = q2 . Debe observarse
q u e (1 - r / N ) = (1,mientras q11e [I - Y/( N - I)] es casi igual a q.
8.8 La distribucidn
multinomial 233

En general, la aproximación d e la distribución hipergeométrica mc-


diante la distribución binomial es muy buena si n / N 5 0.1.
-
8.8 1.u distribución multinomial
4,*

Finalmente consideremos una variable aleatoria discreta importante de


mayor dimensión que se puede concebir colmo una generalización d e
la distribución binomial. Consideretnos un experimento E , su espacio
muestra1 S y una partición de S en k eventos mutuamente excluyentes
A l , . . . ,Al,. (Es decir, cuando se efectúa E uno y sólo uno de los even-
tos A ; ocurre.) Considérese n repeticiones independientes de E . Sea
p; = P ( A ; ) y supóngase que p ; permanece constante durante todaslas
I;
repeticiones.Desdeluegotenemos p ; = 1. Definamos las variables
aleatorias X I , . . . ,XI, como sigue.
X; es el número de veces que A; ocurre cntre las n repeticiones d e
E , i = 1,...,IC.

Las X; no son variables aleatorias independientes, puesto que


X; = n. Entonces,tanprontocomo el valor decualquierade las
( k - 1) variables aleatorias es conocido, se determina el valord e la otra.
Tenemos el resultado siguiente.

Teorema 8.7. Si X;, i = 2,. . . ,k están definidas como antes, tenernos

donde n.; = n.

Demstracidn: El argumento es idéntico al utilizado para establecer


las probabilidades binomiales. Simplemente debemos observar que el
n h n e r o d emaneras de agrupar n objetos, rill d e los cuales son de una
clase, n2 d e los cuales son de una segundaclase, . . . ,nk de los cuales son
de unab-ésima clase, está dado por

n!
n l ! .f . nl,!

Obseruuciones: a) Si k = 2, lo anterior se reduce a la distribución


binomial. En este caso designamos los dos eventos posibles con “éxito”
y “fracaso”.
234 La oariable aleatoria de Poisson y otras variables aleatorias discretas

b) LA distribución anterior se conoce como distribución multinomial de


f)ruDabiZidmfes. Recordemos que los términos de la distribución binomial
sc obtuvieron del desarrollo de la expresión binomial [ p + (1 - p ) l n =
E;=, (:) p'(1 - De maneraanáloga, las probabilidades ante-
riores puedcn olJtcnersc de un desarrollo de la expresión multinomial
(p1 + +. .+*

Teorema 8.8. Supóngase que ( S I ) . . . , S,)


tiene una distribución
binonlial dada por la ecuación (8.10). Entonces,

E ( s ; ) = npi y V ( X ; ) = np;(l - p i ) , i = 1 , 2 , . . . ,b.

Denzosll-ación: esta es una consecuencia inmediata d e la observación


que cada S i , como se definió antcriormcnte, tiene una distribución
binomial con probabilidades de éxito (es decir, la ocurrencia deA ; ) igual
a pi.

EJEMPLO8.13. Se fabrica unabarra de unlargo específico. Supónga-


se que el largo verdadero S (en pulgadas) es una variable aleatoria dis-
tribuida uniformemente en [lo, 121. Supóngase que sólo nos interesa
saber si ha ocurrido uno delos tres eventos siguientes:

Al = {X < 10.5), A2 = (10.5 5 S 5 11.8) y A3 = { S > 11.8).

Tenemos

A s í , si sc !&brican 10 d e tales barras, la probabilidad de obtenerexac-


tamentc 5 barras de longitud menor que 10.5 pulgadasy exactamente
2 de longitud mayor que l l . S pulgadas esti dada por

10!
(0.25)5(0.G5)3(0.1)2
5!3!2!

PROBLEMAS
8. l.Si ,X Licnc u n a distribuci6n de Poisson con parhrnetro p y si P ( X = O) =
0.2, calcular P ( S > 2).
Problemas 235

8.2. Supóngase que S tiene una distribución d e Poisson con parsmetro


X.Encontrar el valor d e k para el cual P ( X = k ) es la mayor. [Zndkacih:
Comparar P ( S = k ) con P ( X = k - I).]
8.3. (Este problema se tomó d e Probability and Statistical Inferencef o r Engineers
por Derman y Klein, Oxford University Press, Londres, 1953.) El n6mero
d e buques tanque digamos N , que llegan cada día a cierta refinería tiene
una distribución de Poisson con parsmetro X = 2. Las actuales instalaciones
portuarias pueden despachar tres buques al !Si día.
m5s de tres buques-tanque
llegan en un día,los restantes deben enviarsea otro puerto.
a ) En un día detcrminado, Zcuril es la probabilidad de tener que hacersalir
buques-tanque?
b ) ?En cu5nto t l e k n aumentar las instalaciones actuales para permitir la
atención a todos los buques-tanque aprosinmdamente el 90% de los dírls?
c) ¿Curil es el número esperado de buques-tanque quellegam al día?
d ) ?Cui1 es el número mis probable de buques-tanque que llegan diaria-
mente?
e ) ?Cui1 es el número esperado de buques-tanque que se atienden diaria-
mente?
J) ZCuA es el número esperado d e buques-tanque devueltos cliariamente?
8.4. Suponer qne la probabilidad de que un artículo producido por una
máquina especial sea defectuoso es igual a 0.2. Si 10 artículos se seleccionan
al azar, ?cuál es la probabilidad de que no sc encuentre mris de un artículo
defectuoso?Usar las distribucionesbinomial y de Poisson y comparar Ins
respuestas.
8.5. Una compañía d e seguros ha descubierto que sólo alrededor del 0.1%
de la población tiene ciertotipo d e accidente cadamío. Si los 10 O00 asegurados
fileran seleccionados aleatoriamente en la poblacitjn, Zcuril será la probabilidad
de queno m& d e 5 d e estos clientes tenga un accidente d e ese tipo el próximo
año?
8.6. Supóngase queX tienc una distribución de Poisson. Si

P ( S = 2) = $P(X= l ) ,

calcular P ( X = O) y P ( S = 3).
8.7. Un proveedor d e películas produce al aiio 10 rollos d e película espe-
cialmente sensible. La película debe descartarse si no se vende dentro del año.
Experiencias anteriores indican que D , la demanda (pequeña) para la pelícu-
la es una variable aleatoria con distribuciónd e Poisson con parámetro 8. Si se
obtiene unautilidad de $7 en cadarollo vcndido, mientras que ocurre una pér-
dida de$3 en cada rollo que debe ser descartado, calcular la utilidad esperada
que el fabricante puede obtenercon los 10 rollos que produce.
236 La variable aleatoria de Poisson y otras variables aleatorias discretas

8.8. Supóngase que una fuente radiactiva emite partículas y que el número
d e tales particulas emitidas durante el periodo de una hora tiene una distri-
bución d e Poisson con parámetro X. Se emplea un instrumento para contar
y anotar el nilmero d e las partículas emitidas. Si más d e 30 partículas llegan
durante cualquier periodo de una hora, el instrumento que anota es incapaz
d e controlar el exceso y simplemente anota 30. Si Y es la variable aleatoria
definida como el número particulas
de anotadas por el instrumento que cuenta,
obtener la distribución d e probabilidades d e Y .
8.9. Supóngase que una fuente radiactiva emite partículas y que el número
d e las que se emiten durante un periodo de una hora tiene unadistribución
de Poisson con parámetro X. Consideremos que el instrumento para contar
esas emisiones en ocasiones falla al anotar una partícula emitida. Supóngase
específicamente que cualquier particula emitida tiene una probabiliclad p de
ser anotada.
a ) Si Y está definida como el número de partículas anotadas, ?cuál es una
expresión para I s distribución d e probabilidades de Y ?
b ) Calcular P ( Y = O) si X = 4 y p = 0.9.
8.10. Suponer qne undepósito contiene 10O00 partículas. La probabilidad
de que una de esas partículas salga del depcisito es igual a 0.0004. ?Cuál es
la probabilidad d e que ocurran in& d e 5 salidas? (Puede suponerse que Ins
diversas salidas son independientesunas d e otras.)
8.1 1. Supóngase que unlibro d e 585 páginas contiene 43 errorestipogrrifi-
cos. Si esos errores están distribuidos aleatoriamente alo largo del libro, ¿cuál
es la probabilidad de que 10páginas seleccionadas al azar esténlibres de erro-
res? [Sugerencia: Suponer que X = número de errorespor página tiene una
distribución de Poisson.]
8.12. Una fuente radiactiva se observa durante 7 intervalos cada uno de 10
segundos d e duración y se cuenta el número de particulas emitidas durante
cada periodo. Suponer que el nilmero de partículas emitidas, digamos X , du-
rante cada periodo observado tiene una distribución d e Poisson con parámetro
5.0 (es decir, las partículas se emiten a razón de 0.5 partículas por segundo).
a ) ?Cuál es la probabilidad de que encada uno delos 7 intervalos d e tiempo,
se emitan 4 o más partículas?
b ) ?Cuál es la probabilidad d e que al menos en uno de los 7 intervalos d e
tiempo se emitan4 o más partículas?
8.13. S e ha encontmdo que el nirmero d e fallas de transistores en uncompu-
t d o r electrónico en cualquier periodo de una horase puede considerar como
una variable aleatoriaque tiene una distribuciónd e Poisson con paránletro O . 1
(es decir, en promedio hay una hlla de untransistor cada 10 hora..). Se inicia
cierto proceso que necesita 20 horas d e tiempo de cómputo.
Problemas 237

a) Encontrar la probabilidad de que el procescb anterior pueda completarse


exitosamente sin una falla. (Sesupone que la máquina se considera inoperante
sólo si fallan 3 o más transistores.)
6) Lo mismo q u e en a), excepto que la máquina se considera inoperante si
fallan 2 o más transistores.
8.14. Al formar números binarios con n dígitos, la probabilidad de que apa-
rezca un dígito incorrecto es, digamos,
0.002. Si los errores son independientes,
Ccuál es la probabilidad de encontrar cero, uno o más de un dígito incorrec-
to en un número binario de 25 dígitos? Si el computador forma lo6 de tales
números de 25 dígitos por segundo, ?cuál es la probabilidadde que se forme
un número incorrecto durante cualquier periodo de un segundo?
8.15. Cada semana se emplean dos procedimientos independientes en la
operación de lanzamiento de cohetes. Supóngase que cada uno de los procedi-
mientos se continúa hasta que se produce un lanzamiento exitoso. Se supone
que al usar el procedimiento I, P ( S ) , la Probabilidad de un lanzamiento exi-
toso es igual aP I , mientras que para el procedimiento 11, P ( S ) = ~ 2 Además,
.
se suponeque cada semana se hace un intento con cada uno de los dos méto-
dos. Representar con X1 y X2 el número de semanas necesarias para obtener
un lanzamiento exitosopor medio de I y 11, respectivamente. (Luego, X1 y S 2
son variables aleatoriasindependientes, cada una con distribución geométrica.)
Sea W el mínimo (X,, X2) y sea Z el máximo (XI, X2). Por tanto, W repre-
senta el número de semanas necesarias para obtener un lanzamiento exitoso,
mientras que 2 representa el nilmero de semanas necesarias para obtenerlan-
zamientos exitosos- con ambos procedimientos. (Entonces si procedimiento
el I
da
- como resultado S S S S , mientras que el procedimiento I1 da como resultado
SSS, tenemos W = 3 y 2 = 4.)
a) Obtener una expresión para la distribución de probabilidades de I.V.
[Indicacio'n: Expresar, en términos de X 1 y Xp, el evento {W = k}.]
6) Obtener una expresión para la distribución de probabilidades de 2.
c) Escribir nuevamentea s expresiones anteriores si p l = p 2 .
l
8.16. Se arman cuatro componentes en un s o b aparato. Los componentes
originan hentes independientes y Pi = P(i4simo componente es defectuoso),
i = 1,2,3,4.
a) Obtener una expresión de la probabilidad para que el aparato completo
funcione.
6) Obtener una expresión de la Probabilidad para que al menos tres com-
ponentes funcionen.
C) Sip1 = p2 = 0.1 yp3 = p4 = 0.2, calcular la probabilidadde que funcionen
exactamente dos componentes.
8.17. Un mecánico mantiene un gran númerode arandelas en undepósito.
El 50%de éstas sonde pulgada de diámetro, el 30%de & pulgada de diámetro
238 La variable aleatoria de Poisson y otras variables aleatorias discretas

y el 20% restante d e $ pulgada d e diámetro. Se supone que se eligen al azar


diez arandelas.
a) ?Cuál es la probabilidad de que haya exactamente cinco arandelas de
pulgada, cuatro de de pulgada y una d e d e pulgada?
b ) ? C d 1es la probabilidad de que sólo haya dos clases d e arandelas entre
las elegidas?
c) ¿CuA es la probabilidad de quelas tres clases d e arandelas estén entrelas
elegidas?
d) ?Cuál es la probabilidad de quehaya tres de unaclase, tres de otra clase
y cuatro d e la tercera clase en unamuestra d e 1O?
8.18. Demostrar el teorema 8.4.
8.1 9. Demostrar el teorema 8.6
8.20. El nilmero d e particulas emitidas por una fuente radioactiva durante
un periodoespecífico es una variable aleatoria conuna distribución d e Poisson.
4,
Si la probabilidad d e ninguna emisión es igual a ?cuál es la probabilitlatl de
que ocurran2 o mjs emisiones?
8.21. Supóngaseque S t , el nlimero de partículas emitidasen t horas por una
fuente radiactiva, tiene una distribución de Poisson con parámetro 20 1. ? C u d
es la probabilidad de que exactamente 5 particulas sean emitidas durante un
periodo de 15 minutos?
8.22. La probabilidad de que el lanzamiento de un cohete sea exitoso es
igual a 0.8. Supóngase que se hacen ensayos hasta que ocurren3 lanzamientos
esitosos. ?CuA es la probabilidad de quesean necesarios G intentos? ?Cuál es
la probabilidad de quesean necesarios menos d e 6 intentos?
8.23. En la situación descrita en el problema 8.22 suponer los queensayos d e
lanzamiento se hacen hasta que ocurren tres lanzamientos consecutivos exitosos.
Responder las preguntas formuladas en el problema prek' '10 en este caso.

8.24. Considérese nuevamente la situacitjn descrita en el problema 8.22.


Supringase que cada uno delos ensayos de lanzamiento cuesta$5000. Ademris,
un lanzamiento que fracasa produce un costo adicional d e $560. Calcular el
costo esperado para la situaci6n descrita.
8.25. Con X y Y definidas como e n la sección 8.6, probar o r e f b t r lo
siguiente:

P ( Y < 72) = P ( X > Y)


9.1 Introducción
En este capítulo proseguiremos la tarea que nos planteamos en el ca-
pítulo 8, y estudiaremos con detalle diversas variables aleatorias conti-
nuas importantes y sus características. Como señalamos antes, muchos
problemas se hacen matemáticamente mássencillos alconsiderar un re-
corrido "idealizado" para una variable aleatoria X , en el cual todos los
números realesposibles (en algún intervalo eslpecífico o conjuntos de in-
tervalos) pueden considerarse como resultadosposibles. De esta mane-
ra llegamos a las variables aleatorias continuas. Muchas de las variables
aleatorias que ahora presentaremos tienen aplicaciones importantes y
diferiremos hasta un capítulo posterior la exposicibn d e algunas de sus
aplicaciones.
9.2 La distribución normal
Una de las variables aleatorias continuas más ]notables esla siguiente.
Definición. Lavariablealeatoria X, quetomatodos los valores
reales, "o0 < x < 00,tiene una distribución normal (o gaussiana)si
su fdp es de la forma
240 Algunas
variables
aleatorius
continuas
importantes 9.3

Los parámetros p y u deben satisfacer las condiciones -m < p <


m, u > O. Puesto que tendremos diversas ocasiones para referir-
nos a la distribución anterior, utilizaremosla notación siguiente:A-
tiene la distribución N ( p , u 2 )si y sólo si su cfistribucicin de proba-
bilidades está dada por la ecuación (9.1). [Con fkecuencia usamos
la notación exp ( t ) para representar E t . ]

Será hasta el capítulo 12 donde se exponga el porqué de la gran im-


portancia de esta distribución. Ahora simplemente indicaremos que la
distribución normal sirve como u n a afiroximución excelente a una grun cantidad
de distribuciones que tienen importancia práctica. Aúnmás, esta distribu-
ción tienevarias propiedades matemáticas apreciables que hacen posible
deducir resultados teóricos notables.

9.3 Propiedades de la distribución normal

a)Comprobemos que f es una fdp legítima. Evidentemente f(x) 2 O.


Además debemos verificar que S_'," f(z)dx = 1. Notemos que si t =
(x - p ) / u , podemos escribirS_'," f ( z ) d z como (1/&) S,- +m ,-t2 12 dt
= I.
El "truco" utilizado para evaluar esta integral (y esto es un truco) es
considerar, en ves d e I, el cuadrado de esta integral, llamada 12. A s í ,

Introduzcamos coordenadas polarespa.ra evaluar esta integral doble:

S = r cos C Y , t = r sen CY .

Luego, el elemento d e drea ds dt se transforma en T d r da. Como S


y t varían entre -m y +m, r varía entre O y m,mientras que a varía
entre O y 2ír. Así,
9.3 Propiedades de la distribución normal 241

X=p

Por lo tanto,I = 1 como se iba a demostrar.


FIGURA9.1

b ) Consideremos la forma d e la gráfica d e f . Tiene la muy conocida


forma de campana que se muestra enl a figura 9.1 Puesto quef depende
sólo d e x niediante la expresión (x - ,u)?, es evidente que la gr’f 1ca a de
f será simdtrica, respecto a p. Por ejemplo, si x = p +2, (x - p )2 =
+
(p 2- = 4, mientras que parax = p - 2, (:z- p ) 2 = ( p - 2 - p )2 = 4
también.
El parámetro (T puede interpretarse en forma geométrica. Observe-
mos que para 2 = IL la gráfica d e f es cónciava hacia abajo. Cuando ~

x -+ f m , f ( x ) -+ O, asintóticamente. Puesto que f(x) >_ O para todo 1


x, esto significa que para grandes valores de x (positivos o negativos),
la gráfica d e f es cóncava hacia arriba. El punto en el cual cambia la
concavidad se llama punto de inflexión y se determina al resolver la
ecuación f”(x) = O. Cuando hacemos esto, encontramos que los puntos
d e inflexión ocurren en x = p f u. Esto es, cr unidades a la derecha y
a l a izquierda d e p , la gráfica d e f cambia d e concavidad. Así, si (T es
relativamente grande, la gráfica d e f tiende a ser “achatada”, mientras
que si (T es pequefia la gráfica d e f tiende a ser muy “aguzada”.
c) Además d e la interpretación geométrica d e los parámetros p y o,
el siguiente significado 131-obabilístico o import-ante puede asociarse con
esas cantidades. Consid6rese

Haciendo z = (x - / / . ) /yaobservando que dx = (T d z , obtenemos


242 Alg~rnas variables aleatorias continuas importantes 9.3

L a prilnera de las integrales anteriores es igual a cero puesto que el


illtcgrando, 1lanli.moslo g ( z ) , tiene la propiedad de que g ( z ) = " ~ ( - 2 )
y, por lo tanto, g es una función impar. La segunda integral (sin el[actor
1 1 ) rcprescnta el rirca total bajo la fdp normal y, por lo tanto, es igual a

la unidad. Luego, E ( S ) = p .
A continuaci6n consideremos

Haciendo nuevamente, 2 = (x - p ) / ~obtenemos


,

Nuevamente, la segunda integral es igual a cero por el argumento


antes usado. La última integral (sin el factor p 2 ) es igual a la unidad.
Para calcular (1 /JZ;;> S_'," z2e-z2/2 dt, integramos por partes hacien-
do = dv y z = u. Luego, v = mientras
que dz = d u .
Se obtiene

+
Luego E ( . x ~ >= cr2 p 2 , por tanto, V(X> = E ( . Y ~ > - ( E ( s ) ) ~= 02 .
Así encontramos que los dos parúmetros p 2 y 02,que caructerizun la distribucidn
nornzul son la esperanzu y la van'anza de X, resllectivamente. Para decirlo
con otras palabras si sabemos que X est5 distribuido normalmente, sólo
9.3 Propiedades de i'a distribución
normal 243

sabemos que s u distribución d e probabilidades es d e cierto tipo ( o pcr-


tenece a cierta familia). Si además conocemos E ( S ) y V(X), la distribu-
ción de X está especificada por completo. Como mencionamos antes,
la gráfica d e la fdp de una variable aleatoria distribuida normalmente
es simétrica respecto a p , El achatamiento d e la gráfica se determina
por 02, puesto quesi X tiene una distribuciónN ( p , o:) y Y tiene distri-
bución N ( p ,o;), donde o: > o;, entonces sus fdp tendrían las formas
relatizm que se muestran enla figura 9.2.

FIGURA9.2

d ) Si X ticncunadistribución N ( 0 , l ) decimos que X tiene una


distribución nomal estundarizadu. Esto es, la fdp de X puede escribirse
como

(Usaremos la letra 'p sólo para la f d p d ela variable aleatoriaX anterior.)


L a importancia dela distribución normal estandarizada se debe a l hecho
de que esta tubuludu. Cada vez que X tiene una distribución N ( p , a 2 )
siempre podemos obtenerla forma estandarizada tomando simplemen-
te una función lineal d e X, como lo indica el teorema siguiente.

Teorema 9.1. Si X tiene la distribución N ( p , 0 2 ) y si Y = a S + 6,


entonces Y tiene l a distribución N ( a p + 6 , a 2 0 2 ) .

+
Demostrucidn: El hecho d e q u e E ( Y ) = up b y que V ( Y )= a 2 0 2
se deduce en forma inmediata de las propiedades de la esperanza y la
varianza expuestas en el capítulo 7. Para delmostrar que d e hecho Y
está distribuida normalmente, podemos aplicar el teorema 5.1, puesto
244 Algunas
variables
aleatorias
continuas
importantes 9.4

+
que u,A7 b es una función de S decreciente o creciente, dependiendo
dcl signo de a. Luego, si g es la fdp de Y , tenemos

que representala fdp de unavariable aleatoriacon distribución N ( n i ~ +


b, u202).

Corolario: Si X tienedistribución N ( p , 0 2 ) y si Y = ( X - /')/o,


entonces Y tiene distribución N(0,l).

Demostracidn: Es evidente que Y es una función lineal de S y, por


tanto, se aplica a l teorema 9.1.

Obsemzcwn: La importancia d e este corolario es que al cambiar las unidades


en las cuales se mide la variable podernos obtener l a distribución estandarizada
(véase d). N hacer esto, obtenemos una distribución con parAmetros no espe-
cificados, lo cual es u n a situación muy propicia desde el punto de vista d e la
tabulación d e la distribucibn (véase la próxima secci6n).

9.4 Tabulación de la distribución normal

Supóngase que X tiene distribución N ( 0 , l ) . I,uego,

Esta integral no puede evaluarse por métodos ordinarios. (La dificul-


tad proviene del hecho de que no podemos aplicar el teorema funda-
mental del cAlculo, puesto que no podemos encontrar una función cuya
derivada sea igual a e - " I ' . ) Sin embargo, los mCtodos d e integraci6n
numérica pueden usarse para evaluar integrales de la forma anterior, y
de hecho P ( S 5 S) ha sido tabulado.
La fda de la distribución normal estandarizadase denotar6 consisten-
temente con @. Esto es,
9.4 Tabulacwn de la distribución normal 245

(9.3)

(Véase la Fig. 9.3.) La función ip se ha tabulado con amplitud,y en el


Apéndice se proporciona un extracto de dicha tabla. Podemos usar aho-
ra la tabulación d e la función @ con
el objeto d e evaluar P ( u 5 X 5 b),
t
$(X)

donde X tiene la distribución


estan-

x=s
La importancia particular de la
tabulación
anterior
debe
se hecho
al FIGURA9.3
de que si X tiene cualquier distribu-
ción normal N ( p ,a 2 ) ,la función tabulada ip puede usarse para evaluar
probabilidades asociadas con X .
Simplemente usamos el teorema 9.1 para. observar que si X tiene
distribución N ( p ,a ’ ) , entonces Y = ( X -- p ) / u tienedistribución
N(O,1). Por tanto,

De la definición d e ip (véase la Fig. 9.3) también es evidente que

Esta relación es muy útil, pues en la mayoría de las tablas, la función


ipsólo se tabula para valores positivos de x.
Finalmente calculemos P ( p - k u 5 X 5 p + k u ) , donde tiene
distribución N ( p , a 2 ) .La probabilidad anterior se puede expresar en t
términos dela función ip escribiendo

= @ ( b )- i p ( - k ) .
246 Algunas variables aleatorius continuas importantes 9.4

Usando la ecuación (9.5) para k > O tenemos,

Nótese que la probabilidad anterior es independiente de p y a. En pa-


labras, la probabilidad de que una variable aleatoria con distribución
N ( p , a 2 )Lome valores dentro dek desviaciones estándar del valor espe-
rado depende sólo d e k y está dado por la ecuación (9.6).

Obsemación: Tendremos diversas ocasioncs parareferirnosa“funciones ta- ~

lmladas”. En un sentido dado, cuando una espresión puedeescribirse en tér-


minos de funciones tabuladas, el problema está “resuelto”. (Con la disponi-
bilidad d e medios modernos d e computación, muchas funciones que no son
tabuladas pueden evaluarse f5cilmente. Aunque no esperamos q u e todos ten-
gan fhcil acceso a u n computador, no parece ilógico suponer que ciertas tablas
conlunes están disponibles.) Así, nos deberíamos sentirtan cómodos conl a fun-
s_”,
ción @(x) = ( l / f i ) ds comocon la fknción f ( x ) = &. Ambas
fbnciones esdn tabuladas, y en algunos casos podríamos tener alguna dificul-
tad para calcular directamente la función para x = 0.43, por ejemplo. En el
Apéndice aparecen varias tablas de algunas de las funciones m5s importantes
que encontraremos en nuestro trabajo. Ocasionalmente se l m 5 n referencias a
otras tablas no incluidas en este testo.

EJEMPLO9.1. Supóngase que X tiene distribución N(3,4). Desea-


mos encontrar un númeroc tal que

P(X > c ) = 2 P ( S 5 c).


Observemos que (X - 3 ) / 2 tiene distribución N ( 0 , l ) . Por tanto,

P(X > c) = P X - 3 >


(-
2
“)2 = l - @( -
c;3)

Tambifn,

P(X 5 c) = P - (
x -2 3 <1)=Q(1
c-3 c-3

Por tanto, l a condición anterior se puede escribir como 1 - @[(c -


i.
3)/2] = 2 @ [(c - 3 ) / 2 ] . Esto se convierte en Q [ ( c - 3 ) / 2 ] = De aquí
(de la tabla d e la distribuci6n normal), encontramos que ( c - 3)/2 =
-0.43, obteniendo c = 2.14.
9.4 Tabulacidn
de la distribucidn
normal 247

EJEMPLO9.2. Supóngase que la resistencia a romperse de un género


de algodón(en libras), llamémosleX , está distribuida normalmentecon
E ( X ) = 165 y V(A') = 9. Suponiendo además queu n a muestra d e este
género se considera defectuosa si X < 162, ¿cuál es la probabilidad d e
que un género elegido a l azar sea defectuoso?
Debemos calcular P ( X < lG2). Sin enlbargo,

P(X < 162) = P ( X -3 165 < .162 - 165)


3
= @(-1) = 1 - @(1)= 0.159 .
i

Observación: Una objeción inmediata al uso dc la distribución normal pue-


d e encontrarse aquí. Es obvio que X, la resistencia dcl género de algodón,
- no puede tomar valores negativos, mientras que 'una variable aleatoria distri-
buida normalmente puede tomar todos los valorcs positivos y negativos. Sin
embargo, el modelo anterior(en apariencia invalidado dcbidoa las objeciones
encontradas) asigna una probabilidad despreciable a l evento {X < O}. Esto es,

P('Y < O) = P
(X - 165 O - 165)
< ___ = @(-SS) N o.
3 3

Esta situación ocurrir5 confrecuencia: se supone que cierm variable alcato-


ria X, que sabemos no pucde tomar valores neptivos, tiene una distribución
normal tomandoasí (teóricamente, al menos) valores tanto positivos como ne-
gativos. Mientras se escojan los parámetros ,u y a2 d e modo que P ( S < O) sea
esencialmente cero,tal representación es perfectalmente válida.

El problema de encontrar la fdp de una función de una variable


aleatoria,llamémosla Y = N(X),como se expuso en el capítulo 5,
aparece en el contexto presente en el cual la variable aleatoria X está
distribuida normalmente.

EJEMPLO9.3. Supóngase que el radio R d e u n cojinete d e esferas


está distribuido normalmente con valor esperado 1 y varianza 0.04.
Encuentre la fdp del volumen del cojinete.
La fdp dela variable aleatoria R está dada por

f ( r )= f i ( 0 . 2 ) . cxp (-; [;$I2) *


248 Algunas
variables
aleatorias
continuas
importantes 9.4

Puesto que V es una función d e R monótonamente creciente, podemos


aplicar en forma directa el teorema 5.1 para la fdp de V = 4/37rR3 y
obtener g( u) = f(r)(dr/dw), donde r está expresado en todas partes en
términos d e u. De la relaci6n anterior, obtenemos r = y-. Luego,
d ~ / d v= ( 1 / 4 ~ ) ( 3 ~ / 4 7 r ) - ~AI/ ~sustituir
, esas expresiones en la ecuación
anterior, obtenemos la fdp deseada d e V.
EJEMPLO9.4. Sllpóngase que S , el diámetro interior (en milíme-
tros) d e una tobcra, es una variable aleatoria distribuida normalmente
con esperanza /L y varianza 1. Si S no satisface ciertas especificaciones,
IC produce una pkl-dida al fabricante. M& exactamente, supóngase que
la utilidad T (por tobera) es la siguiente función d e S :

T = C1 (dólares) si 10 5 S 5 12,
= - Cy2 si X < 10,
= - C3 si A' > 12.
Por tanto, la utilidad esperada (por tobera) puedeescribirse como

= (C, + C3)@(12- p ) - (C, + C2)@(10 - /L) - c3.


Supóngase que es posible ajustar el proceso d e fabricación d e modo
que se puedan obtener diferentes valores d e p . ?Para quévalor de /I es
máxima la utilidad esperada? Debemos calcular d E ( T ) / ( d p )e igualarla
a cero. Denotando como es usual, la fdp de la distribución N ( 0 , l ) con
y, tenemos

Luego,
9.6 Propiedades de la distribución exponencial 249

[Es fGcil para cl lector verificar que lo anterior da un valor máximo para
E ( T ).I
Observaciones: a ) Si C2 = C3, es decir, si un d i h e t r o X muy grande o muy
pequeño, es un defecto igualmente serio, entonces el valor p para el cual se
obtiene el valor m5ximo d e E ( T ) es p = 11. Si C2 > C3, cl valor d e /I es > 11,
mientras quesi C2 < C3, el valor de 11 es < 11. Cuando p ”+ +m,E ( T ) + 4 ’ 3 ,
mientras que si p 4 -00, E ( T ) + -Cz.
b ) Considérense los valores de los costos siguicntes: C1 = $10, C2 = $3 y
C3 = $2. Entonces, el valor d e p para el cual E ( T ) se maximiza es igual a
p = 11- h[E] = $11.04. Luego, el valor máximo obtenido por E ( T ) es igual
a $6.04 por tobera.

9.5 La distribución exponencial

Definición. Se dice que una variable aleatoria continuaX que toma


todos los valores no negativos tiene una tiistribucidn exponencid con
parámetro (Y > O si su fdp está dada por

f(x) = ae
“(YX
, 2 >O
=O para cualquier otro valor.
(9.7)
(Véase la Fig. 9.4.) [Unaintegración
inmediata indica que
roo X

J, f(x) dz = 1
FIGURA
9.4

y, por tanto, la ecuación (9.7) representa un fdp.]


La distribuci6n exponencial desempeíía urn papel importante en la
descripción de una gran clase d e fenómenos, especialmente en el área
250 Algunas variables
aleatorias
continuas
importantes 9.6

d e la teoría dela confiabilidad. Dedicaremos el capítulo 11 a algunas d e


estas aplicaciones. Por el momento, sólo investiguemos algunas de las
propiedades dea l distribución exponencial.

9.6 Propiedades de la distribución exponencial

a ) La fda F de la distribucicin exponencial está dada por:

e
-02
, x 2 0 (9.8)

=O p a r a cualquicr otro valor.

[Por tanto, P ( X > x ) = e"(yx.]


6) El valor esperado d e X se obtiene como sigue:

Integrandoporpartes y haciendo d x = dv y z = u , obtenemos


v = -e "QX y du = d x . Luego,

A s í , el valor esperadoes igual al rcciproco del parámetro


cr. [Simplcmen-
te reclasificando el parámetro CY = l/P, podríamos haber escrito la fclp
d e X como f ( x ) = (1//3)e-'/P. DC esta manera, el parámetro cs igual
al valor esperado de X. Sin enlbargo, continuaremos usando la forma
d e la ecuación (9.7).]

c) La varianza d e X puede obtcnerse con una integración semejante.


Encontramos que E ( X " ) = 2 / a2 y, por tanto,

V(A-) = E ( X 2 ) - [ E ( X )2] = 2'


1
('3.10)
Q

d ) La distribución exponencial t i m e la siguiente propicdad impor-


tante, análoga a la ecuación (8.6) descrita para la distribución geométri-
ca. Considerandoparacualquicr S, t > O, P ( X > S + t I S > S).
'Tenemos
9.6 Propiedades de la di:rtribución exponencial 25 1

Por tanto,

P(X > S +t I x > S ) = P ( X :> t ) . (9.11)

A s í hemos demostrado que l a distribución exponencial tanlbién tiene


la propiedad de "no tener memoria" como la. distribución geométrica.
(Véase la Observaciónquesigue al teorema1 8.4.) Hacemosunuso
considerable d e esta propiedad al aplicar la distribución exponencial
a los modelos d e fatiga en el capítulo 1 1.

Observación: Como e n el caso d e la distribuci6n geométrica, la recíproca


d e la propiedad d ) también es cierta. La única variablealeatoriacontinua
X que toma valores no negativos, para los cuales P ( X > S + t I X >
S ) = P ( X > 1) paratoda S, t > O, es una variablealeatoriadistribuida

exponencialmente. [Aunque aquí no demostraremosesto, podría señalarseque


la base del argumentoimplica el hecho de quela única función continua G q"e
tiene la propiedad queG(z+y) = G(z)G(y) para toda z, y > O, es G(z) = e - k x .
Es Mcil ver que si definimos G(z) = 1 - F ( x ) , donde F es la fda de S , luego G
satisfará esta condición.]

EJEMPLO9.5. Supóngasequeun h s i l h tieneunaduración S


que puede considerarse como una variablealleatoria continua con una
distribuciónexponencial. Iiay dos procesos mediante los cualesse
puede fabricar el fusible. El proceso I da una duración esperada de100
horas (esto es,el parámetro es igual a l O O - l ) , mientras queel proceso I I
da una duración esperada de 150 horas (esto ES, el parAmctro es iguala
150-I). Supóngase también que el proceso I1 es dos veces más costoso
(por fusible) que el proceso I, el cual cuesta C dólares por fusible, y
ademds quesi un fusible dura menos d e 200 horas se carga una pérdida
de Ii dólares a l fabricante. ?Qué proceso se deberá usar? Calculemos el
costo esperudo para cada uno delos procesos. Para el proceso I tenemos

CI = costo (por fusible) = C si X > 200


=C + I( si X 5 200.
252 Algunas variables aleatorius continuas importantes 9.6

Por tanto,

Con un cálculo semejante encontramos que

Luego,

E(CI1) - E(C1) = C + ,(e-' - e-4/3) = C - 0.1311'.

Por tanto, preferimos el proceso I con tal que C > 0.1311'.


EJEMPLO9.6. Supóngase que X tiene una
distribución exponencialcon parámetro a. En- f(4
tonces E ( X ) = l / a . Calculemos la probabili-
dad de que X' sobrepase suvalor esperado (Fig.
9.5.) Tenemos

-ff(l/a)
X

<i.
x=l/a
-1
= e
FIGURA9.5
EJEMPLO9.7. Supóngase que T , el tiempo para que falle un com-
ponente está distribuido exponencialmente. Luego f ( t ) = cxe-at. Si se
instalan n de tales componentes ¿cuAl es la probabilidad de quela mitad
o más d e ellas hncionen aún al término de t horas? La probabilidad
pedida es
9.6 distribución
la Propiedades
de exponencial 253

EJEMPLO9.8. Supóngase que la duración en horas, llamémosla T ,


de cierto tubo electrónico es una variable aleatoria con una distribución
eiponencial con parámetro p. Estoes, la fdp está dada por f ( t ) =
p e - P t , t > O. Una máquina que usa este tubo cuesta C1 dólares/hora
para funcionar. Mientras la máquina está funcionando se obtiene una
utilidad de C2 dólaredhora; además debe contratarseun operador para
un número prejjudo de horas, digamos H , el cual obtiene un pago de
C3 dólaredhora. ¿Para que valor deH es mayor la utilidud esperudu?
Obtengamos primero una expresión para la utilidad, llamémosla R.
Tenemos

R = C2H - C 1 H - C 3 H si T >H
= C2T - C1T - C3H si T 5 H.

es una función deT .


Nótese queR es una variable aleatoria, puesto que
Luego,

Para obtenerel valor máximod e E( R) lo diferenciamos respectoa E1


y hacemos la derivada igual a cero. Tenemos

Luego, d E ( R ) / d I I = O implica que

I1 = - (;)In [ c
2
c3
- c1
].
254 Algunas
variables
aleatorius
continuas importavttes 9.7

[A fin de quela solución anterior sea significativa, debemos tener 11 > O


lo que ocurre si y sólo si O < C3/(C2 - Cl) < 1, lo que a su vez equivale
a C2 - C1 > O y C2 - C1 - C3 > O. Sin embargo, la última condición sólo
rcquiere que las cifras del costo sean de una magnitud tal que pueda
obtenerse una utilidad.]
Supóngase en particular queP = 0.01, C1 = $3, Ca = $10 y C3 = $4.
I,ucgo, I1 = - l O O l n [ $ ] = 55.9 horas 21 56 horas. Entonces, el operador
debc ser contratado por 56 horas para obtenerla utilidad máxima. (Para
una modificación ligera del ejemplo anterior,véase el Prob. 9.18.)

9.7 La distribucidn gama

Presentemos primero una hnción que es muy importante nosólo en la


teoría de probabilidad, sino en muchasBreas de las matem5ticas.

Definición. Lafirnción gnnza denotada con I?, se dcfine como sigue:

r(p)= /lxl
O
zP-le-' dx, definida
para p > O. (9.12)

[Puede demostrarse que la integral impropia anterior existe (converge)


cada vez que p > O]. Si integramos lo anterior por partes, haciendo
e-z dz = dv y zp-l = u, obtenemos

e" X xp-2 dx

A s í hemos demostrado que la función gama sigue una importante re-


lación recursiva. Supóngase que p es un entero positivo, dejamos p = n.
Entonces, aplicando la ecuación (9.13) repetidamente, obtenemos
9.8 Propiedades
distribución
dt?la gama 255

Sin embargo, r(l)= so" e-' dx = 1, por tanto, tenemos

(si n es un entero positivo). (Luego podemos considerar que la función


gama es una generalización d e la función factorial.) TambiCn es fAcil
verificar que
I

(9.15)

(Véase I

Con la ayuda dela función gama, ahora podemos presentarla distri-

Le
buci6n gama de probabilidades.
Definición. Sea X unavaria-
ble
aleatoria
continuaque to- Ax)
ma sólo valores no negativos.
Decimos que X tiene una dis-
tm'buci6n de probabilidades gama
si su fdp está dada por r = 11

a
f(z) = - ( o z ) T - l e - " z , z >O
u9-1
-X

= O para cualquier
otro valor. FIGURA9.6
9.1fi

Esta distribución depende d e los dosparúrneh-os, r y a d e los cuales


necesitamos r > O, a > O. [Debido a la definición de la función gama,
es fácil ver que S-,"' f(x) dx = l.] La figura 9.6 muestrala gráfica dela
fdp dela ecuación (9.16) para diversosvalores d e r y a = 1.

9.8 Propiedades de la distribución gama =

a ) Si r = 1 la ecuación (9.16) se transforma enf ( x ) = ae-cyz. Luego, la


distribución exponencial es un caso especial de la dist!ribución gama. (Si r es un
entero positivo > 1, la distribución gama está relacionada también con la
distribución exponencial, pero de un modo ligeramente diferente. Nos
referiremos a esto en el capítulo10.)
B ) En la mayoría de nuestras aplicaciones, el parámetro r será un
entero positivo.En este caso, existe una relación interesante entre la
256 Algunas
variables
aleatorias
continuas
importantes 9.8

fda de a l distribución gama y l a distribución d e Poisson, misma que


desarrollaremos ahora.
Considérese l a integral I = J,"(e-Yy"/r!) dy, donde r es un entero
positivo y a > O. Luego, r ! l = JUm e - y y r d y . Integrando por partes,
haciendo u = y T y dv = e-?' dy, obtendremos du = r y T - l d y y v = -e - Y .
Por IO tanto r ! ~ = ,-'ar +
r ~ : e-Yyr-l dy. ~a integralen esta
expresión es exactamente la misma forma que la integral original con
la sustitucicin de r por ( r - 1). Así, a l continuar integrando por partes,
puesto que r es un entero positivo, obtenemos

r!1 = e-" '.[ + 7%" + T ( r - l)a" + ...+

Por tanto.

= P ( Y = k),
6=0

donde Y tiene una distribución dePoisson con parámetro a.


Consideremos ahorala fda de la variable aleatoriacuya fdp está dada
por la ecuación (9.16). Puesto que r es un entero positivo, la ecuación
(9.16) puede escribirse como

y, por consiguiente, l a fda de X se transforma en

F ( x )= 1- P ( X > x)

Haciendo (as) = u, encontramos que estose convierte en

Lx
00 ur-l e -u
F(2)= 1- du, 2 > O.
(7'- l)!
9.9 La dis,tribucidn X-cuadrada 257

Esta integral es precisamente de la forma antes considerada, a saber, I


(con a = ax),y así,

7-1
F(2)= 1 - e-ytz)k/k!, 2 > o. (9.17)
k=O

Por tanto, l a f d ade la distribucidn gama puede expresarse mediante la f d a


tabulada de la distribución de Poisson. (Recuérdese que estoes válido si el
parámetro r es un entero positivo.)

Obseruacidn: El resultado indicado en la ecuación (9.17), que relaciona la


fda d e la distribución d e Poisson con la fda d e ;la distribución gama, no es
tan sorprendente como podría aparecer al principio, tal como lo indicar& la
siguiente exposición.
Antes que nada, recordemos la rclación entre las distribuciones de Pascal y
binomial (véase la observación b ) de la Sec. 8.6). Una relación similar existe
entre las distribuciones d e Poisson y gama, excepto que la cíltima es una dis-
tribución continua. Cuando tratamos con una distribuci6n d e Poisson estamos
interesados especialmenteen el número deocurrencias de algún evento duran-
te u n periodo fijo d e tiempo. Y, como se indicard, l a distribución gama aparece
cuando pedimos la distribución del tiempo necesario para obtener un nilmero
especificado d e ocurrencias del evcnto.
Específicamente, supóngase que X = número de ocurrencias del evento A
durante (O, 1). Entonces, en condiciones semejantc:s (es decir, satisfaciendo las
hiptjtesis Al hasta A5 d e la Sec. 8.3),X tiene una distribución de Poisson con
parAmetro at, donde cr es el número esperado d e ocurrencias de A durante
un intervalo d e tiempo unitario. Sea T = tiempo necesario para observar r
ocurrencias de A . Tenemos

H ( 2 ) = P ( T 5 t ) = 1- P ( T > t)
= 1 - P(menos que r ocurrencias d e '4 acontecen en [ O , t ] )
= 1- P ( X < r)
=1-c T-l

k=O
e"t(cut)k
IC!

Comparando estocon la ecuación (9.17) se establece la relación de-


seada.
c)Si X tiene una distribucih gama dada por la ecuación (9.16),
tenemos
258 Algunas variables
aleatorius
continuas
importantes 9.9

E ( X ) = ?-/(Y, V ( X ) = T/(Y2. (9.18)

Demostlmción: Véase el problema 9.20.

9.9 La distribucidn x-cuadrada

Un caso especial muy importante d e la distribución gama, ecuación


1
(9.16), se obtiene si hacemos (Y = y T = 72/2, donde n es un entero
positivo. Obtenemos unafamilia de distribucionesde un parámetro con
fd p

(9.19)

Una variable aleatoria Z que tiene fdp dada por la ecuación (9.19) se dice
que tiene una distribución ,y-cuadrudu con n grudos de libertad (se denota
con xi). En la figura 9.7 se muestra la fdp para n = 1 , 2 y n > 2. Una
consecuencia inmediata d e la ecuación (9.18) es que si 2 tiene fdp d e la
ecuación (9.19), tenemos

E ( 2 )= n, V(2)= 2 7 2 . (9.20)

FIGURA9.7
La distribución x-cuadrada tiene muchas aplicaciones importantes en
inferencia estadística, algunas d e las cuales citaremos posteriormcnte.
Debido a su relevancia, la distribución x-cuadrada está tabulada para
diversosvaloresdelparámetro n. (VéaseelApéndice.)Portanto
e n la tabla podemos encontrar qué valor, denotado con x i , satisface
P ( Z 5 x i ) = (Y, O < (Y < 1 (Fig. 9.8). El ejemplo 9.9 trata un caso
especial de una caracterización general d e la distribución x-cuadrada
que estudiaremos en un capítulo posterior.
9.9 La dish~bucwn X-cuadrada 259

FIGURA9.8

EJEMPLO9.9. Supóngaseque lavelocidad V de un objetotiene


distribución N ( 0 , l ) . Sea I( = mV2/2 la en'ergíacinética del objeto.
Para encontrar la fdp de I<',busquemos primero la fdp de S = V 2 .Al
aplicar directamente el teorema5.2 tenemos

Si comparamosesto con l a ecuación (9.19) y recordamos queI?( = ,J. i)


observamos que S tiene una distribuciónx:. Así encontramos queel cua-
drado de una z~ariable aleatoria con distribución
N ( O , l ) tiene u n a distribución
x!. (Éste es el resultado que generalizaremos posteriormente.)
Ahora podemos obtener la fdp h de la energía cinética A-. Puesto que
li-es una funci6n mon6tona de V 2 ,cuya fdp está dada por la g anterior,
tenemos directamente

h(k) = "
m9 "E = "

m
2 1
a
(i -'I2
k) e- k / m , b>0.

A fin d e evaluar P ( K _< 5), por ejemplo, no necesitamos usar la fdp


de I<-sino que podemos usar simplemente la distribución tabulada x-
cuadrada como sigue

P ( K 5 5 ) = P ((m/2)V25 5) = Y(V2 5 lO/nt).


260 Algunas
variables
aleatorius
continuas
importantes 9.10

Esta Última probabilidad se puede obtener de manera directa de las


tablas d e la distribución X-cuadrada (si m es conocida), puesto que
tiene una distribución X:. Puesto quc E ( V 2 )= 1 y la varianza ( V 3d ) = 2
[véase la Ec. (9.20)], encontramos directamente

Observación: L a tabulación de la distribución x-cuadrada que se incluye en


el Apéndice sólo da los valores para los cuales n , el nilmero de grados de
libertad, es menos que o igual a 45. La razón de esto es que si n es grande,
podemos aproximar la distribución x-cuadrada con la distribución normal,
como se indica en el teorema siguiente.

Teorema 9.2. Supóngase que l a variable aleatoria E’ tiene una dis-


tribución x i . Entonces, para n suficientemente grande la variable
aleatoriatieneaproximadamente l a distribución A r ( J m ,
1). (La demostración no sehará aquí.)

Este teorema puede utilizarse como sigue. Supongamos que necesi-


tamos P ( Y 5 t ) , donde Y tiene la distribución X,: y n es tan grande que
la probabilidad antcrior no puede obtenerse en forma directa la tabla
de
d e la distribucihn X-cuadrada. Usando el teorema9.2 podemos escribir

El valor d e Q, se puede obtener de


las tablas d e la distribución normal.

9.10 Comparación entre varias distribuciones

Hasta ahora hemos presentado diversas distribuciones d e probabilida-


des importantes, tanto discretas como continuas: binomial, d e Pascal y
d e Poisson, entre las discretas, y la exponcncial normal y gama, entre
las continuas. No volveremos a dar las diversas hipótesis que conducen
a esas distribuciones. Aquí, nuestro interés principal es selialar ciertas
analogías (y diferencias) entre las variables aleatorias que poseen esas
distribuciones.
9.1 1 La
bivariada
distribución
normal 261

1. Supóngase que se efectúanensayos de Bernoulli independientes.


a) Variable aleatoria: número de ocurrencias del eventoA en un
númerofijo de experimentos.
Distribución: binomial.
b) Variable aleatoria: número necesario d e ensayos d e Bernoulli
para obtener la primera ocurrencia d e A .
Distribución: geométrica.
c) Variable aleatoria: número necesario d e ensayos de Bernoulli
para obtener la r-ésima ocurrencia d e A .
Distribución: de Pascal

2. Supóngase un proceso de
Poisson (véasela nota c) del ejemplo8.5.)
d ) Variablealeatoria: númerodeocurrenciasdeunevento A
durante un intervalo d e tiempofijo.
Distribución: d e Poisson
e ) Variable aleatoria: tiempo transcurri'do hasta la primera ocu-
rrencia d e A .
Distribución: exponencial
fl Variable aleatoria: tiempo transcurrido hasta la r-ésima ocu-
rrencia deA .
Distribución: gama.

Obsemacidn: Nótese la similitud entre a) y d ) , b ) y e ) y finalmente entre


c) Yf).

9.11 La distribu.idn normal bivariada -

Todas las variables aleatorias que hemos presentado han sido variables
aleatorias unidimensionales. Comolo mencionamos en el capítulo6, las
variables aleatorias d e mayor dimensión desempeñan un papel impor-
tante en la descripción de resultados experimentales. Una de las más
relevantes variables aleatorias bidimensionales, continuas, una generali-
zación directa d e la distribución normal unidimensional, se define como
sigue:

Definición. Sea (X, E') una variable aleatoria bidimensional conti-


nua que toma todos los valores en el plano euclidiano. Decimos
que ( X ,Y ) tiene unadistm'bucih normal bivan'ada si su fdp conjunta
está dada por la expresión siguiente:
262 Algunas variables aleatorius continuas importantes 9.1 1

-00<~<0O,-0O<y<0O. (9.2 1)

La fdp anterior depende de 5 parámetros. Para que f defina una fdp


legítima [o sea, f(x,y) 2 O S
, ?g f(x,y) dx dy = 11, debemos
hacer las siguientesrestricciones a los parámetros: "o0 < p,x < 0 0 ;
"o0 < p y < 00; ax > O; ay > O; -1 < p < 1. Las siguientes propiedades

d e la distribución normal bivariada pueden verificarse fácilmente.

Teorema 9.3. Suponiendo que( X , Y )tiene la fdp dada enla ecuación


(9.21), entonces,
u ) las distribucionesmarginales de X y d e Y son N ( / L u$)
~, y
2 respectivamente;
N ( p y ,ay),
b ) el parámetro p que aparece anteses el coeficiented e correlación
entre X y Y ;
c) las distribuciones condicionales de X (dado que Y = y) y d e Y
(dado que X = x) son, respectivamente,

Demostración: Véase el problema 9.2 1

Observaciones: a ) El recíproco de a ) del teorema 9.3 no es verdadero. Es


posible tener una fdp conjunta queno es normal bivariada aunque las fdp d e
X y d e E' son normales unidimensionales.
6 ) En la ecuación (9.21) observemos que si p = O, la fdp conjunta d e ( X , Y )
puede factorizarse y, por tanto, X y Y son independientes. Así, en el caso
d e la distribución normal bivariada encontramos que la correlaci6n cero y la
independencia son equivalentes.
c) La parte c) del teorema anterior demuestra que ambas funciones d e
regresión del promedio son lineales. También demuestra que la varianza d e la
distribuci6n condicional se reduce en la misma proporci6n que (1 - p2). Esto
es, si p está cercana a cero, la varianza condicional es esencialmente la misma
9.12 Dis,tribucwnes truncadas 263

que la varianza incondicional, mientras que si p est5 cercana a f l , l a varianza


condicional está cercanaa cero.

La fdp normal bivariada tiene varias propiedades interesantes.


Esta-
bleceremos algunas en un teorema, dejandoal demostración al lector.

Teorema 9.4. Considérese la superficie z = f(z,y), donde f es la fdp


normal bivariada dada enla ecuación (9.,21).

a) z = c (constante) corta la superficie en una eZi$se. (Éstas se ]la-


man, algunasveces, contornos de una densidad de probabilidades
constante).

b ) Si p = O y ax = ay, la elipse anterior sc transforma en una


circunferencia. (?Quésucede ala elipse anterior cuandop --+ h l ? )

Dernostrución: Véase el problema 9.22.

Obseruacidn: Debido a la importancia d e la distribucih normal bivarinda,


se han tabuladodiversasprobabilidades asociadas con ella. (Véase D.B.
Owen, Haudbook of Statistical Tables,Addison-MTesleyPublishing Company, Inc.,
Reading, Mass., 1962.)

9.12 Distribuciones truncadas

EJEMPLO9.10. Supóngase que se fabrica ciertotipo de pernos y


su longitud, llamémosla Y , es una variable akatoria con distribución
N(2.2, 0.01). De un gran lote d e tales pernos se saca un nuevo lote,
descartando todos aquellos para los cuales Y > 2. Por tanto, si X es la
el largo d e los pernos enel nuevo lote,
variable aleatoria que representa
y si F es su fdp tenemos

(Véase la Fig. 9.9). Entonces, la fdp de X , esti dada por


264 Algunas variables aleatorius continuas importantes 9.12

I
f(x) = F (x) = O si x > 2,
1 exp (- 2
1 [T
r-2.2.]2)
-
- fi(O.1) si x 2 2
@( -2)

I
,
O
I 1
2 x

FIGURA9.9

puesto que

P(Y I 2) = P
(Y
2. ; ;
F -&@(-a>.
2 - 2.2
=

[@,como es usual, es la fda d e la distribución N ( 0 , l)].


La anterior es una ilustración de una distribucicin nomaltruncada
(específicamente truncada a la derecha de X = 2). Este ejemplo se
puede generalizar comosigue.

Definición. Decimos que la variable aleatoria X tiene una distribu-


ción normal tmmcada a la derecha d e X = T si su fdp f es de la
forma

f(x) = O si x > T,
=K
-
6
1
0
exp ( 1 x-fl
si x 5 T. (9.22)

Nótese que I< se determina de la condición S_'," f(x) dx = 1 y, por


tanto,

donde 2 tiene distribución N ( p , 0 2 ) .Análoga a la anterior tenemos la


siguiente definición.
9.12 truncadas Di:;tribucwnes 265

Definición. Decimos que la variable aleatoria X tiene una distribu-


ción normal truncudu u la izquierdu d e X = y, si su fdp f es d e la
forma

f(x) = O si x < y,

Nuevamente, K se determina de la condición J?: f(x) dz = 1y


así

K = [l - * (y)] -1
'

Los conceptos antes presentados para la distribución normal pueden


extenderse de manera evidente a otras dist.ribuciones. Por ejemplo,
una variable aleatoria X distribuida exponencialmente, truncada a la
izquierda d e X = y, tendría la siguiente fdp:

f(x) = O si 2 < y,
= Cae-"x si x 2 y. (9.24)

Nuevamente, C estádeterminadapor la condición f ( x ) dx = 1


y, por tanto,

También podemos considerar una variable aleatoria truncada en el


caso discreto. Por ejemplo, si una variable ialeatoria X que tiene una
distribución d e Poisson (con parametro X) esta truncada a la derecha en
+
X = IC 1, significa que X tiene la distribucibn siguiente:

P(X=i)=O sii>IC+l,

=CTe
xi -x sii=ID,l, ...,IC. (9.25)
2.

X i ) = 1 determinamos C y encontramos
De la condición C g o = , P (=
266 Algunas zrariables aleatorias continuas importatztes 9.12

Así,

i = O, 1,. . . , k y 0 para cualquier otro valor.

Las distribuciones truncadas pueden aparecer en muchas aplicacio-


nes importantes. A continuacicin consideraremos algunos ejemplos.

EJEMPLO9.11. Supóngase que X representa l a duracióndeun


componente. Si S está distribuida normalmente con

encontramos que

P(X < O) = @(-a) = 0.023.

Así, este modelo noes muy preciso, puesto que asigna una probabilidad
0.023 auneventoquesabemosque no puede ocurrir. Ensulugar,
podríamos considerar la variable aleatoria X anterior truncada a la
izquierda en X = O. Por tanto, supondremos que la fdp de la variable
aleatoria X está dada por

f ( r )= O si 3: 5 O,

Obsetuacidn: IIemos indicado que a menudo usamos la distribución normal


para representar una variable aleatoria X d e la cualsabemosque no puede tomar
valores negativos. (Por ejemplo,el tiempo para que ocurra una falla, el largo d e
una varilla, etc.) Para ciertos valoresde los parametros p = E ( X ) y c2 = V ( S )
el valor d e P ( X < O) será despreciable. Sin embargo, si éste no es el ca5o (como
en el Ej. 9.1 l), deberíamos considerarel uso de la distribución normal truncada
a la izquierda en X = O.
9.12 truncadas Distribuciones 267

EJEMPLO9.12. Supóngasequeun sistemaestá formadopor n


componentes que funcionan de manera independiente y cada uno tiene
la misma probabilidad p de funcionar correctamente. Cada vez que el
sistema funciona mal, se inspecciona a fin d e establecer cuántos y cuLiles
son los componentes que fallan.Definamos la1 variable aleatoriaX como
el número de componentes que fallan en un sistema descompuesto. Si
suponemos que el sistema falla si y sólo si al menos un componente
falla, entonces X tiene una distribucidn binomid tm.ncudu u lu izpierdu en
X = O. Precisamente el hecho de que huyujulZado el sistema impide la
posibilidad de que X = O. Específicamente tenemos

P ( X = k) = ( X 1 - P)kPn-k k = 1,2,...,n.
P(sistema falla) ’

k n-k
P ( X = k) = ( X 1 - P ) P , k = 1,2,...,n.
1 - pn

EJEMPLO9.13. Supóngase que una fuente radiactiva emite partícu-


las de acuerdo con una distribución d e Poisson con parámetro X. Un
dispositivo para contar esas emisiones sólo funciona si llegan menos d e
tres partículas. (Esto es, si llegan más de tres, partículas durante un pe-
riodo de tiempo especificado, el dispositivo deja de funcionar debido a
que se produce un “cierre”.) Por tanto,si E’ es el número de partículas
anotadas durante el intervalo de tiempoespecífico, Y tiene los valores
posibles O, 1 y 2. A s í ,

e
-x Xk
P ( Y = k) -
k! e-x [I + X + (X2/2)1’ k = O, 1,2,

=O para cualquier otro valor.

Puesto que la distribución normal truncada es particularmente im-


portante, consideremos el problema siguieme asociado con esta distri-
bución.
Supóngase queX es una variable aleatoria distribuida normalmente
truncada hacia la derecha en X = T. Luego, la fdp f es d e ‘la forma
268 Algunas variables aleatorius continuas importantes 9.12

f(x) = O si x 2 T.

Por tanto, tenemos

Nótese quela expresión obtenida paraE ( X ) se expresa mediantelas


funciones tabuladas. La función CI, es, por supuesto, la fda corriente de
la distribución N ( 0 , l),mientras que (1/&G)e-z2/2 es la ordenada de
la fdp dela distribución N ( 0 , l ) y también está tabulada. En realidad, el
cociente

está tabulado. (VéaseD. R. Owen, Ilundbook of Stutistical Tubles, Addison-


Wesley Publishing Company, IIIC., Reading, Mass., 1962.)
Utilizando el resultado anterior, ahora podemos formular la siguiente
pregunta: para p y o dados, ?dónde debería ocurrirla truncación (esto
es, ?cuál debería ser el valor d e r ? ) de modo que el valor esperado
des@és de la truncación tenga algún valor A preasignado? Podemos
responder esta pregunta con ayuda de la distribución normal tabulada.
Supóngase que u , = 10, u = 1, y necesitamos que A = 9.5. Por tanto,
debemos resolver

\
Problemas 269

Esto se transforma en

Utilizando las tablas ya citadas, encontramos; que T - 10 = 0.52, y por


tanto, T = 10.52.

Obseruacwc El problema presentado anteriormente sólo puede resolverse


para ciertos valores d e p, u y A. Esto es, para p y u dadas, puede no serposible
un valor especifico d e A. Consideremos la ecuaci6n que puede resolverse:

. El segundo miembro d e estaecuaciónesobviamente positivo. Por lo tanto,


debemos Tener ( p - A ) > O con objeto de que cl problema anterior tenga
solución. Esta condición no es muy inesperada puesto que sólo expresa que
el valor esperado (despuésdc unatruncación a la derecha) debe ser menor que
el valor original esperado.

PROBLEMAS
9.1. Supóngase queX tiene una distribución N(2, O , 16). Usar la tabla de la
distribución normal para evaluarlas probabilidadles siguientes.
a) P ( X 2 2.3) b) P(1.8 5 X 5 2.1)
/

9.2. El diámetro de un cable eléctrico está distribuido normalmente con


promedio 0.8 y varianza 0.0004, ¿Cuál es la probabilidad de que el diámetro
sobrepase 0.81 pulgadas?
, ' 9.3. Sup6ngaseque el cable delproblema 9.2 seconsideredefectuoso
si el diámetro se diferencia d e su promedio en más d e 0.025. ?Cuál esla
probabilidad de obtener uncable defectuoso?
.' 9.4. Se sabe que los errores en cierto instrumento para medir longitudes
'est511distribuidos normalmente convalor esperado ceroy desviación estándar
d e 1 pulgada. ?Cuál es la probabilidad d e que al medir los errores, éstos sean
mayores d e 1 pulgada, 2 pulgadasy 3 pulgadas?
9.5. Supóngase que la duración de los instrumentos electrónicos Dl y 0 2
tienendistribuciones N ( 4 0 , 3 6 ) y N(45,9), respectivamente.¿Cuálsedebe
prcferir para usarlo durante un periodo de 45 horas?¿ C u d se debe preferir
para usarlo durante un periodo de 48 horas?
270 Algunas variables aleatorias continuas importantes

9.6. ConsidCrese sólo en la magnitud de S , digamos E' = 1x1. Si , Y tiene


una distribución N ( 0 , l), determinar la ftlp de E' y calcular E ( Y ) y V(E').
0.7. Supóngase que se determinaa l posicibn d e un objeto en unplano. Sean
S y Y los errores en las netl lid as de a ls coordenadas .z y y respectivamente.
S u p ó n p c que S y I' son indepcndient,es y están distribuidas idénticamente
X ( 0 , u 2 ) . Encontrar la fdp d e R = d m .(La distribución d e R se conoce
como distribucióu de Rayleigh.) [Indicación: sean X = R cos $ y Y = R sen $,
obtener la fdp conjunta de (R, q ) y luego la densidad marginal de R.]
9.8. Encuéntrese la fdp d e la variable aleatoria Q = S / Y , donde X y Y e d n
distribuidas como en cl problema 9.7. (La distribución d e Q se conoce como
distribución de Cauchy.) ¿Se puede calcular E ( & ) ?
9.9. Una distribución muy relacionadacon la distribución normal es l a distri-
bzccwn lognormal. Suponer queX e s ~ distribuida
5 normalmentecon promedio 1-1
yvarianza u 2 . Sea I' = ex. Entonces I' time la distribución log nol-maI. (O sea,
Y es log normalsi y sólo si I n E' es normal.) Encontrar la fdp de Y. Observation:
Las variables alentorias siguientes se pueden representar por la distribución
anterior: el diámetro de partículas pequeñas dcspuCs d c un proceso de tritu-
ración, el tamaño d e u n organismo bajo la accirin (le peq1leños impulsos y la
duración d e ciertos artículos.
9.10. S u p ó n p e que X tiene lltlaclistribució,n N ( / L , a 2 ) .Detcrrninar c (como
una función d e 11 y CT),m1 que P ( X 5 c ) = 2 P ( S > c ) .
9.1 1. Supóngase que la temperatura (en grados centígrados)
est5 distribuida
normalmente con esperanza50" y varianza 4. iCu5l es la probabilidad de que
la temperatura T esté entre 48" y 53" centígrados?
9.12. Se especifica que el diámetro exterior d e u n 514101 d e transmisión
(flecha), llamémoslo D , delx ser de 4 pulgadas. S u p ó n p e que D es una
variable aleatoria distribuida normalmente con media de 4 pulgadas y varianza
0.01 pulgada*. Si el diámetro real se diferencia del valor especificado por más
d e 0.05 pulgada, pero en menos d e 0.08 pulgada, la pérdida del fabricante es
d e $0.50. Si el dijmetro real se diferencia dcl diámetro cspecificado en m5s
d e 0.08 pulgada, la pérdida es de $1.00. L a pérdida, L , puede considerarse
como una variable aleat.oria. Encontrar la distribucicin d e probabilidades de L
y calcular E ( L ) .
9.13. Compare la cota supelior d e la proinbilidatl P [ I X- E ( X ) I2 2 J W I
obtenida con la desigualdad de Chebyshev con la probabilidad exact? en cada
uno delos casos siguientes:
a) ,Y tiene distribución N ( / " , u').
b ) X tiene distribución d e Poisson con parámetro X.
c) X tiene distribución exponencial con pnrámetro a.
Problemas 27 1

9.14. Supóngase que X es una variable aleatoria para la cual E ( X ) = p y


V ( X )= u2.Suponiendo queY esd distribuida miformemente enel intervalo
( u , b ) , determinar u y b d e modo que E ( X ) = E ( Y ) y V ( X )= V ( Y ) .

9.15. Supóngase que X , la resistencia a la ruptura de una cuerda (en


libras),
tiene distribución N(100,16). Cada 100 pies d e alambre para cuerda produce
una utilidad d e $25, si X > 95. Si X 5 95, la cuerda puede utilizarse con u n
propósito diferente y se obtieneuna utilidad de $10 por alambre. Encontrar la
utilidad esperada por alambre.
9.16. Sean X 1 y X 2 variables aleatorias independientes cada una con una
+
distribución N ( p , u’). Sea Z ( t ) = X 1 coswt X 2 sen w t . Esta variable aleatoria
es d e interés en el estudio d e seííales aleatoria;;. Sea V ( t ) = dZ(t)/dt. (Se
supone quew es constante.)
a ) ¿Cuál esla distribución d e probabilidades d e Z ( t ) y V ( t )para cualquiert
fija?
6 ) Demostrar que Z ( t ) y V ( t )no están correlacionadas. [Obseruacih: Puede
demostrarse que Z ( t ) y V ( t )y son independientes, pero esto esmás dificil d e
hacer].
9.17. Un combustible para cohetes va a contener ciertoporcentaje ( h -
mémoslo X) de un compuesto particular. Las e,spccificaciones exigen que -y
esté entre 30 y 35% . El fabricante tendrá una ui-ilidad neta e n el combustible
(por gal6n) que es la siguiente funciónd e X :

í?(X) = $0.10 por galón si 30 < X <: 35,


= $0.05 por galón si 35 5 X 5; 40 o 25 < X 5 30,
= $0.10 por gal6n

a) Si X tiene distribución N(33,9), calcular E(1T).


6 ) Supbngase que el fabricante desea aumentar su utilidad esperada, E ( T ) ,
en 50%,aumentando su utilidad (por galón) en aquellas partidas d e combusti-
ble que satisfacen las especificaciones, 30 < S < 35. ¿Cuál debe ser suutilidad
neta?
9.18. Considéreseelejemplo 9.8. Suponiendo que a un operario se le
pagan C3 dólareshora mientras la máquina está fllncionando y C, d6lares/hora
(C4 < C3)por el resto del tiempo durante el cual ha sido contratado después
de quela máquina ha fallado, determinar nuevarnente para quévalor d e H (el
número de horas que se contrata al operario), la utilidad esperada es m h i m a .
9.19. Demostrar que I? (i) = &. (Véase 9.15.;) [Sugerencia: Hacer el cambio
(i)
d e variables x = u 2 / 2 en la integral I? = x-1/2e-x dt.]
272 Algunas variables aleatorius colttinuas importantes

9.20. Verificar las expresiones de E ( X ) y V ( X ) cuando ,Y tiene una distri-


bución gama [véase la Ec. (9.18)].
9.21. Demostrar el teorema 9.3.
9.22. Demostrar el teorema 9.4.
9.23. Supóngase quela variable aleatoria X tiene una distribución )(-cuadra-
da con 10 gradosd e libertad. Si se pidiera encontrar dos números,u y b, tales
que P ( u < x < b ) = 0.85, se podría verificar que existen muchos pares d e esa
clase.
a) Encontrar dos conjuntos diferentes d e valores ( u , b ) que satisfagan la
condición anterior.
b ) Suponer que adem&d e lo anterior, necesitamos que

P(X < u ) = P(X > b).


?Cuántos conjuntos de
valores hay?
9.24. Supóngase que V ,la velocidad (cmnbeg) de un objeto que tiene una
masa d e 1 kg, es una variable aleatoria que tiene una distribución N ( O , 2 5 ) .
Representar con K = 1 0 0 0 V 2 / 2 = 500V2 la energía cinética ( K E ) del objeto.
Calcular P ( K < 200), P ( K > 800).
9.25. Suponer que X tiene distribución N(,u,u2). Obtener una expresidn
aproximada para E ( Y ) y V ( Y )usando el teorema7.7. Si Y = In ,Y.
9.26, Supóngase queS tiene una distribución normal truncada laa derecha
como se da en la ecuación (9.22). Encontrar una expresión para E ( X ) en
términos de funciones tabuladas.
9.27. Supóngase que A’ tiene una distribución exponencial truncada a la
izquierda como estA dada enla ecuación (9.24). Obtener E ( X ) .
9.28. u ) Encontrar la distribución d e probabilidades d e una variable aleatoria
distribuida binonlialmente (con base en n repeticiones de un experimento)
truncada a la dcrccha en ,Y = n ; esto es, S = n no pucde ser observada.
b ) Encontrar elvalor esperado y la varianza d e la variable aleatoria descrita
e n u).
9.29. Supóngase que una variable aleatoria distribuida normalmente con
valor esperado 11 y varianza u2 c s d truncada a la izquierda en X = T y a
la derecha en S = y. Encontrar la fdp d e esta variable aleatoria “truncada
doblemente”.
9.30. Suponer queX ,el largo de una varilla, tiene distribuciónN ( 1 0 , 2 ) . En
vez d e medir el valor d e X, sólo se especifica si se cumplen ciertas exigencias.
Específicamente, cada varilla fabricada se clasifica como sigue: X < 8, 8 5 X <
Problemas 273

12 y X 2 12. Si se bbrican 15 detales varillas, &u51 es la probabilidad de que


un númeroigual d e varillas caiga en cada una delas categorías anteriores?
9.31. Se sabe que la lluvia anual que cae en cierta región es una variable
aleatoria distribuida normalmente con media igual a 29.5 pulgadasy desviación
estándar 2.5 pulgadas. ¿Cuántas pulgadas d e lluvia (anuales) caen en exceso
alrededor del5% d e l a s veces?
9.32. Suponiendo que X tiene una distribución N(O,25) calcular P ( l <
x2< 4).
9.33. Sea X t , el número de partículas emitidas en t horas por una fuente
radioactiva y suponer queX t tiene unadistribución d e Poisson con parámetro
Pt. Sea T igual al número de horashasta la primera emisión. Demostrar que
T tiene una distribución exponencial con parámetro P. [Sugerencia Encontrar
el evento equivalente (en términos d e X,) del evento T > t.]
9.34. Supóngase que X t está definida comoe n el problema 9.33 con = 30.
?CuA es la probabilidad de que el tiempo entre emisiones sucesivas sea >5
minutos, > 10 minutos y <30 segundos?

9.35. En algunastablas d e ladistribución normal, H ( z ) = (l/&) st


eWt2i2
dl e s d tabulada para valores positivos de 2: (en vez d e @(z)como aparecee n el
Apéndice). Si la variable aleatoria X tiene distribución N ( l , 4 ) , expresar cada
una delas probabilidades siguientes e n términos; d e los valores tabulados d e la
función H .
a ) P [IX(> 21 b) P[X < O].
9.36. Supóngasequeun dispositivo paratelemedir satélites recibe dos
clases d e señales que pueden anotarse como nlúmeros reales, digamos X y
Y , y que X y Y son variables aleatorias continuas independientes con fdp f
y g, respectivamente. Supóngase que durante cualquier periodo de tiempo
específico sólo se puede recibir una de esas señales y luego retransmitir a la
Tierra la señal que primerollega. Adem&, la señal que origina X llega primero
/
con probabilidad p y, por tanto, la señal que origina Y llega primero con
probabilidad 1 - p . Denótese con Z la variable alleatoria cuyo valor realmente
es recibido y transmitido.
a ) Expresar la fdp d e Z e n términos d e f y g.
b ) Expresar E(2)en tkrminos d e E ( X ) Y E ( Y ) .
c) Expresar V ( Z )en términos d e V ( X )y V ( Y ) .
d ) Supóngase que X tiene distribucidn N ( 2 , 4 ) y que Y tiene distribuci6n
g,
~ ( 3 , 3 )S. i p = calcular P ( Z > 2).
e ) Suponiendo que X y Y tienen distribuciones N ( p 1 ,u;) y N ( p 2 , u;), res-
pectivamente, demostrar que si p1 = p2, la distribución d e Z es “unimodal”,
esto es, la fdp d e Z tiene un m5ximo relativo Único.
274 Algunas variables aleatorias continuas importantes

9.37. Sup6ngase que elntímero de accidentes en una fribricase puede


representar por un proceso de Poisson con u n promedio d e 2 accidentes por
scmana. ?Cuál es la probabilidad de que a ) el tiempo entre un accidente y
el siguiente sea mayor d e 3 días, b ) el tiempo de un accidente al tercero sea
mayor de una semana? [Indicación: En a ) , sea T = tiempo (en días) y calcular
P(T > 3).]
9.38. Un proceso d e fabricación produce en promedio un artículo defec-
tuoso entre 300 fabricados. ?Cuál es la probabilidad de que aparezca el tercer
articulo defectuoso:
a ) antes de quesean producidos 1000 artículos?
b ) cuando se produceel 1000"ésimo artículo?
c) despues de quese produzca el 1000-4simo artículo?
[Sugerencia: Supóng?se u n proceso de Poisson.]
n n

10.1 Introducción

En este capítulo presentaremos un concepto matemático importante


que tiene diversas aplicaciones en los modelos probabilísticos que es-
tamos estudiando. Con el propósito de presentar un desarrollo riguro-
so d e este tema, se requerirían conocimientcs matcrnáticos de un nivel
considerablemente mayor del que estamos suponiendo aquí. Sin em-
bargo, si queremos evitar ciertas dificultades matemáticas que aparecen
y si aceptamos que ciertas operaciones son válidas, entonces podemos
obtener una comprensión suficiente de las principales ideas implicadas
para usarlas inteligentemente.
Con el propósito d e motivar lo que sigue, recordemos nuestro pri-
mer contacto con el logaritmo. kste sólo se presentó como una ayuda
para calcular. Con cada número real positivo x, asociamos otro número,
designado con log z. (El valor de este número se pudo obtener de las
tablas correspondientes.) A fin de calcular zy, por ejemplo, obtenemos
+
el valor d e log z y log y y luego calculamos log z log y, que representa
log z y . Conociendo log z y pudimos obtener luego el valord e z y (nue-
vamente con la ayuda de tablas). De manel-a semejante con la ayuda
276 La f u ~ t c i h generadora
t de momentos 10.2

d c los logaritmos podemos simplificar la elaboración d e otros cálculos


aritméticos. El planteamiento anterior es útil por las siguientes razones:
a) Acada númeropositivo x le corresponde exactamente un número,
log x, y este número se obtiene confacilidad de las tablas.
b) A cada valor delog x le corresponde exactamente un valor dex, y
este valor d e nuevo se obtiene detablas. (Esto es, la relación entre 2 y
log x es uno a uno.)

c) Ciertas operaciones aritméticas que relacionan los nilmeros x y y,


como la multiplicación y la división, pueden reemplazarse por operacio-
nes más sencillas como la adici6n y la sustracción, mediante los números
“transformados” log x y log y (Véase el esquema de la Fig. 10.1).
En vez d e efectuar las operaciones directamente con los números z
y y, primero obtenemos los números logz y log y, hacemos nuestros
cálculos con esos números y luego los transformamos d e nuevo.

10.2 La función generadora de momentos

Ahora consideremos una situaci6n más complicada. Supóngase que S


es una variable alcatoria; es decir, S es una funcióndcl espacio muestra1
a los nilmeros rcales. Al calcular diversas caractcristicas d e la variable
aleatoria S , como E ( S ) o l ) r ( d Ytrabajamos
), directamente conla distri-
bución d e probabilidades tlc S . [La distribuci6n d c probabilidades está
dada por unafilncidn: la fdp en el caso continuo, o las probabilidades
puntuales p ( r . ; ) = P ( S = x i ) cn el caso discreto. Ida illtima también
se puede considerar como una runci6n que toma valorcs distintos de
cero s610 si S = x i , i = 1 , 2 , .] Posiblementc podemos presentar otra
I

jirncidn y lracer los cálculos necesarios medianteella (tal como antesaso-


ciábamos con cada nú~neroun nuevo nzimero). Esto es, d e hecho, lo que
haremos precisamente. Primero daremos una definición formal.
10.3 Ejemplos
funciones
degeneradoras momentos
de 277

Definición. Sea X una variable aleatoria discreta con distribución


d e probabilidades P ( x ; ) = P ( X = x!;),i = 1 , 2 , . . . La función,
h!l,y, llamada fzmciún generadora de momentos de S , se define con

(10.1)
j=1

Si X es una variable aleatoria continua con fdp f , definimos l a


función gencradora de momentos con

(10.2)

Obsemacwnes: a ) Tanto en el caso discretocomo en el continuo, A f , , ( t )


es simplemente el valor esperado d e e". Por tanto, podemos combinar las
expresiones anterioresy escribir

b ) A f , ( t ) es el valor que toma la función Af;, por la variable (real) t. La


notación que indica la dependencia deX se usa porque quiz5 deseemosconsi-
derar dos variables aleatorias, X y Y y luego investigar la función generadora
d e momentos de cada una, esto es, M,y y All..
c) Usaremos la forma abreviada fgm para la función generadora d e mo-
mentos.
d ) La fgm, comose definió anteriormente, secscribe como una serieinfinita
o integral (impropia), dependiendo d e sila variable aleatoria es discreta o
continua. Tal serie (ointegral) puede no existir siempre (es decir, convergir a un
valor infinito) para todoslos valores d e t. Por tanto, puede suceder que la fgm
no esté definida para todos los valores d e t. Sin embargo, no nos interesará esta
posible dificultad. Cadavez que hagamosuso d e la fgm, siempre supondremos
que existe. (Para t = O, la fgm siempre existe y es igual a 1.)
e ) Hay otra ftmción muy relacionada con la fgm que a menudo se usa en
su lugar. Se llama jiahciów curucten'stica, se denota con C s , y se define con
C - y ( t ) = E(eit"), donde i =m, la unidad imaginaria. Por razones teóricas,
hay una ventaja considerable al usar C,y(t) en vez d e A f , , ( t ) . [Por esta razón,
C x ( t )siempre existe para todos los valores d e 11. Sin embargo, a fin d e evitar
cálculos con nilmeros complejos restringiremos nllestra exposición la fimci6n
a
generadora de momentos.
J) Postergaremos hasta la sección 10.4 la exposición de por qué llamar nilx a
función generadora de momentos,
278 La ftcncidn generadora de momentos 10.3

10.3 Ejemplos de funciones generadoras de momentos

Antes de considerar algunas aplicaciones importantes de l a fgm a la


teoría d e la probabilidad, evaluemos algunas de estas Cunciones.

EJEMPLO10.1. Supóngase que S está distribuidu unifomnemente en el


intervalo [ a , b ] . Por tanto, la fgm está dada por

(10.4)

EJEMPLO10.2. Supóngase que S está distribuida binomiulmnte con


parámetros n y p . Lucgo,

(10.5)

(Esta íjltilnaigualdad se deduce de una


aplicación directa del teorema
del binonlio.)

EJEMPLO10.3. Supóngase que X tiene una distribución de Poisson


con parámetro X. Así,

= e - x ~ x= e~~ (~e ' - l ) (10.6)

(La tercera igualdad se deduce del desarrollo d c cy en x2=0(yn/72!).


Usamos esto con y = Xe t .)
10.3 Ejemplos
funciones
degeneradoras
de momentos 279

EJEMPLO10.4. Supóngase que X tiene una dislribuciónexponencid


con parAmetro a. Por tanto,

(Esta integralconverge sólo si t < a. Por tanto, la fgmexistesólo


para esosvalores de t . Suponiendoque sesatisfaceestacondición,
continuamos.) Luego,

Mx(T)= -e"(t-cr)
t-a

o
-
- t < a. (10.7)
a -t'

Obsemación: Puesto qne la fgm es sólo un valor esperado d e X , se puede


obtener la fgm d e una función d e una variable aleatoria sin obtener primero
su distribución de probabilidades (véase el Teorcma 7.3). Por ejemplo, si S
tiene distribución N(0,l) y deseamos encontrar la fgm de Y = X 2 podemos
proceder sin obtener primerola fdp d e Y.Sirnplcmente escribimos

después de una integración inmediata.

EJEMPLO10.5. Supóngase que X tiene distribución N ( p , a'). En-


tonces,

Sea (x - /&)/o
= S ; así x = as + p y dx = o ds. Por tanto,
280 La función generadora de momentos 10.4

Sea S - 01 = 11; entonces ds = dv y obtenernos

(l0.S)

EJEMPLO10.6. Sea X u n a distribución gccmn con p a r h e t r o s 0 y r


(véase la Ec. (9.16)). Entonces,

(Esta integral converge a condiciónde quc (Y > t ) . Sea z ( a - t ) = u;así,


dz = ( d u ) / ( a- 1)

y obtenemos

Puesto que la integral es igual a r ( r ) ,tenemos

(10.9)

Obsert~arioncs: a ) Si r = 1, l a función gama se convierte e n clistribucirin


exponencial. Observemos que s i r = 1, las ccuacioncs (1 0.7) y (1 0.9) son iglnles.
b ) Puesto quea l distribuci6n cuadrada se obtiene conlo un caso especial
de la distribución +?ma al hacer (Y = 3
y T = n / 2 ( n es un entero positivo),
tenemos que si z tiene distrilxlcibn x i , entonces,

Mz(Z) = (1 - 2 ) - " 1 2 (10.10)


10.4 Propiedades
de la función
generadora de momentos 281

10.4 Propiedades de la funcidn generadora de momentos

Daremos ahorala razón para llamarAdx funcióngenerudom de momentos.


Recordemos el desarrollo en seried e Maclaurin d e la función e":

(Se sabe que esta serie converge para todoslos valores d e x.) A$í,

Ahora,

Ilemos demostrado que para una sumafinita, el valor esperado d e


la suma es igual a la suma de los valores esperados. Sin embargo, con-
siderando una suma infinita como la anterior no podemos aplicar, d e
inmediato tal resultado. No obstante, resulta que en condiciones justa-
mente generales esta operación es todavía válida. Supondremosque las
condiciones pedidas se satisfacen y por consiguiente procedemos.
Recordemos que t es una constante respecto a la esperanza y pode-
mos escribir

Puesto que AIdy es una función d e la variable real t , podemos considerar


que tomamos la derivada de M,y(t) respecto a t , esto es [ d / ( d t ) ] M , , - ( t )
o, en forma breve, AI'(t).Nos encontramos nuevamente con una difi-
cultad matemAtica. La derivada de und3um;ajnitu siempre es igual a
la suma de las derivadas (suponiendo, por supuesto, que todas las de-
rivadas existen). Sin embargo, para una suma infinita esto no siempre
es así. Deben satisfacerse ciertas condiciones a. fin d e justificar esta ope-
ración; sólo supondremos queesas condiciones existen y continuamos.
(En la mayor parte de los problemas que encontraremos tal suposición
se justifica.)Así,
282 La j-unción generadora de momentos 10.4

Al’(t) = E ( X ) + t E ( X 2 )+ t 2 E2!( X 3 )+ * e . +
”t E ( P )+...
( n - I)!

Haciendo -t = O encontramos que sólosubsiste el primer término y


tenernos

Así, l a primera derivada de la fgm calculada en t = O da el valor esperado


d e la variable alcatoria. Si calculamos la segunda derivada d e AfJy(t),
nuevamente procederemos como antes,y obtenemos

M ” ( t ) = E(*?) + t E ( ? i 3 ) + . . + in-”(Sn)
*
( n - a)!
+...

y haciendo t = O, tenemos

M ” ( O ) = E(,Y‘).

Continuando de esta manera obtenemos el siguiente teorenla [supo-


niendo que M ( ” ) ( O ) existe].

Teorema 10.1.

(Esto es, l a n-ésimadcrivada de ArAy(f) calculada en t = O da


K(xn).

Obsemaciotws: a ) Los nillneros E(Xn),n = 1 , 2 , . . ., se llaman n-ésimos mo-


mentos d e la variable aleatoria S respecto a cero. Por tanto, hemos demostrado
que conociendo la función Af,, pueden “generarse” los momentos (de aquí el
nombre de “función generadorad e momentos”).
1)) Recordemos el desarrollo general en serie de Maclanrin d e una función,
digmnos h.
10.4 Propiedades de la función generadora de momentos 283

Mg)(0)tn
Mx(t)= M x ( 0 ) + h_l;i(O)t+ . . . + n!
+ .. .

donde, pi = E ( X z ) ,i = 1 , 2 , . . . En particular,

V ( S )= E ( X 2 )- ( E ( s ) ) 2= M N ( O ) - ["(0)12

c) El lector puede preguntarsesi los metodos anteriores son del todoLítiles.


¿No sería más simple(y m& elemental) calcular directamente los momentos de
S , e n vez de obtener primero la fgm y luego diferenciarla? La respuesta es

que para muchos problemaseste planteamiento es m,is scncillo. Los siguientes


ejemplos lo ilustrar5n.

AI'(t) = n ( p e t + q)n-lpe t ,
M " ( 2 ) = n p [et(. - l ) ( p 2 + '1)n-2pet + (112 + q)'L-let] .
por tanto, E ( ~ Y=
) ~ ' ( 0=
) n p , que concuerda con nuestro resultado
anterior. También, E(4Y2)= AI"(0) = n p [ ( n- 1 ) p 11. Luego, +

lo que nuevamente concuerdacon lo antes cmcontrado.

EJEMPLO10.8. Supóngase que X tiene distribución N ( a , P 2 ) . Por


tanto (Ej. 10.5), M,(i) = cxp(cy2 + $p2t2).Así,
y M‘(0) = Q, M”(0) = p2 + a 2 , dado E ( X ) = cy y V ( X ) = p2 como
ZllltCS.
l esperanza y l a varianza
IJsemos el método de las fgm para calcular a
tlc una variable alcatoria con distribución
dc pi-obabilidades geométrica,
ecuación (8.5).

EJEMPLO10.9. Sea X una distribución de probabilidades geométri-


\
ca. Esto es, P ( X = IC) = & l p , +
= 1 , 2 , . . . ( p q = 1). h i ,

Si nos restringimos a aquellos valores de t para los cuales O < qe‘ < 1
[esto cs, t < ln(l/q)], entonces podemos sumar la serie anterior como
una serie geométricay obtener

Por tanto,

Por tanto,

E(?) = M”(0) = p(l + q)/(1 - q )3 = (1 +q)/pZ,


Y
10.4 Propiedades
de la función
generadora de momentos 285

Tenenlos así una verificación del teorema 8.5.


Los dos teoremas siguientes serán d e particular importancia en nues-
tras aplicaciones d e la fgm.

Teorema 10.2. Supcingase que la variable aleatoria X tiene fgm Al,-.


Sea Y = ax'+ p. Entonces, M y , la fgm d e la variable aleatoria Y ,
esti dada por

M y ( t ) = epfAf2y(cYt). (10.12)

+
En palabras, para enconxar la fgm d e Y = a x p calculamos la
fgm d e X en at (en vez d e t ) y multiplicamos por e Pt .

Demostrución:

Teorema 10.3. Sean x' y Y dos variables aleatorias con fgm, h f , y ( t )


y M y ( t ) , respectivamente. Si M x ( t ) = M y ( t ) paratodos los
valores d e t, entonces X y Y tienen la misma distribución d e
probabilidades.

Demostración: La demostración de este teorema es demasiado dificil


para darla aquí. Sin embargo, es muy importante comprender exacta-
mente lo que establece el teorema. Este dice que si dos variables alea-
torias tienen la misma fgm, entonces tienen la misma distribución d e
probabilidades. Esto es, la fgm determina unívocamente la distribución
de probabilidades d e la variable aleatoria.

EJEMPLO10.10. Supóngase que X tiene 'distribución N ( p , g 2 ) , Sea


Y = a S + p. Luego, Y est&d e nuevo distribuida normalmente. Del
teorema 10.2, l a fgm d e E' es M ~ l ( t =
) ePtAfx(at).Sin embargo, del
ejemplo 10.5 tenernos que

Por tanto,
286 La función generadora de momentos 10.5

= e (BSnp)le(ao)'t?/2

Pero &la es la fgm d e una variable aleatoria distribuida normalmente


+
con esperanza a p p y varianza 0 2 c 2 .Así, de acuerdo con el teorema
10.3, la distribución d e Y cs normal.
El teorema siguiente también dcsempefia un papel vital en nuestro
trabajo posterior.

Teorema 10.4. Sup6ngasc qtle ,Y y Y son variables aleatorias inde-


pendientes. Sca 2 = X + 1'. Sean AI,(t), M , r ( t ) y M,(t) las fgm
d e las variables aleatorias X , E' y 2,respectivamente. Entonces,

h'lZ(t) = izr,(i)nr,..(q (10.13)

Dernostrución:

Obseruacio'n: Este t.corema puede generalizarse como sigue: si S I , . . . , Sn,


son variables aleatorias independientes con fgm, Al-yt, i = 1 , 2 , . . . , n entonces
W z , la Fgnl de

CSL< dada por

10.5 Propiedades reproductivas

H a y varias distribuciones d e probabilidades que tienen la notable y útil


propiedad siguiente: si dos ( o m5s) variables alcatorias independientes
~ I Iticncn
C cicrta distribuciónse suman, l a variable alcatoria quercsulta
10.5 reproductivas Propiedades 287

tiene una distribución del mismo tipo que la d e los sumandos. Esta pro-
piedad se llamapropiedud reproductiva, y la estableceremos para diversas
distribuciones importantes con ayuda d e los teoremas 10.3 y 10.4.

EJEMPLO10.1 1. Supóngase queX y Y son variables aleatorias inde-


pendientes con distribucionesN ( p 1 , a ; ) ,y N ( p 2 , ai),respectivamente.
Sea 2 = X + Y . Por tanto,

Sin embargo, esto representala fgm de unavariable aleatoria distribuida


normalmente con valor esperado 2 +ai. Así, 2 tiene
p 1 +p2 y varianza al
esta distribución normal. (Véase el Teorema10.3.)

+ +
Obsemacidn: El hecho d e que E ( Z ) = p 1 p2 y que V ( 2 )= u ; 6; pudo
haberse obtenido inmediatamente d e los resultado’santcriorcs relacionados con
las propiedades de la esperanza y la varianza. Pero para esmblccer que Z
esí3 otra vez distribuida normalmente fue necesario el uso d c la fgm. (€lay otro
planteamicnto para llegar a este resultado que mencionaremos en el capítulo
12.)

EJEMPLO10.12. La longituddeuna varilla aleatoriadistribuida


normalmente con medida de4 pulgadas y varianza 0.0 1 pulgada?. Dos
de tales varillas seponen extremocon extremo y se fijan en una muesca.
El largo d e esta muesca es de 8 pulgadas con una tolerancia de &O. 1 d e
pulgada. ?CuAl es la probabilidad d e q u ese ajusten las dos varillas?
Representando conL1 y L2 las longitudes d e la varilla 1 y la varilla 2,
+
tenemos que L = L1 L2 estA distribuida normalmente con E ( L ) = 8
y V ( L )= 0.02. Por tanto,

P[7.9 5 L 5 8.11 = P
[-
7.9 - 8
0.14
5--<-
0.14
L.- 8 8.1 - 8
- 0.14 1
= @(+0.714) - a(”0.714) = 0.52G,

de las tablas de la distribución normal.


I Podemos generalizar el resultado anterior en el teorema siguiente:
288 La función generadora
de momentos 10.5

Teorema 10.5. (la prol,iedad r@-oductiva de lu distribución normd).


Sean X I , X2,. . . ,X n , n variables aleatorias independientcs con
distribución N ( / L ~a:),
, +
i = 1 , 2 , . . . ,n. Sea 2 = S 1 + . . . -Yn.
Entonces, Z tienc distribución N(C:==, P;,C;=~ 3
a;).
La distribución d e Poisson también posee una propiedad repro-
ducha.

Teorema 10.6. Sean X I , . . . ,X n variables aleatorias independientcs.


Supóngase que X; tienc una distribución de Poisson con paráme-
tro ai, i = 1 , 2 , . . . ,n y sea 2 = X1 + . + X n . Lucgo, 2 tiene una
distribución d e Poisson con parámetro

Demostración: Considcrcmos primero el caso d e n = 2:

1
Por lo tanto, M,(t) = e(cul+cra)(e-'I.Pero Csta es la fgm de unavariable
aleatoria con una distribuciónde Poisson que tiene parrimctro01 "2.+
Ahora podemos completar la demostración del teorcma con ayuda de
la inducción matemática.

EJEMPLO10.13. Supóngasequeelnúmerode llamadas que se


recibcn en u n a central tclcfónica cntre las 9 A M y 10 A M es una variable
aleatoria X 1 con una distribución d e Poissoncon parámetro 3 . De
manera similar, el número de llamadas que se reciben entre las 10 A M
y 11 A M , digamos X2, también tiene una distribución d e Poisson con
parámetro 5. Si X1 y X2, son independientes, <cuál es la probabilidad
dc quese reciban más d e cinco llamadas entre las 9 AM y las 11 A M ?
Sea Z = X 1 + X2. Del teorema anterior, 2 tiene una distribución d e
Poisson con parámetro 3 + 5 = 8. Por tanto,

= 1 - 0.1912 = 0.8088

Otra distribuciGn con una propiedad reproductiva es la distribución


x-cuadrada.
10.5 reproductivas Propiedades 289

Teorema 10.7. Supóngaseque la distribución d e X; es i =xii,


1 , 2 , . . . ,k , donde las X ; son variables aleatorias independientes.
Sea 2 = X1 + + Xk. Entonces, 2 tiene distribución &, donde
n = nl + + nl;.
Demostración: De la ecuación (10.1 O) tenem'os Mxi( t ) = (1 - 2t)-""/",
i = 1 , 2 ,..., k .
Luego,

M&) = M & ( t ) * * M & ( t ) = ( 1 - ;!t)-(nl+"nk)/2


Pero ésta esla fgm d e una variable aleatoriaque tienela distribución xi.
Ahora podemos dar una delas razones d e la gran importancia de l a
distribución X-cuadrada. En el ejemplo 9.9 encontramos que si A' tiene
distribución N ( 0 , l ) ,S 2 tiene distribución X:. Combinando esto con el
teorema 10.7 tenemos el resultado siguiente.
Teorema 10.8. Supóngase que X I , . . . ,X k son variables aleatorias

+S i + +
independientes,cadaunacondistribución N ( O , l ) . Entonces,
S = X; X: tiene distribución x 2k .
EJEMPLO10.14. Supóngase que XI, . . . X n son variablesaleato-
riasindependientes,cadaunacondistribucibn N(0,l). Sea T =
d w . De nuestraexposiciónpreviasabemosque T 2 tiene
distribución x:&.
Para encontrar la fdp deT , llamada h,, proseguiremos como es usual:

H ( t ) = P ( T 5 t ) = P(T2 5 t2)

Por tanto tenemos

h ( t ) = II'(t)
290 La futrciótt generadora de momentos 10.5

Observaciones: a ) Si n = 2, la distribución anterior se conoce comodistribucio'n


de Ruyleigh. (Véase el Prob. 9.7.)
b ) Si n = 3, la distribucidn anterior se conoce comodistribución ok Muxu1ell (o,
algunas veces, como distribución de velocidad de Maxwell) y tiene la siguiente
interpretación importante. Supóngase que tenemos g;zs en un depósito ce-
rrado. Representemos con (X,Y ,2) las componentes de la velocidad de una
molécula escogida al azar. Supondremos que X , Y y 2 son variables aleato-
rias independientes, cada una con distribuci6n N ( 0 , u*). (Suponer que X , Y
y 2 tienen la misma distribucibn, significa que la presión en el gas es la mis-
ma en todas direcciones. Suponer que las esperanzas son iguales a cero sig-
nifica que el gas no está escaphdose.) Por lo tanto, la rapidez de la molécula
(es decir, la magnitud de su velocidad) está dada por S = J X 2 + Y 2 + Z2.
Observemos que X / a , Y / u y Z/u están distribuidas de acuerdo con N(10,1).
Así, S / a = ~ ( X / ( + T ) ~ + ( Z / U ) tiene
~ distribución de Maxwell. Por
tanto, g, la fdp de la rapidez S , está dada por

LagrAfica de g se presenta en la figura g(s)


10.2 para u = 2. Observe que valores 4
muy grandes o muy pequeños de S son
bastante improbables.(Puede demostrar-
se que l a constante u,que aparece como
un parámetro en la distribución ante-

,/m,
rior,tienelasiguiente interpretación
fííica: u = donde T es la tem- S,
peratura absoluta, M eslamasa de la S =d 2 / F
molécula y k se conoce como la constante
de Boltzmann.) FIGURA
10.2
Hemos expuesto algunas distribuciones que tiene la propiedad re-
productiva. Consideremos la distribución exponencial que, en sentido
estricto no posee la propiedad reproductiva, pero que,sin embargo, PO-
see una propiedad análoga.
Sean S;, con i = 1 , 2 , . . . ,T , T variables aleatorias independientes
con idéntica distribución exponencial con parametro a. Entonces, de
la ecuación (10.7) tenemos

M&) = ( . / ( a- t ) .

Luego, si Z = x'1 + - e - +
S T , tenemos 211z(t) = [ a / a- t]', que

precisamente es la función generadora de momentos de la distribución


10.6 Sucesiones
aleatorias
variables de 291

gama con parámetro a y r (Ec. 10.9.) A menos que r = 1, ésta no


es la f g n d e u n a distribución exponencial; así, esta distribución no
poseeunapropiedadreproductiva,perotcnemosunacaracterística
muy interesante d e l a distribución gama que se resume en el teorema
siguiente.

Teorema 10.9. Sea 2 = X1 + + X r , do'nde las Xr; son r variables


aleatorias independientes e idénticamente distribuidas, cada una
d e las cuales tiene una distribución exponencial con el (mismo)
parámetro a. Se cumple, entonces, que 2 tiene una distribución
gama con parámetrosa y r.

Obse~vacwnes: a ) El teorema 10.9 no se. cumple silos parámetros de las


diversas distribuciones esponenciales son diferentes. Esto se hace evidente
cuando consideramos la fgm' de la suma resultante d e las variables aleatorias.
b ) El corolario siguiente del teorema anterior ticne mucha importancia en
ciertas aplicaciones estadísticas: la variable aleatoria LV = 2aZ tiene distri-
bución S;,. Ésta es una consecuencia inmediata dcl hecho d e que M ~ 7 ( t ) =
n/lz(2at)= [ a / ( &- 2at)lr = (1 - 2t)-2T/2. Comparando esto con la ecuación
(10.10) rcsulta el corolario anterior. Así podemos usar la distribución tabulada
dc X-cuadrada para calcular ciert3s probabilidades asociadas con 2.Por ejem-
plo, P ( Z 5 3) = P(2aZ 5 6a). Esta últimaprobabilidad puede obtenerse
directamente delas tablas d e la distribución X-cuadrada, si se dan cy y r.

10.6 Sucesiones de variables aleatorias =

Supóngase que tenemos una sucesiónd e variables aleatoriasX I , X'2, . . . ,


X, . . . Cada una de ellas puede describirse en términos d e F;, su fda,
donde F;(t) = P ( X i 5 t ) , i = 1 , 2 , . . . Muy a menudo nos interesa lo que
succde a F; cuando i + OO. Es decir (hay alguna función de distribución
limite F correspondiente a alguna variable alcatoriaA ' tal que, dc alguna
manera, las variablesaleatorias S; converja.n a S ? Larespuesta es
afirmativa en muchos casos, y hay un procedimicnto bastante directo
para determinar F .
T a l situación puede aparecer cuando consideramosn observaciones
independientes de una variable aleatoria X, llamémoslas S I , . . . ,,Yn.
Podríamos interesarnos porel promedio aritnn6tico d c esas observacio-
nes, X , = ( l / n ) ( X 1 + . - .+X,). De nuevo, x T t e s u nvarinl>le
-
a aleatoria.
Sea FTL la fda d e X,. Podría ser d e interés aprender lo que sucede a la
distribución d e probabilidades d e X, cuando n llega a ser grande.Así,
292 La fulrción generadora de momentos

nuestro problema implica la conduct,a límite de Fn cuando n .-+ m. El


teorema siguiente, establecidosin demostración, nos permitirá resolver
éste y otros problemas semejantes.

Teorema 10.10. Sean X I , . . . ? X n , .. . una sucesión de variables alea-


torias con fdaF l ? .. . , F n ? .. . y fgm M I , . . . , M n , . . . Supóngase que
M n ( t ) = J/r(t),donde M ( 0 ) = 1. Luego, M(t) esla fgm
de la variablealeatoria X cuyafda F est6 dadapor Fn(t).

Obseruacidn: El teorema 10.10 establece que para obtener la distribución


límite buscada es suficiente estudiar las fbnciones generadoras de momentos
d e las variables aleatorias que se consideran. Obtenemos el valor límite d e las
sucesiones M I , . . . , M,, . . ., llamado M ( t ) . Debido a la propiedad de unicidad
d e la fgm, existe sólo una distribución d e probabilidades que corresponde a
la fgm M ( t ) . Podemos aceptar M como la fgm de una distribución conocida
(como la normal, dePoisson, etc.) o bien podemos usar métodos m5s avanzados
para determinar la distribución de probabilidades d e M. Así como podemos
obtener la fgrn conociendo la fdp, también podemos obtener (en condiciones
completamente generales) la fdp conociendo la fgm. Esto implicaría ciertos
teoremas de inversión, por lo que aquí no lo estudiaremos.

1O. 7 Nota final

Hemos visto que la fgm puede ser una herramienta muy poderosa para
estudiar diversos aspectos d e las distribuciones d e probabilidades. E n
particular, encontramos muy útil el uso de la fgm para estudiar sumas
d e variables aleatorias independientes e idhticamente distribuidas y
obtener diversas leyes reproductivas. Estudiaremos otra vez las sumas
de variables aleatorias independientes en el capítulo12, sin usar la fgm,
pero con métodos semejantes a los que empleamos cuando estudiamos
el producto y el cociente de variables aleatorias en el capítulo 6.

PROBLEMAS

f(z) = 2 2 , o I:2 5 1.
a) Dctcrminar I n fgm de A’.
h ) Usando la fgm, calcular E ( S ) y V ( 9 ) y verificar la respuesta. (Véase la
l p. 232.)
Observación dca
Problemas 293

10.2. a ) Encontrar la fgm del voltaje (incluyendo el ruidot d como se expuso


en el problema 7.25.
b ) Usando la fgm, obtener el valor esperado y la varianza d e este volmje.
10.3. Suponer que X tiene la fdp siguiente

f ( z >= A e - ’ ( z - a ) , x>a.

(Ésta es conocida comouna distribucwn exponencial con dos paránztros.)


a) Encontrar la fgm d e X .
b) Usando la fgm, encontrar E ( S )y V(X).
10.4. Sea X cl resultado cuando sc lanza un dadoregular.

a) Encontrar la fgm d e X . .
b) Usando la fgm, encontrar E ( X ) y V ( X ) .
10.5. Encontrar la fgrn d e la variable aleatoria X del problema 6.7. Usando
la fgm, encontrar E ( X ) y V(X).
10.6. Supóngase quela variable aleatoria continua X tiene fdp

a) Obtener la fgm d e X .
b) Usando la fgm, encontrar E ( X ) y V ( X ) .
10.7. Usando la fgm, demostrar quesi X y Y slon variables aleatorias inde-
pendientes con distribucióniV(pz,C T ~y) N ( p y ,u , ” )respectivamente,
, entonces
+
2 = a X b Y está d e nuevo distribuida normalmente, donde a y b son constan-
tes.
10.8. Suponer quela fgm de unavariable aleatoria X es de la forma

AIx(t) = (0.4et + 0.6)’


a) ¿Cuál esla fgm d e la variable aleatoria Y = 3X 2? +
b) Calcular E ( X ) .
c) ¿Se puede verificar la respuesta b) por algxín otro método? [Trjtese d e
‘‘reconocer’’M,(t).]
10.9. Varias resistencias, R;, i = 1,2, . . . , n, se ponen e n serie en uncircuito.
Suponer que cada una de las resistencias está distribuida normalmente con
E ( & ) = 10 ohms y I/(&) = 0.16:
U ) Si rz = 5, ¿m51es la probabilidad de que la resistencia del circuito
sobrepase los 49 ohms?
294 La función generadora de momentos

b ) ?Cuál debe ser el valor d e n d e manera que la probabilidad de que la


resistcncia total exceda los 100 ohms sea aproximadamente 0.05?
1O. 1O. E n un circuito se ponen n resistencias en serie. Supóngase que cada
una d e las resistencias está distribuida uniformemente en [O, 11 y sup6ngase,
lsresistencias son independientes.Sea R la resistencia total.
además, que todasa
a ) Encontrar la fgm d e R.
b ) Usando la fgm, obtener E ( R )y V ( R ) .Verificar la respuesta conu n cdlculo
directo.
10.11. Si X tiene una distribución x:, utilizando la fgm demostrar que
E ( S ) = n y V ( X ) = 2n.
1O. 12. Supbngase que V, la velocidad de unobjeto (cdseg), tiene distribu-
ci6n N(O,4). Si Ir‘ = mV2/2 ergs es la energía cinética del objeto (donde m =
masa), encontrar la fdp d e IC. Si m = 10 grs, calcular P ( I < 5 3).
10.13. Supóngase que la duraci6n de un artículoest5 distribuida exponen-
cialmente con par5metro0.5. Supóngase q u e 1O d e tales articulos se instalanen
forma sucesiva, de manera queel i-ésimo artículo se instala “inmediatamente”
después de queel (i - 1) artículo ha fallado. Sea Ti el tiempo para que ocurra
la falla del i-ésinlo artículo, i = 1 , 2 , .. . , 10 medido siempre desde el ticmpo
+ +
d e instalación. Por lo tanto S = TI . . . 7’10 representa el tiempo totnl de
funcionamiento d e los 10 artículos. Suponiendo quelas Ti son independientes,
calcular P ( S 2 15.5).
1O. 14. Supóngase que X1 , . . . , X80 son variables aleatorias independientes,
+ +
donde cada una tiene distribución N ( 0 , l ) . Calcular P[X; . . . Xio > 771.
[Sugerencia: Usar el teorema 9.2.1
1O. 15. Demostrar que si X;,i = 1, 2 , . . . , IC representa el número deéxitos en
ni repeticiones de un experimento, donde P(@xito) = p , para toda i, entonces
X 1 + . . . +XI,tiene una distribución binomial. (Esto es, la distribución binomial
tiene la propiedad reproductiva.)
10.16. (La distribucióndePoisson y la multinomial.) Supóngase que X;,i =
1 , 2 , . . . , n son variables aleatorias distribuidas independientemente con una
distribuci6n d e Poisson con parámetros a;, i = 1,.. . , n. Sea X = X;.
Entonces la distribución de probabilidades condicional conjuntad e X I , . . . , X ,
dada X = z está dada por una distribuciónmultinomial. Esto es P(X1 =
”1,. . . , x, = z, I X = z) = Z!/(Zl!.. .zn!)(LY1/Cp=lC y p . . . (a,/C;=l
a;)””.

1O. 17. Obtener la fgm de unavariable aleatoria que tiene unadistribuci6n


geométrica. CEsta distribución posee una propiedad reproductiva en la adi-
ción?
Problemas 295

10.18. Si la variable aleatoria X &ne una fgm dada por Mx(t)= 3/(3 - t ) ,
obtener la desviación estándar d e X .
10.19. Encontrar la fgm de una variable alleatoria que esti distribuida
uniformemente en(- 1,2).
10.20. Cierto proceso industrial produce un gran número d e cilindros d e
acero cuyas longitudes están distribuidas normalmente con promediod e 3.25
pulgadas y desviación estándar d e 0.05 pulgada. Si se eligen alazar dosd e tales
cilindros y se ponen extremo con extremo, ?cuál es la probabilidad d e que la
longitud combinada sea menorque 6.60 pulgadas?

Obsemacidn: Al calcular AI$ (t), en t = O, puede aparecer una forma indeter-


minada. Es decir, M i ( 0 ) puede ser dela forma O/O. En tal caso debemos tratar
d e aplicar la regla d e L'IIGpitd. Por ejemplo, si .X está dimibuida uniforme-
mente en [O, 11 con Gcilidad encontramos que hf.,(t) = ( e t - 1)/¿ y h . I i ( t ) =
(tet - et+ l ) / t 2 . Por tanto, para t = O, M i ( t ) es indeterminada. Aplicando la
regla de L'MGpitaI encontramos que limt,o M ~ ( I ! ) = limt,o tet/2t = +. Esto
concuerda, puesto que M i (O) = E(X), que es igual a para la variable alea-
toria descrita aquí.
11.1 Conceptos básicos

En este capítulo estudiaremos unArea creciente y muy importante de


aplicación d e algunos d e los conceptos presentados en los capítulos
anteriores.
Supóngase que consideramos un componente (o un conjunto com-
pleto de componentes armados en un sistema) que se somete a una es-
pecie d e “tensión”. Podría ser una barra de acero bajo una carga, un
fusible puesto en uncircuito, un ala de aeroplanobajo l a influencia d e
fuerzas, o un instrumento electrónico puesto1 en servicio. Supóngase
que se puede definir un estado que designaremos como “falla” para
cualquier componente (o el sistema). Es decir, la barra de acero puede
agrietarse o romperse, el fusible puede quemarse,el ala puede doblarse,
o el instrumento electrónico puede dejar de filncionar.
Si tal componente se pone en condiciones d e tensión durante un
tiempo determinado, t = O, y lo observamos hasta que falla (es decir,
deja d e funcionar correctamente debido ala tensión aplicada), eltiempo
para que ocurru la fullu o la duración Ilamémos1.0 T , puede considerarse
como una variable aleatoria continua con una fdp f. Hay evidencias
298 Aplicaciones alala de
teoríu confiabilidad 11.1

empíricas que indican que el valor de T no puede predecirse con un


modelodeterminista. Es decir, componentes“idénticos”sometidos a
tensiones“idénticas”fallarán en tiempos diferentes e impredecibles.
Algunos Fallarán muy al iniciar su funcionamiento y otros en etapas
posteriores. Por supuesto, “la manera de fallar” dependerá del tipo de
artículo que se considera. Por ejemplo, u n fusible fallará d e improviso
en el sentido de que en un momento dado funciona perfectamente y
al momento siguiente no funciona. Por otra parte, una barra de acero
bajo una carga pesada se debilitará probablemente en el transcurso d e
u n largo periodo de tiempo. En cualquier caso, el uso de un modelo
probabilístico, considerado T como una variable aleatoria, parece ser el
Único planteamiento realista. Presentamos ahora el siguiente concepto
importante.

Definición. La conJiabilidud deuncomponente (o sistema)enel


tiempo t , llamémosla R(t),está definida como R ( t ) = P ( T > t ) ,
donde T es la duración del componente R se llamafuncio’n de
conJabilidad.

Observacwn: Aunque el término “confiabilidad” tiene diversos significados


técnicos, la acepción anterior es la que en general se acepta. La definición
dada aquí expresa simplemente que la confiabilidad de un componente es
igual a la probabilidad de que el componente no falle durante el intervalo
[O, t ] (o, equivalentemente, la confiabilidad es igual a la probabilidad de que
el componente aún funcione despuésde untiempo t). Por ejemplo, si para un
articulo particular, R(t1) = 0.90, esto significa que casi el 90% de tales artículos,
usados en ciertas condiciones, todavía filncionan despuésde untiempo t l .
En términos d e la fdp d e T , Uamémosla f,tenemos

En términos de la fda d e T , llamémosla F , tenemos

R(1) = 1 - P ( T 5 t ) = 1 - F(1).

Además de la funci6n confiabilidad R, otra función desempeña un


papel importante para describirlas partes que fallan de un artículo.

Definición. La tasa de falla (instantánea) 2 (algunas veces llamada


función de riesgo) asociada con la variable aleatoriaT está dada por
11.1 Conceptos básicos 299

(11.1)

dcfinida para F ( t ) < 1.

Observacwn: A fin d e interpretar Z ( t ) consideremos In probabilidad condi-


cional

es decir, la probabilidad de que el articulo falle durante las próximas At uni-


dades d e tiempo, dado q u e cl articulo estA funcionando correctamente en cl
instante 1. Aplicando la dcfinición d e probabilidad condicional, podemos escri-
bir lo anterior como

P ( t < T < t + A t-
)
P(tLTLt+AtJT>t)=
P(T > t )

+
donde t 5 $, 5 t At.
La última expresión (parauna At pequeiia y suponiendo que f es continua
en t por la derecha) es aproximadamente iguala A t Z ( t ) . Así, en un lenguaje
informal, A t Z ( t ) representa la proporción de a~rticulosque estar5 entre t y
t -+ A t , d e aquellos artículosque aúnfuncionan en el instante t :
De lo anterior observamos que f, la fdp d e T , determina unívocamente la
tasa d e falla 2. Indicaremos ahora que lo recíproco mmbién es válido: la tasa
d e falla Z determina unívocamentc la fdp f .

Teorema 11.1. Si T , el tiempo para que ocurra la falla, es una variable


aleatoria continua con fdp f y si F ( 0 ) == O, donde F es la fda d e
T , entonces f puede expresarse en términos de la tasa de falla 2
como sigue:
t Z ( s ) ds
j ( t )= z(t)e-Jo (11.2)
300 Aplicaciones a la teoríu de la confiabilidad 11.1

I ntcgrantlo ambos miembros de O a 1:

1m1
= - 1 n(s>
R’(s)
ds = - 111 R ( s ) (0
t

= - I n R ( t ) + I n R(0) = - I n B ( t ) ,

suponiendo que 111R(0) = O lo que es d l i d o si y só1o si n ( 0 ) = 1. [Esta


Última condiciónsesatisface si F ( 0 ) = O. Esto sinlplcmente expresa
que la probabilidad de una falla inicial es igual a cero; harcmos esta
suposición durante el resto d e la exposición.] Por tanto,

R ( t )= e - J”;
Z ( s ) ds

hs í.

d t
f(l)= F’(t) = - [l - q t ) ]= z(l)e-Jo Z ( 3 ) ( / S
dt

Por lo tanto, hemos demostrado quc la tasa d e falla Z dctcrmina unívo-


canlente la fdp f .

Existe una relación intcresante entre la función de confiabilidad R y


el tiempo promedio de falla, E ( T ) .

Teorema 11.2. Si E ( T ) es finito, entonces,

E ( T )= lo R(t) dt (11.3)

Denzostl-ación: Considcrar

Lo R(t) d l = im
[i” f(s) ds] dt .
11.2 La ley normal de falla 301

L a segunda integral del segundo miembro representa E ( T ) . Por tan-


to, la demostración está complcta si podemos demostrar que t so” f(s)
ds se anula en t = O y cuando t -+ m. La anulación en t = O es inme-
diata. Sabiendo queE ( T ) es finita, el lectorpuede completar la demos-
tración.
Los conceptos d e confiabilidad y tasa d e falla estrin entre las herra-
mientas necesarias m B s importantes para un estudio de los “modelos de
falla”. Nos ocuparemos sobre todo delas siguientes preguntas:
a) ¿CuAles son las “Icyes d e falla” fundamentales que razonablemente
se pueden suponer? (Es decir, ¿qué forma tendría la fdp deT ? )
b ) Supóngase que tenemos dos componentes, C1 y Cz, con leyes d e
falla conocidas. Suponiendo quc dichos componentes se combinan en
serie

o en paralelo

para formar un sistema, <cuál es la ley d e Falla ( o confiabilidad) del


sistema?
L a pregunta cuál es una ley d e falla “razonable” nos remite a un pro-
blema que hemos presentado antes: <cuál es un modelo matemático ra-
zonable para la descripción de algunos fenómenos observables? Dcsde
un punto de vista estrictamente matemático, d e hecho podemos supo-
ner cualquier fdp paraT y luego estudiar sólolas c o n ~ ~ c u ~ n c i esta
a~ de
suposición. Sin embargo, si estamos interesados en tencr un modelo que
represente (lo más exactamente posihle) los datos de fhllas disponibles
en realidad, nuestra elección del modelo debe tener esto en cuenta.

11.2 La ley norma€ de falla

Hay muchos tipos de componentescuya cond m a d e falla puede repre-


sentarse con l a distribución normal. Es decir, si T es la duración de un
artículo, su fclp está dada por
302 Aplicaciones a la t e 0 6 de la cowjiabilidad 11.2

[Nuevamente observamos que el tiempo para que ocurra la falla T , debe


ser mayor que,o igual a cero. Por tanto, para que el modelo anterior sea
aplicable debemosinsistir en queP(T < O) esté cercanaa cero.] Como la
forma d e la fdp normal lo indica, una ley normal defalla implica que la
mayoría d e los artículos fallan alrededor del tiempo promedio de falla,
E ( T ) = p y el número de fallas disminuye (simétricamente) cuando
IT - pI aumenta. Una ley normal de falla significa que alrededor del
95.72% d e las fallas tiene lugar para los valores d e t que satisfacen
{ t I It - p I < 2u}. (Véase la Fig. 11.1.)

La función d e confiabilidad d e la ley normal defalla puede expresar-


se mediante la función de distribución normal acumulativa tabulada @,
como sigue:

R(t)= P(T > t ) = 1- P(T 5 t )

=I-+-) t-P

*N.del E. Obsérvese que P [ t I It - pI < 2u] = P[t I -2 < % < 21 =


@(2) - @(-a). De la tabla 1, @(a) = 0.9772 y @(-a) = 0.0228, por tanto,
P[t I It - pI < 201 = 0.9544 y no 0.9572 como se indica en la figura.
11.3 La ley exponencial de falla 303

La figura 11.2 muestra una curva general deconfiabilidad para una ley
normal de falla. Nótese que para obtener una confiabilidad alta(0.90 o
mayor), el tiempo de operación debe ser considerablemente menor que
p , la duración esperada.

EJEMPLO11.1. Supóngase que la duración de un componente está


distribuida normalmente con una desviación (estándar igual 10
a (horas).
Si el componente tiene una confiabilidad de 0.99 para un periodo de
operación de 100 horas, Ccuál debería ser su duración esperada?
La ecuación anterior se transforma en

0.99 = 1 - @ (-ib-)
100 - 1.1
.

De las tablas d e la distribución normal se tiene (100 - p)/lO = -2.33.


Por Io tanto p = 123.3 horas.
La ley normal defalla representa un modelo apropiado para los com-
ponentes en los cuales la falla se debe a algunos efectos d e “desgaste”.
Sin embargo, ésta no es una de las m& importantes leyes d e falla que
existen.

11.3 La ley exponencial de falla

Una de las leyes d e falla más relevantes es aquella cuyo tiempo para
que ocurra la falla se describe mediante la distribución exponencial.
Podemosdescribirla de varias maneras, pero probablemente la m&
sencilla es suponer que la tasa de fallas es constante, es decir Z ( t ) = a.
Una consecuencia inmediata d e esta suposición es, según Ia ecuación
(11.2), que la fdp asociadacon el tiempo para que ocurrala falla, T , está
dada por

f ( t ) = a e -at , t > O.

El recíproco es t a m b i h inmediato: si f tiene la forma anterior, R ( t ) =


1 - F ( t ) = e-at y, por tanto, Z ( t ) = f ( t ) / R ( t )= a. A s í , tenemos el
siguiente resultado importante.

Teorema 11.3. Sea T , eltiempoparaqueocurrauna falla, una


los valores no negativos.
variable aleatoria continua que toma todos
304 Aplicaciottes
a laconfiabilidad
t e la
o h de 11.3

Entonces, T tiene una distribución exponencial si y sólo si tiene


una tasa constante d e fallas.

ObsPruacióu: Puede interpretarse que la suposición de una tasa constante de


fall= significa que después deque el articulo se ha usado, la probabilidad de
que falle no ha cambiado. Dicho de una manera más informal, no hay efecto
de “desgaste” cuando se estipula el modelo exponencial. Existe otra manera
de expresarlo anterior, la cual hace estepunto aún m& evidente.
Considéresepara At > O, P ( t 5 T _< t + At I T > 1). ksta representa
In probabilidad de que el artículo falle durante las siguientes At unidades,
dado que no ha fallado e n el instmte t . Aplicando la función de probabilidad
condicional, encontramos que

Por tanto, estaprobabilitlad condicional es indepcndiente d e f y sólo depende


de At. Es en este sentido que podemos decir que una ley esponencial de falla
implica que la probabilidad d e fallar es independiente del pasado. Es decir,
mientras el articulo funcione es “tan bueno como si fuera nuevo”.
Si desarrollamos el segundo miembro de la expresión anterior en una serie
d e Maclaurin obtenemos

= aAt + qat).
donde //(At) llega a serdespreciablepara At pequeña. A s í para At sufi-
cientemente pequeña, la probabilidad anterior es directamente proporcional
a At.

Para muchos tipos de componentes, la hipótesis que conduce a la


ley exponencial d e falla no es sólo intuitivamcnte atractiva sino que en
realidad está sustentada en evidencias empíricas. Por ejemplo, es muy
razonablc suponer que unfusible o un cojinete d e rubíes es “tan bueno
como si fuera nuevo” mientras est6 funcionando. Es decir, si el fusible
no se h a fundido, prácticamente está como nuevo. Tampocoel cojinete
cambiará mucho debido al uso. En estos casos, la ley exponencial de
falla representa un modelo apropiado para estudiar las características
que fallan en un artículo.
11.3 La i'ey
deexponencial falla 305

Sin embargo, aquí debemos hacer una advertencia. Hay muchas si-
tuaciones que implican estudiosd e fallas para las cuales las suposiciones
básicas que conducen a una ley exponenciall no serán satisfechas. Por
ejemplo, si una pieza d e acero se expone a una tensión continua, eviden-
temente sufrirá un deterioro y, por tanto,se debe considerar un modelo
distinto al exponencial.

FIGURA11.3

Aunque antes discutimos las distintas propiedades d e la distribución


exponencial, resumAmosla nuevamente a fin d e tenerla disponible para
elobjetivo presente.(Véase la Fig. 11.3,) Si T , eltiempoparaque
ocurra la falla, est5 distribuida exponenciallmente (con parámetro a ) ,
tenemos

E ( T )= l / a ; V ( T )= 1/cy2;

F ( t ) = P(T 5 t ) = 1 - ,-at; R ( t ) = e--cut

EJEMPLO11.2. Si se da el pargmetro cy y se especifica R ( t ) ,podemos


encontrar t , el número de horas de operaci6n.Así, si a = 0.01 y R(t) es
igual a 0.90, tenemos

-0.012
0.90 = e

Luego t = -100 ln(0.90) = 10.54 horas. Por tanto, si los 100 componen-
tes funcionan durante 10.54 horas, aproxi:madamente 90 no fallarán
durante ese periodo.

Observaciones: a) Es muy importante darse cuenta de que enel caso expo-


nencial podemos identificar el tiempo d e operaci.6n (de algiln valor inicial fijo
teoriú
306 Aplicaciones a laconfiabilidad
la de 11.3

arbitrario) con la d u d para funcionar. Porque en este caso, un artículo que no


112 fallado es tan bueno como si fuera nuevo y, por tanto, su conducta duran-
te cualquier periodo d e servicio depende sólo d e la longitud d e ese periodo
y no de su historia anterior. Sin embargo, cuando se supone una ley de falla
no exponencial (tal como la ley normal o una de las distribuciones que consi-
deraremos en breve), la historia pasada tiene efecto sobre el comportamiento
del artículo. Por tanto, mientras podamos definirT como el tiempo en servicio
(hasta la falla) para el caso exponencial, debemos definir T como la duración
total hasta la falla para los casos no esponenciales.
b) La distribución exponencial, que hemos presenmdo en relación con la
duración d e los componentes, tiene muchas otras aplicaciones importantes. En
realidad, cada vez que una variable aleatoria continua T que toma valores no
negativos satisface la suposición P(T > S + t I T > S) = P(T > t ) para toda
S y t , T tendr5 una distribución exponencial. A s í , si T representa el tiempo
que demora un fitorno radioactivo en desintegrarse, podemos suponer que T
e s t i distribuida exponencialmente, puesto que la suposición anterior parece
satisfacerse.

EJEMPLO11.3. No es irrazonable suponer que cuesta más producir


un artículocon una gran duración esperadaque uno con una esperanza
pequeña de duración.Específicamente suponemos que el costo C para
producir un artículo es la siguiente función d e p , el tiempo promedio
para que ocurrala falla,

c = 3 p2 .
Supóngase que se obtiene una utilidad deD dólares por cada hora que
el artículo está en servicio. Luego, la utilidad por artículo está dada por

P = D T - 3 p ,2

donde T es el número de horas que el artículo funciona correctamente.


Por tanto, la ganancia esperada está dada por

Para encontrar para qué valor de p esta cantidad es máxima, simple-


mente hacemos d E ( P ) / d p igual a cero y resolvemos para p . El resulta-
do es p = DIG y, por tanto, la utilidad esperada máxima pol- artículo es
igual a E ( P ) ~=, 0’/12.
~ ~
11.4 falla y
La ley exponencial de la d‘istn’bucidn de Poisson 307

EJEMPLO11.4. Reconsideremoselejemplo 1 1.3, haciendo las si-


guientessuposicionesadicionales.Supóngase que T , el tiempo para
que ocurra laTalla, está distribuida exponencialmente con parrimetro
(Y.Luego p , el tiempo esperado para que ocurrala Talla, está dada por
p = l/cr. Supóngase, además, que si el artículo no funciona correcta-
mente al menos un número específico d e horas, digamos t o , se fija un
castigo igual a K(to - T ) dólares, donde T(2’ < to) es el tiempo en el
cual tiene lugar la falla. Por tanto, la utilidad por artículo está dada por

P = DT -3p2 si T > to,

L,uego, la utilidad esperada (por artículo) puede expresarse como

E(P)= D 1 O
00
tae-at d t -3p 2 e -afo

+ ( D + Ii‘) I
Jo
10
tae-at dt -(3p2 + I<to)(l - e-Oto).
Después de algunas integraciones inmediatats, lo anterior puede escri-
birse como

Nótese que si K = O, esto se reduce al resultado obtenido en el


ejemplo 11.3. Podríamos formularnos una pregunta análoga a la que
apareció en el ejemplo previo: <para qué valor de I L toma E ( P ) su
valor máximo? No proseguiremos con los detallcs de este problema,
puesto que implica la solucibn de una ecuacitjn trascendental que debe
resolverse numéricamente.

11.4 La ley exponencial de falla y la distribución de Poisson

Hay una conexión muy cercana entre la ley exponencial d c falla descrita
en la sección anterior y un proceso d e Poisson. Supóngase que la Talla
ocurre debido a la aparición de ciertos accidentes “aleatorios”. &tos
pueden deberse a fuerzas externas tales como una repentina ráfaga de
viento o una caída ( o aumento) de voltaje o por causas internas tales
308 Aplicaciones
la a teoria
confiabilidad
la de 11.4

como una desintegración química o un mal funcionamiento mecánico.


Sea Xi igual al número de accidentes que ocurren en un intendo de
tiempo de longitud t y supongamos que X;, t 2 O, constituye unproceso
de Poisson. Es decir, para cualquier t fija, l a variable aleatoria X't tiene
una distribución dePoisson conparámetro at. Supóngase quel a falla en
[O, t ] se produce si y sólo si al menos uno detales accidentes ocurre.Sea
T el tiempo para que ocurra la falla, que supondremos es una variable
aleatoria continua; entonces,

F ( t ) = P(T 5 t ) = 1 - P(T > t).


Ahora, T > t si y sólo si ningtín accidente ocurre en [O, t ] . Esto sucede
si y sólo si Xt = O. Por lo tanto,

F ( t ) = 1 - P ( X t = O) = 1 - e "(Yt

Esto representa l a fda de unaley exponencial de falla. Encontramos así


que la "causa" anterior delas fallas implica una ley exponencial de falla.
Las ideas anteriores se puedengenerulizur d e dos maneras.
u ) Nuevamente suponemos que los accidentes aparecen de acuerdo
con un proceso de Poisson. Suponemos, además, que cada vez que
aparece tal accidente hay una probabilidad constante p de que éste no
producirá fallas. Por tanto, si T es el tiempo para que ocurra la falla,
tenemos, como antes,

F ( t ) = P(T 5 t ) = 1- P(T > t).


Esta vez, T > t si y sólo si (durante [O, t ] )no ocurre ningún accidente,o
sucede un accidente? ninguna falla aparece, o dos accidentes ocurreny
no aparece ninguna falla, o... Por tanto,

L J

Así, T tiene u n a Icy exponencial de fallascon parámetro a(1 - p ) .


(Nótese que si y = O, tenemos el caso expuesto previamente.)
11.5 La ley de fallas de Weibull 309

b ) Supóngase de nuevo quelos accidentes aparecen de acuerdo con


un proceso d e Poisson. Esta vez supondremos que las fallas ocurren
cada vez que r o m L accidentes ( r 2 1) ocurren durante un intervalo de
longitud t. Por tanto, si T es el tiempo para que ocurra
la falla, tenemos,
como antes,

F ( t ) = 1 - P(T > t).


En este caso, T > t si y sólo si ( r - 1) o menos accidentes ocurren. Por
tanto,

De acuerdo con la ecuación (9.17), loantelriores igual a J i [ ( ~ / - (r


3 y, por tanto, representa la fda de una distribución
l ) ! ] ( a s ) p - 1 e " C yds
gama. Así, encontramos que la "causa" anterior para que ocurrala falla
sigue una ley g u m de fallas. (Por supuesto, si T = 1, ésta se transforma
en una distribucih exponencial.)

11.5 La ley de fallas de Weibull

Modifiquemos la noci6n de tasa constante d e fallas que condujo ala ley


exponencial defalla. Supóngase que la tasa d e fallas 2,asociada con T ,
la duración de un artículo, tienela forma siguiente:

Z ( t ) = ((Yp)lp-'7 (11.4)

donde (Y y p son constantes positivas. De la ecuaci6n (11.2) obtenemos


la expresión siguiente parala fdp deT :

Se dice quela variable aleatoria con fdpdada porla ecuación (1 1.5) tiene
una distribucidn de Weibull. La figura 11.4 muestra la fdp para (Y = 1 y
p = 1 , 2 , 3 . La función d e confiabilidad R está dada por R ( t ) = e-(YtP
que es una función decreciente det .
3 10 Aplicaciones a la teoríu de la confiabilidad 11.5

0.4 0.8 1.2 FIGURA


11.4

Obsemución: La distribución exponencial es un caso especial de distribución


d e Weibull, puesto que obtencmos l a distribucicin exponencial si hacemos /3 = 1
en la ecuación (1 1.4). L a suposición (Ec. 11.4) establece que Z ( t ) no es una
constante, sino que es proporcional a las potencias d e t . Por ejemplo, si /?= 2,
2 es una función lineald e t ; si /3 = 3, Z es una función cuadrfitica de t , etc. Así,
Z es una función creciente, decreciente o constante d e t , segtín el valor d e /?,
como se indica en la figura 1 1.5.

t-
p= I
2 es constante Z cs creciente Z es decreciente

FIGURA
11.5

Teorema 11.4. Si la variable aleatoria T tiene una distribucicin d e


Weibull con fdp dada por la ecuación (1 1 4 , tenemos

(11.6)

(11.7)

Demslracio'n: Véase cl problema 11.8.


11.6 Conjobdidad de los sistemas 3 11

Observacidn: La distribucidn d e Weibull representa un modelo apropiado


para unaley d e falla siempre que el sistema esté compuestopor cicrto número
d e componentes y la falla se deba principalmente al defecto ‘‘m& grave” en un
gran número de defectos del sistema. TambiCn, utilizando la distribución d e
Weibull, podemos obtener una tasa d e fallas creciente y decreciente al hacer
simplemente una elección apropiada del parámetrop.
En ningún caso hemos agotado el número de ‘leyesd e falla razonables. Sin
embargo, las que hemos mencionado son, por cierto, sumamente importantes
en la medida que representan modelos significativos para el estudio d e las
caracteristicas d e falla e n componentes o en sistemas d e componentes.

11.6 Confiabilidad de los sistemas

Ahora que hemos considerado un número importante de distribuciones


d e fallas podemos volver a la segunda pregunta propuesta enla sección
11.1: ¿cómo evaluar la confiabilidad de un sistema si conocemos la
confiabilidad d e sus componentes? Éste puede ser un problema muy
dificil y sóloanalizaremos un caso más sencillo (pero relativamente
importante).
Supóngase quelos dos componentes están acoplados en serie.

Esto significa que, para que el sistema anterior funcione,umbos compo-


nentes deben funcionar. Si, además, suponemos que los componentes
funcionan independientemente, podemos obtener la confiabilidad del sis-
tema, llamémoslo R(t), en términos d e la confiabilidad d e los compo-
nentes, digamos R l ( t ) y R,(t), como sigue:

R ( t ) = P(T >t) (donde T es el tiempoparaqueocurra


la falla del sistema)
= P(T1 > t y T2 >t) (donde T I y T2 son los tiempos para que
ocurra la falla d e los componentes C1
y C2, respectivamente)
= P(T1 > t)P(T2 > t ) = Rl(t)R:,(t).
Así, encontramos que R ( t ) 5 mín[Rl(t), R,(t)]. Es decir, para un
sistema formado por dos componentes independientes en serie, la con-
fiabilidad del sistema es menor quel a confiabilidad de cualquiera desus
partes.
12laAplicaciones
3 confiabilidad
teoria
de la a 11.6

La exposición anterior puede generalizarse, por supuesto,a n com-


ponentes y obtenemos el teorema siguiente.

Teorema 11.5. Si n componentes,quefuncionanindependiente-


mente, están conectados en serie, y si el i-ésimo componente tiene
confiabilidad R;(t),entonces l a confiabilidad del sistema completo,
R ( t ) ,está dada por

R ( t ) = E l ( t ) . R&) * * * R,(t). (11.8)

Enparticular, si TI y T2 tienen leyes de falla exponencialescon


parámetros a1 y a2, la ecuación (1 1.8) se transforma en

Por lo tanto, la fdp del tiempo para que ocurran las fallas del sistema,
llamémoslo T , es dado por

Así establecemos el resultado siguiente.

Teorema 11.6. Si dos componentes que funcionan independiente-


mente y tienen fallas exponenciales con parametros al y a2 están
conectados enserie, la ley de falla del sistema resultante es
d e nuevo
exponencial con parAmetro iguala al q . +
(Este teorema obviamente se puede generalizar an componentes en
serie.)

EJEMPLO11.5. (Tomadode l . Bazovsky, Reliability, Theory and


Pructice, Prentice-Hall, Inc., Englewood Cliffs, Nueva Jersey, 196 1.)
Considérese un circuito electrónico que constad e 4 transistores d e sili-
cio, 10 diodos d e silicio, 20 resistencias compuestas y 10 condensadores
d e cerámica en una operación continua en serie. Suponiendo que en
ciertas condiciones d e tensión (es decir, voltaje prefijado, corriente y
temperatura), cada uno deesos artículos tiene la siguiente tasaconstunte
d e fallas.
11.6 Confiabilidad de los sistemas 3 13

de diodos silicio: 0.000002


transistores
de silicio: 0.00001
resistencias
compuestas: 0.00000 1
condensadores d e cerámica: 0.000002

Debido a la tasa constante de fallas supuesta, l a distribución exponencial


representa la ley d e falla para cada uno de los componentes anterio-
res. Debido a la conexión en serie, el tiempo para que ocurra la falla
del circuito completo está de nuevo distribuido exponencialmente con
parámetro (tasa d e falla) igual a:
10(0.000002) + 4(0.00001) + 20(0.000001) -t 10(0.000002) = 0.0001.
Por tanto, la confiabilidad del circuito está dada por R ( t ) = e-O.OOO1t
Así, para un periodo de 10 horas d e operación l a probabilidad de que
el circuito no falle está dada por e-O.OOO1(lO) = 0,999. El tiempo es@rado
para que el circuito falle es igual a 1/0.0001 := 10.000 horas.
Otro sistema importante es u n sistema en paralelo en el cual los com-
ponentes están conectados d e tal manera que elsistema deja d e funcio-
nar sólo si todos los componentes dejan de funcionar. Si sólo dos com-
ponentes están implicados,el sistema puede dibujarse como en la figura
11.6. Suponiendo nuevamente quelos componentes funcionan indepen-
dientemente unos deotros, la confiabilidad del sistema, llamémosla R(t),
puede expresarse en términos de la confiabilidad d c los componentes,
R l ( t ) y Rz(t),como sigue:

R ( t )= P ( T > t ) = 1- P ( T 5 t )
= 1 - P[T1 5 t y F: 5 t]
= 1 - P(T1 5 t)P(T2 5 t )
= 1 - {[l- P(T1 > t ) ][l - P ( q ? > t ) ] }
= 1 - 11 - R , ( t ) ] [ l- R&)]
= Rl(t) + Rz(t)- I’tl(t)&(t).
La última forma indica que R ( T ) 2 máximo [ R l ( t )R2(t)].
, Es decir, un
sistema integrado por dos componentes que: funcionan independiente-
mente en paralelo serámás confiable que cualquiera delos componen-
tes.
3 14 Aplicaciones a la teoria de la confiabilidad 11.6

"
Todas las ideasantespresentadasparadoscomponentespueden
FIGURA
11.6

generalizarse en cl teorema siguiente.

Teorema 11.7. Si n componentes que funcionan independientemen-


te actúan en paralelo, y si el i-ésimo componente tiene confiabili-
dad R;(t),entonccs la confiabilidad del sistema, digamosR ( t ) ,está
dada por

R ( t ) = 1 - [l - Rl(t)][1- R2(t)]"[l - Rn(t)]. (11.9)

A menudo sucede que todoslos componentes tienen igual confiabili-


dad, digamos que R;(t) = r ( t ) para toda i. En este caso, la expresión
anterior se transforma en

R ( t ) = 1 - [l - +)In . (11.10)

Consideremos, en particular, dos componentes en paralelo, cada uno


d e ellos con tiempo de falla distribuido exponencialmente. Luego,

de del sistema en paralelo, 1lamCmoslo T , est5


Así, l a fdp del tiempo falla
dada por
f ( t ) = -R'(t) = CylC" + a 2 e - a 2 t - ("1 +
-(al+aZ)t*

Por tanto, T n.o está distribuida exponencialmente. El valor esperado


d e T es igual a:

E(T)= -
1
a1
+ 1
--
a2
1
"1 + a2

Considerando que a menudo una serie de operaciones es obligatoria (es


decir, un número de componentes debe funcionar para que el sistema
runcione), con frecuencia usamos una operación en paralelo a fin d e
11.6 Confiabilidad
de los sistemas 3 15

aumentar la confiabilidad del sistema. El ejemplo siguiente ilustra este


punto.

EJEMPLO11.6. Supongamos que tres unidades están trabajando en


paralelo y que cada una tiene la misma tasa constante defallas (Y = 0.01 .
(Es decir, el tiempo para que ocurrala falla d'e cadauna delas unidades
está distribuido exponencialmente con parametro a = 0.01. Por tanto,
la confiabilidad para
cada
una d e las unidades es R ( t ) = , Y
así la confiabilidad en un periodo de o p e r a d n d e 10 horas es igual
a e-'" = 0.905 o alrededor del 90%. ¿Cuántia mejoría puede obtenerse
(en términos del aumento dela confiabilidad) al funcionar tres d e tales
unidades en paralelo?

, I 1
I
)
t (horas)
FIGURA11.7
I I I
10 50 100 200 300 400

La confiabilidad d e tres unidades que funcionan en paralelo durante


10 horas sería

R(l0) = 1 - [I - O.9O5I3 = 1 - 0.00086


= 0.99914 o alrededor del 99.9%

En l a figura 11.7 vemos las curvas d e confiabilidad de una sola unidad


contra las tres unidades en paralelo. Para la unidad única, R ( t ) = e"(Yt,
mientras que para las tres unidades en paralelo, R ( t ) = 1 - (1 - e"(Yt)3,
con (Y = 0.01.
Hemos considerado, hasta ahora, sólo las maneras más sencillas d e
combinar unidades individuales en un sistema, llamadas operaciones
en serie y en paralelo delos componentes. IIay muchas otras formas de
combinar componentes, pero sólo nombraremos unas cuantas. (Véase
la Fig. 1 1.8.) Algunas d e las preguntas qu,e aparecen en relacióncon esas
combinaciones se considerarán en los problemas al final del capítulo.
3 16 Aplicaciones a la teoría de la confiabilidad

FIGURA
11.8

a) Series en paralelo. (Consideramos aquí grupos de componentes


cn paralelo como en un circuito, cada uno de los cualestiene, por
ejemplo, nz componentes en serie.)
B) Paralelos en serie.
c) Sistema sostenido. Aquí consideramos dos componentes, d e los
cuales, el segundo se “mantiene” y funciona si y sólo si el primero falla.
En estc caso, instantáneamente se acepta el segundo componente y
funciona e n el lugar del primero.

Expongamos brevemente el concepto d e factor de seguridad. Supón-


gase que la fuerza S que se aplica a una estructura se considera como
una variable aleatoria (continua). En forma similar, la resistencia d e
la estructura, llamémosla R, se puede considerar también como una
variablealeatoriacontinua.Definamos el factor d e seguridad de la
estructura como la razón d e R a S .

T = R/S.

Si I2 y S son variables aleatorias independientes con fdpg y h, respecti-


vamente, entonces l a fdp deT está dada por

(Véase el Teorema 6.5.) La estructura fallará si S > R, es decir, si T < 1.


Por tanto, la probabilidad d e fallar PF = JJ f ( t ) d t .

PROBLEMAS
1 1.l . Supóngase que T , el tiempo para que ocurra la falla d e u n artículo,
está distribuida normalmente con E ( T ) = 90 horas y desviación estándar d e 5
Problemas 317

horas. A fin de obtener unaconfiabilidad d e 0.90, 0.95, 0.99, ¿CuAntas horas


d e operación se deben considerar?
11.2. Suponer quela duración d e u ninstrumento electrónicoestá distribui-
do exponencialmente. Se sabe que la confiabilidad del instrumento (para un
periodo d e operación d e 100 horas) es 0.90. {Cujntas horas de operación se
deben considerar para obtener una confiabilidad d e 0.95?
11.3. Suponiendo que la duración de un instrumento tiene una tasa cons-
tante d e falla Co para O < t < to y una tasa constante distinta C1 para t to,>
determinar la fdp de T , el tiempo para que ocurra la falla, y dibujarla.
11.4. Supóngase quela tasa d e fallas Z e s d dada por

Z(t)= O, O <t < A,

=C, t>A

(Esto implica que ninguna falla ocurre antes d e T = A . )


a) Encontrar la fdp asociada con T , el tiempo para que ocurrala falla.
b ) Calcular E ( T )
11.5. Suponer quela ley d e h l h duna
e componente tienela siguiente fdp:

f(t) = ( r + l)A'+'/(A +t)r+2, t > O.

a) ¿Para quévalores d e A y r es la anterior una fdp?


b ) Obtener una expresión para la función d e confiabilidad y l a función d e
riesgo.
c) Demostrar que la función d e riesgo es decreciente en t .

1 1.6. Supóngase quela ley d e falla de uncomponente es una combinación


lineal d e IC leyes exponenciales d e falla. Es decir, la fdp del tiempo para que
ocurra la falla está dada por

a) ?Para qué valores d e cj es la anterior fdp?


b ) Obtener una expresión parala hnción de confiabilidad y la función d e
riesgo.
c ) Obtener una expresión del promedio ti'empo del para queOcurra la falla.
d ) Responder b ) y c ) si pj = p para toda j .
3 18 Aplicaciones a la teoriú de la conjiabilidad

11.7. Cada uno delos seis tubos de un equipo de radio tiene una duración
(en años)que puede considerarsecomo una variable aleatoria. Supóngase que
esos tubos filncionan independientemente uno d e otro. ¿CuA es la probabili-
dad de que ningtín tubo tenga que ser reemplazado durante los primeros dos
meses d e servicio si:
a ) La f¿ip del tiempo para que ocurra la falla es f ( t ) = 50te-25t2, t > O?
b ) La fdp del tiempo para que ocurrala falla es f ( t ) = 25te-25t, t > O?
11.8. Demostrar el teorema 11.4.
11.9. La duración de un satditees una variable aleatoria distribuida expo-
nencialmente conun tiempo d e duración esperadod e 1.5 años. Si tres satélites
se lanzan en forma simultánea, ¿cuál es la probabilidad d e que por lo menos
dos estén a6n enórbita después de 2 años?

FIGURA
11.9

11.10. Tres componentes que funcionan independientemente estAn conec-


tados en un sistema aislado como se indica en la figura 11.9. Suponiendo que
la confiabilidad d e cada componente para un periodo de t horas de operación
est5 dada por

Si T es el tiempo para que ocurra la fdla del sistema completo (en horas), ¿cuál
es la fdp de T ? ¿Cu# es la confiabilidad del sistema?, ¿Cómo se compara con
e- .Q3t;i

11.11. Supóngase que n componentes que funcionan independientemente


son conectados e n u narreglo e n serie. Suponer que el tiempo para que ocurra
la falla d e cada uno de los componentes est5 distribuido normalmente con
esperanza d e 50 horas y desviación estándar de 5 horas.
a ) Si n = 4, ¿cuál es la probabilidad d e que el sistema funcione después de
52 llorasd e operación?
b ) Si n componentes se conectan en paralelo, ¿cuál dcbería serel valor d e n a
fin que la probabilidad d e fallar durante las primeras 55 horas sea aproxima-
damente igual a 0.01?
1 l . 12. Tomado d e Derman y Klein, Probability and Statistical Inference. Oxford
University Press, Nueva York, 1959.) La duración ( L ) en meses de cierto tubo
al vacío usado en un equipo de radar está distribuida exponencialmente con
parámetro P = 2. Al establecer su programa preventivo de mantenimiento,
una compañía desea saber cuántos meses (m)después d e la instalación deberA
reemplazarse el tubo para minimizar el costo esperado por tubo. El costo por
tubo e n dólares se denota con C. El tiempo útil m& corto empleado entrela
instalación y la sustitución es 0.01 mes. Obedeciendo a esta restricción, {qué
valor de m minimizó E ( C ) , el costo esperado en cada una de las situaciones
siguientes, donde el costo C es la función dada deL y m?

a ) C ( L , m )= ( L - m1 . b , ) C ( L , m )= 3 si L < m ,
c ) C ( L , m ) = 2 si L < m , = 5 ( L - m ) si L >_ m .
=5(L-m) si L >_ m.

(En cada uno delos casos dibuje una gráfica d e E ( C ) como función d e m.)

Observacwn: Evidentemente C es una variable: aleatoria, puesto que es una


función d e L la cual es una variable aleatoria. .G(C) es una función de m, y
el problema sólo pide encontrar el valor d e m que minimiza E ( C ) , sujeta a la
restricción que m 2 0.01.
11.13.Suponer quela tasa d e fallas asociada cam la duración T de unartículo
está dada porl a función siguiente:

Observacwn: ÉSUrepresenta otrageneralización d e la distribución exponen-


cial. Lo anterior reduce a una tasa constante d e fallas (y, por tanto a la distri-
bución esponencial), si C1 = O.
a) Obtener la fdp de T , el tiempo para que ocurra la falla.
b ) Obtener una expresión parala confiabilidad R ( t )y dibujar su gráfica.
11.14. Suponer que cada uno de tres instrumentos electrónicos tiene una
ley d e falla dada por unadistribución exponencial con parámetros P I ,Pz y P3.
Supóngase que los tres instrumentos funcionan independientemente y e s t h
conectados en paralelo para formar unsolo sistema.
a) Obtener unaexpresión para R ( t ) ,la confiabilidad del sistema.
b ) Obtener una expresión para la fdp d e T , el tiempo para que ocurra la
Olla del sistema. Dibujar la fdp.
c) Encontrar el promedio d e tiempo para que ocurra la Falla del sistema.

1 l. 15. a) Supóngase quen componentes están conectadosen un arreglo en


serie. Luego k d e tales conexiones en serie se conectan en paralelo para formar
un sistema completo. (Véase la Fig. 11.10)Si rada uno de los cornponentcs
320 Aplicaciones a la teoria de la confiabilidad

Liene la misma confiabilidad, d i p m o s R, para un periodo determinado de


operación, encontrar una expresión para la confiabilidad del sistema completo
(para ese mismo periodo d e operaciones).
b) Supóngase que cada uno de los componentes anteriores sigue una ley
esponencial de falla con tasa d e falla 0.05. Supóngase, además, que el tiempo
d e operación es diez horasy que n = 5. Determinar el valor de k para que la
confiabilidad dcl sistema completo sea igual a0.99.

ckl H Ck2 FIGURA


11.10

11.16. Supóngase que k componentes están conectados en paralelo. Enton-


ces, n d e tales conexiones en paralelo están unidase n serie e n u nsolo sistema.
(Véase la Fig. 1 1.1 1.) Responder a ) y b ) del problema1 l. 15 para esta situación.

FIGURA
11.11

11.17. Supóngase que 71 componentes,cadauno d e los cuales tiene la


misma tasa constante d e fallas X, estánconectadosenparalelo.Encontrar
una expresidn para el tiempo promedio para que ocurra la falla del sistema
resultante.

1l . 18. a ) Un sistema de propulsión aéreo consta d e tres motores. Supóngase


que la tasa constante d e fallas para cada uno d e ellos es X = 0.0005 y que los
motores fallan independientemente uno de otro. Los motores están conectados
en paralelo. CCuál es’ la confiabilidad d e este sistema de propulsión para una
misión que necesita 1 O horas, si por lo menos dos motores deben resistir?
b ) Responder la pregunta anterior para una misión que necesita 100 horas y
1000 horas. (Este problema se tomó dc unaexposición en I. Bazovsky, Reliability
TlwoT m r l Practice. Prentice-Hall, Inc., Englewood Cliffs, Nueva Jersey, 1961.)
Problemas 32 1

+ t

FIGURA 11.12

11.20. Si todos los componentes considerados en el problema 11.19 tienen


la misma tasa constante d e fallas X, obtener una expresión para
la confiabilidad
R(t) del sistema indicado en la figura 11.12 b ) . ‘Tambiénencontrar el tiempo
medio para quefalle este sistema.

11.21. El componente A tiene una confiabilidad 0.9 cuando se utiliza con


un propósito particular y el componente B , que puede usarse en lugar del
componente A, tiene una confiabilidad d e sólo 0.75. {Cuálesel número
mínimo d e componentes del tipo B que tendrían que conectarse en paralelo
para obtenerla confiabilidad que el componenteA tiene por sí mismo?

11.22. Supóngase que dos componentes que fiuncionan independientemen-


te cada uno con la misma tasa constmte defalla, están conectados en paralelo.
Si T es el tiempo para que ocurrala falla del sistema resultante, obtener la fgm
d e T . También determinar E ( T ) y V ( T )usando la fgm.

11.23. Cada vez que hemos considerado un\istema formado por diversos
componentes, hemos supuesto que los componentes fkncionan independien-
temente uno de otro. Esta suposición ha simplificado considerablemente nues-
tros cálculos. Sin embargo, esto puede no ser siempre unasuposición realista.
En muchos casos se sabe que el comportamiento de un componente puede
afectar el comportamiento d e los otros. Esto es, en general, un problema muy
dificil, y aquí sólo consideraremos u n caso especial. Supongamos específica-
mente que dos componentes,C, y C,, siempre fallan juntos. Es decir, C, falla
322 Aplicaciones a la teoríü de la confiabilidad

si y sólo si Falla C2. Demostrar que en este caso, P ( c 1 falle y (22 falle) = P(C1
falle) = P(C2 falle).

FIGURA
11.13

11.24. Considérese cuatro componentes, C1, C2, C3 y C, conectados como


se indicó en la figura 11.13. Suponer quelos componentes funcionan indepen-
dientemente uno de otro con excepción d e C1 y C2, que siempre fallan juntos
como se describió en el problema 112 3 . Si T , , el tiempo para que ocurra la
falla del componenteC;, estA distribuido exponencialmente con parhmetropi,
obtener la confiabilidad R ( t )del sistema completo. Obtener también la fdp d e
T , el tiempo para que ocurrala falla del sistema.
11.25. Considérese el mismo sistema tal como se describió en el problema
112 4 . exccpto queesta vez los componentes C1 y C3 fallan juntos. Responder
las preguntas del problema 1 1.24.
12.1 Introducción

En este capítulo queremos precisar algo que hemos indicadoloalargo


del texto. Esto es, cuando el número derepeticiones de un experimento
aumenta f ~ la,frecuencia relativad e u nevento A , converge (enun sen-
tido probabilistic0 que describiremos) ala probabilidad teóricaP ( A ) . Es
este hecho lo que nos permite “identificar” la fi-ecuencia relativa d e u n
evento, basada en un gran número de repeticiones,lacon probabilidad
del evento.
Por ejemplo, si se produce un artículo nuevo y no tenemos conoci-
miento previo acerca de cuan probable es que el artículo sea defectuoso,
podríamos proceder a inspeccionar un gran número d e esos artículos,
digamos N , contar el número de artículos defectuosos que hay entre
ellos, sea n, y luego usar ,/Ar como una aproximación paral a probabi-
lidad de que un artículo sea defectuoso.El número n / N es una variable
aleatoria y su valor depende esencialmente de dos cosas. Primero, el
valor d e n / N depende dela probabilidad fundamental p (posiblemente
desconocida) d e q u e u nartículo sea defectuoso. Segundo,n / N depen-
d e d e los N artículos que en particular hemos inspeccionado. Lo que
324 Sumas de variables aleatorias 12.2

demostraremos es que si el método de elegir los N artículos es “alea-


torio”, entonces el cociente n/hrestá cercano a p (en un sentido quese
va a describir). Es evidente que la elección aleatoria d e los N artículos
es importante. Si eligiéramos por ejemplosólo los artículos que presen-
tan alguna característicafisica externa, podríamos prejuiciar gravemen-
te nuestro cálculo.)

12.2 La ley de los grandes números

Con la ayuda de la desigualdad de Chebyshev (Ec. 7.20) podemos de-


rivarelresultadoantescitado.Consideremosotra vez unejemplo.
Supóngase que un cohete dirigido tiene una probabilidad de 0.95 d e
funcionar correctamente durante cierto periodo de operación. Así, si
disparamos hT cohetes que tienen la confiabilidad anterior, y si S es
el número de cohetes que no funcionan en forma correcta, tenemos
E ( X ) = 0.05AT, puesto que podemos suponer que X está distribuida
binomialmente. Es decir, esperaríamos que fallara alrededor de un co-
hete entre20. Cuando aumentaN , el número de cohetes lanzados X , el
número total decohetes que fallan dividido entre N , debería converger
de algún modo con el número 0.05. Este importante resultado puede
indicarse con más precisión como la ley de los grandes números.

La ley de los grandesnúmeros (forma d e Bernoulli).Sean E un


experimento y A uneventoasociadocon E. Considerando n
repeticiones independientes de E , sea n A el número de veces que
ocurre A en las n repeticiones, y sea f~ = n ~ / 7 Sea~ . P(A) = p
(que se supone es igual para todas las repeticiones).
Entonces, para cualquier númeropositivo t, tenemos

o, en forma equivalente,

(12.1)

Demostrucidn: Sea n A el número de veces que ocurre el evento A.


Éstaes unavariablealeatoriadistribuidabinomialmente.Entonces
E ( n A ) = n p y V ( n A ) = n p ( 1 - p ) . Ahora f~ = n ~ / 7 7 .y,, por 10 tanto
E(fA) = P y v(fA) = - P)/72..
12.2 La ley de los grandes números 325

Aplicando la desigualdad de Chebyshev a la variable aleatoria f ~ ,


obtenemos

Obseruacwnes: a) El resultado anterior puede establecerse d e diferentes ma-


neras alternativas equivalentes. Está claro que lo anterior implica inmediata-
mente que

lím P [ ( f -~ p ( < €1 = 1 para toda E > O.


n+oo

En este sentido, decimosque la frecuencia relativa “converge” aP ( A ) .


b ) Es importante observar la diferencia entre l a convergencia antes mencio-
nada (llamada convergencia en fiobabilidad) y el tipo d e convergencia citada a
menudo encálculo. Cuando decimos que 2-n co:nverge a cero cuando n -+ co
significa que para unan suficientemente grande, 2!-n se transformay permane-
ce arbitrariamente cercanaa cero. Cuando decimos que fA = n A / n converge
a P ( A ) indicamos que la pobabilzdad del evento

puede hacerse arbitrariamente cercanaa uno tomando unan suficientemente


grande.
c) Otra forma d e la ley de los grandes nhmero:s se obtiene cuando formula-
mos la siguiente pregunta. ?Cuántas repeticiones d e E deberían hacerse para
tener una probabilidad, digamosd e 0.95, de quela frecuencia relativa difiera
d e p = P ( A ) en menos d e 0.01?
Esdecir,paraE = 0.01deseamosescogern,demodoquel-p(l-~)/[n(O.bl)2]=
0.95. Resolviendo para n obtenemos n = p(1 - p)/(0.01)2(0.05). Sustituyendo
los valores específicos de 0.05 y 0.01 por S y E , respectivamente, tenemos

cuando

Nuevamente debería insistirseen que tomar n 2 p ( 1- p ) / c 2 S no garantira nada


acerca d e 1fA - pi. Sólo hace probable que l f ~ - sea muy pequeña.
326 Sumas
aleatorias
de variables 12.2

EJEMPLO12.1. ¿Cuántas veces habría que lanzar un dado regular a


fin de tener al menos 95% de seguridad de que la frecuencia relativa d e
que salga un seis diste 0.01 dela probabilidad teórica k?
Aquí p = 1 1 - p = 65 , 6 = 0.01 y S = 0.0.5. Por lo tanto,de esta
relación encontramos que n 2 (i)
(E)
/(0.01)2(0.05) = 27.778.

Obsewaciones: a ) Recordemos que la fA es una variable alcatoria y no pre-


cisamente un valor observado. Si lanzdramos ahora 27.778 veces un dado y
luego calculamos la frecuencia relativa que salga u n seis, este número dista o
no 0.01 de. Lo importante del ejemplo anterior es que si lanzáramos 27.778
veces un dado en cada una de 100 habitaciones, aproximadamente en 95 de
ellas la frecuencia relativa observada estaría dentro de0.01 d e A.
b ) En muchos problemas no conocemos valor el d e p = P ( A ) y, por lo tanto,
no podemos usar el límite anterior de n. En ese caso podemos usar el hecho
de que p(1 - p ) toma su valor mziximo cuando p = y este valor mziximo es
i,
igual a Así, ciertamente estaríamos seguros si indicamos que paran 2 1/4c26
tenemos

EJEMPLO12.2. Algunosartículos se producen de tal manera que


la probabilidad de que un artículo sea defectuoso es p (supuestamente
desconocido).Ungrannúmerodeartículos,digamos n, se clasifica
como defectuosos o no defectuosos. ¿Cuál debe ser el tamaño d e n de
modo que podamos estar un 99% seguros de que la frecuencia relativa
d e los defectuosos se diferencia de p en menos de0.052
Puesto que no sabemos el valor p , debemos aplicar la última forma
establecida d e laley de los grandes números. Luego, con c = 0.05,
S = 0.01 encontramos que si n 2 1/4(0.05)2(0.01) = 10 000, se satisfice
la condición pedida.
Como en nuestro ejemplo de la desigualdad deChebyshev, encontra-
remos que el conocimiento adicional acerca de la distribución de pro-
babilidades dará unaproposición “mejorada”. (Por ejemplo, podríamos
tener un número pequeño de repeticiones y todavía hacer la misma pro-
posición referente a la proximidad d e f~ a p.)

Observacwn: Otra forma d e la ley d e los grandes números se puede obtener


como sigue. Supongamos que X I , . . . , X, son variables aleatorias independien-
tes idénticamente distribuidascon promedio y varianza finita. Sea E ( X ; ) = p
y V ( X ; ) = 02. Definamos 7 = ( l / n ) ( X l + . . . + X n ) . Ahora, es una fun-
ción d e X I , . . . ,X, a saber, su promedio aritmético y, por tanto, nuevamente
12.3 Aproximacidn
distribucidn
la normal
binomial
a 327

es una variable aleatoria. (Estudiaremosesta variable aleatoria con m& detalle


en el capítulo 13. Por el momento, digamossimplemente que podemos pensar
en X I , . . . , X , como medidas independientes de una característica numérica
X , que producen el promedio aritmético y.)De las propiedades de la espe-
ranza y de la varianza inmediatamente tenemos,,E ( X ) = p y V(x) = u2/n.
Aplicando la desigualdad de Chebyshev a la variatble aleatoria y:

Sea /x/,/ñ = E . Entonces k = fie/. y podemos escribir


CI

(12.2)

Cuando n + 00, el lado derecho de la desigualdad anterior está cercana a


uno. Es en este sentido en que el promedio aritmético “converge’’E ( X ) .

EJEMPLO12.3. Se prueba un gran número de tubos electrónicos.


Sea 7‘; el tiempo para que ocurrala falla del i-ésimo tubo. Supóngase,
además, que todos los tubos provienen del mismo lote y que puede
estimarse que todos están distribuidos exponencialmente con el mismo
parAmetro a.
Por lo tanto, E(T;) = a-’. Sea T = ( T I + +
- - . T n ) / n . La forma
anterior de la ley de los grandes números establece que si n es muy
grande, sería “muy probable” que el valor obtenido para el promedio
aritmético de un gran número de tiempos d e fallas estuviera cercano a
a
-1 .

12.3 Aproximación normal a la distribución binomial

Como se estableció antes, l a Icy de los grandes números se relaciona


esencialmente conla variable aleatoriaX distlribuida binomialmente. X
se definid como el número deéxitos en n repeticiones independientes
de un experimento, y necesitamos asociar simplemente “éxito” con la
ocurrencia del evento A para reconocer esta relación. Así, el resultado
anterior puede establecerse informalmente .afirmando que cuando el
número de repeticiones de un experimento se aumenta,la frecuencia
relativa d e éxito, X / n , converge a la probabilidad d e éxito p , en el
sentido indicado previamente.
328 Sumas de variables aleatodas 12.3

Sin embargo, saber que X / n est$ “cercana” a p para una n grande no


nos indica cómose obtiene esta “cercanía”. Para investigar esto debemos
estudiar l a distribución d e probabilidades d e X cuando n es grande.
Por ejemplo, supóngase que un procesod e fabricación produce lava-
doras, d e las cuales alrededor del5% son defectuosas (es decir, muchas).
Si se inspeccionan 100 lavadoras, Zcuál es la probabilidad de que sean
defectuosas menos de4-2
Siendo A’ el número de lavadorasdefectuosas encontradas, la ley d e
los grandes números nos dice simplemente que S / l O O debería estar
“cercano” a 0.05. Sin embargo, no nos indica cómo calcular la probabi-
lidad deseada. El valor exucto d e esta probabilidad está dado por

( 1~0)(0.05)k(0.05)’00-”.
3
P(X < 4) =
k=O

Sería más dificil calcular esta probabilidad en forma directa. Ya hemos


estudiado un método de aproximación para las probabilidades bino-
miales, como la aproximación de Poisson. Consideraremos ahora otra
aproximación importante paratales probabilidades, la cual se aplica ca-
da vez que n es suficientemente grande.
Considbrese que P ( 9 = k ) = (‘;f.)p‘(1 - p ) n - k . Esta probabilidad
depende de n de un modo más complicado y no hay una indicación
evidente de lo que sucede a la expresión anterior si n es grande. A fin
d e investigar esta probabilidad, necesitamos usar lafdmulu de Stirling,
una aproximación muy conocida d e n! Esta fórmula establece que para
una n grande,

(12.3)

en el supuesto de que Ií,,,,,(n!)/~e-nnn+1/2) = 1. (Una demos-


tración d e esta aproximación puede encontrarse en muchos textos d e
cálculo avanzado.) La tabla 12.1 puede dar una idea al lector de la
exactitud d e esta aproximación. Esta tabla está tomada de W. .Feller,
Probability Theory and Its Apfilicalions. 1 a. ed., Nueva York, John Wiley
and Sons, Inc., 1950.

Obseruacwn: Aunque la diferencia entre n! y su aproximaci6n se hace mayor


cuando n --f00, lo importante d e observar en la tabla 12.1 es que el porcentaje
de error(illtima columna) se hacecada vez m,is pequeño.
12.3 Aproximación normal a la distribución binomial 329

1
TABLA12.1

E n! &e-nnnS(1/2) {Diferencia

0.078
Diferencia
n!

0.08
0.08 1 0.04
10 118.019 1.98 1 0.02
0.008
1O0 0.0008

Usando la fórmula d e Stirling para los diversos factoriales que apa-


recen en la expresión deP(X = IC), puede demostrarse (después de
muchas operaciones), que para una n grande,

P ( X = IC) = (;> Pk(l -P Y k

Finalmente puede demostrarse que paran grande,

A s í tenemos el siguiente resultado importante (conocido comola apro-


ximación d e DeMoivre-Laplace para la distribución binomial):

Aproximacidnnormal a ladistribucidnbinomial. Si X tieneuna


distribución binomial con parámetros n y p y si

luego, para una n grande, Y tiene aproximadamente una distri-


bución N ( 0 , l )en el sentido de que limn+, P ( Y 5 y) = @(y) .
Esta aproximación es válida para valores d e n > 10 suponiendo
330 Sumas de variables aleatorias 12.3

q u e p está cercana a i.
Si p está cercana a O o 1, n debería ser algo
mayor para asegurar una buena aproximación.

Observaciones: a ) El resultado anterior no es sólo d e considerable interés


teórico sino tambiénde granimportancia práctica. Indica que podemos usar la
distribución normal, muy tabulada, para calcular probabilidades que provienen
d e la distribución binomial.
b) En la tabla 12.2 la exactitud d e la aproximación (12.4) se demuestra para
diversos valores d e n, E y p .

TABLA
12.2

I = 8 , p = 0.2 n = 8 , p = 0.5 rI n = 25, p = 0.2


I Aproximación
11

k Exacto Aproximación Exacto Aproximación Exacto

O . 168 0.005 0.004 0.009 0.004


0.306 0.336 0.030 0.03 1 0.027 0.024
0.33 1 0.294 0.104 0.109 0.065 0.07 1
O. 1G4 0.147 0.220 0.219 0.121 0.13G
0.037 0.046 0.282 0.273 O . 176 O. 187
0.00'1 0.009 0.220 0.219 o. 199 o. 196
0.001 0.104 o. 1o9 O. 176 O. 163
O+ O+ 0.030 0.03 1 0.121 0.111
8 O+ O+ 0.005 0.004 0.065 0.062
9 O+ O+ O+ O+ 0.027 0.029
10 O+ O+ O+ O+ 0.009 0.012
11 O+ O+ O+ O+ 0.002 0.004

Volviendo al ejemplo anterior, observamos que

E ( X ) = n p = lOO(0.05) = 5,
V(X) = n p ( 1 - p ) = 4.75.
Entonces podemos escribir
0-5 <&5< 3-5)
P ( S 5 3) = P
Lm-m-m
-

= 1p(-0.92) - @(-2.3) = 0.168,


de las tablas dc la distribución normal.
Observación: N usar la aproximaciónnormal a la distribuciónbinomial,
estamos aproximando la distribución de una variable aleatoria discreta con la
distribución de unavariable aleatoria continua. Por tanto,se debe tener cierto
cuidado con los puntos ext,remos del intervalo considerado. Por ejemplo, para
una variable aleatoria continua, P ( X = 3) = O, mientras que para una variable
aleatoria discrem esta probabilidad puede serpositiva.
12.4 El teorema del límite central 33 1

Se ha encontrado que las siguientes correcciones para continuidad mejoran la


aproximación anterior:
4
u) P(X = k ) N P ( k - 5 X 5 k + i),
4
b ) P(" 5 x 5 b ) N P(u - 5 x 5 3 + b).
Usando esta última corrección para la evaluación anterior de P(X 5 3),
tenemos

P ( X 5 3) = P(0 5 x 5 3) = P ("4 5 x 5 3;)


@(-0.69) - @(-2.53) = 0.239.

EJEMPLO12.4. Supóngase que un sistemaestáformadopor 100


componentes, cada uno de los cuales tiene una confiabilidad igual a
0.95. (Es decir, la probabilidad de que el componente funcione correc-
tamente durante un tiempo específico es igual a 0.95.) Si estos compo-
nentes funcionan independientemente uno de otro, y si el sistema com-
pleto también funciona en forma correcta cuando funcionan al menos
80 componentes, ¿cuáles la confiabilidad del sistema?
Sea X el número de componentes que funcionan, debemos evaluar

P(80 <_ x 5 100).


Tenemos
E ( X ) = lOO(0.95) = 95; V ( X )= 100(0.95)(0.05) = 4.75.

Por lo tanto, usando la corrección para continuidad, obtenemos

P(80 5 X <_ 100) I


IP(79.5 5 X 5 100.5)

- 95)
(
79.5 - 95 X' - 95100.5
= 2.18
<
- f!.18 -
"

2.18

IQ(2.52)
I - @(-7.1) 0.994.

12.4 El teorema del límite central

La aproximación anterior representa sólo un (casoespecial de un resulta-


do general. A fin d e verificar esto, recordemos quela variable aleatoria
X distribuida binomialmente se puede representar como la sumu de las
siguientes variables aleatorias independientes:
332 Sumasdevariubles ahatorias 12.4

Xi = 1 si el éxito ocurre en la i-ésima repetición;


=O si la falla ocurre en la i-ésima repetición.

Por lo tanto, X = XI1 + X2 + . . . + X, (Véaseel Ej. ’7.13.) Para


esta variablealeatoriahemosdemostrado quc E ( X ) = n p , V ( X ) =
n p ( 1 - p ) y, además, que para unan grande, ( X - n p ) / d mtiene
la distribución aproximada N ( 0 , l ) .
Si una variable aleatoria S se puedc representar como una szlrna
de n variublesaleatoriasindependientescualesquiera (satisfaciendo ciertas
condiciones que son válidas en la mayor parte de las aplicaciones),
entonces esta suma, para una n suficientemente grande, está distribuida
en forma aproximadamente normal. Este resultado notable se conoce
como el teorema del límite central. Una formad e este teorema se puede
establecer como sigue.

Teorema del limite central. Sea X I ,X z , . . . ,X, . . . una sucesión d e


variables aleatorias independientes con E ( X ; ) = /Li y V(X;) = n2i ,
i 1 , 2 , . . . Sea X = X I + X2 - + + XIn; entonces,enciertas
condiciones generales (que nose indicarán explícitamente aquí),

tiene aproximadamente la distribución N(0,l). Es decir, si Gn es


la fda d e la variablealeatoria Z,, tenemos C , (z) = @(z).

Obxmaciones: a ) Este teorema representa una generalizacibn obvia d e la


aproximación d e DeMoivre-Laplace. Las variables aleatorias independientes
X; que toman sólo los valores 1 y O han sido sustituidas por variables aleato-
rias que poseen cualquier clase d e distribución (mientras tengan esperanza y
varianza finitas). El hecho de que l a s X i pueden tener (esencialmente) cual-
quier clase d e distribución y ailn así la suma X = X1 + . . . + X , puede ser
aproximada por unavariable aleatoria distribuida normalmente, representala
razón b5sica d e la importancia d e la distribucicin normal en la teoría d e proba-
bilidad. En muchos problemas, la variable aleatoria que se considera se puede
representar con la suma d e n variables aleatorias independientes y, por tanto,
su distribución puede aproximarse con la distribución normal.
Por ejemplo, el consumo d e electricidad en una ciudad en cualquier hora
dada es la suma d e la demanda de un grannilmeso d e consumidores indivi-
duales. La cantidad de agua de unembalse puede considerarse comola repre-
sentación de la suma de un grannilmero d e contribuciones individuales. Y el
12.4 Ellímite
central teorema del 333

error de medida en un experimento fisico está compuesto de muchos errores


pequeños no observablesque puedenconsiderars,eaditivos. El bombardeo mo-
lecular que padece una partícula suspendida en un líquido es la causa que la
obliga a desplazarse en una direcci6n y una maglnitud aleatorias, y su posicidn
(después de un tiempo especificado) puede considerarse como una suma de
desplazamientosindividuales.
b ) Las condiciones generales citadas en la formulación anterior delteorema
del límite central pueden resumirse informalmente como sigue: los términos
individuales en la suma contribuyen con una cantidad despreciable a la varia-
ci6n de la suma y es muy improbable que cualquier tamaño individual haga
una gran contribuci6n a la suma. (Parece que los errores de medida tienen es-
ta característica. El error final puede ser representado como una suma de va-
rias pequeñas contribuciones, ninguna de las cualescontribuye mucho al error
completo.)
c) Hemos establecido ya (Teorema 10.5) que la suma de cualquier número
finito de variables aleatorias independientes distribuidas normalmente es de
nuevo distribuida normalmente. El teorema del límite central establece que
los sumandos no necesitan ser distribuidos normalmente para aproximarse a
la suma con una distribuci6n normal.
d ) No podemos demostrar aquí el teorema anterior, sin exceder el nivel de
presentaci6n programado. Sin embargo, hay un caso especialmente impor-
tante de este teorema que estableceremos y paria el cual damos al menos un
bosquejo de demostración.

Teorema 12.1. Sean X I , . . . ,X n n variables aleatorias independientes


que tienen la misma distribución. Sean 1-1 = E ( X - ; )y u2 = V ( X - ; ) ,
la esperanza y la varianza común. Seal S = Cy=lX ; . Entonces,
E ( S ) = n p y V ( S ) = nu 2 , y paraunagran n tenemosque
Tn= ( S - n p ) / f i u tiene aproximadamentela distribución N ( O , 1 )
considerando que límn-,m P(Tn 5 t ) = @ ( t ) .

Dermstracidn: (bosquejo): (Es convenientequeellector revise los


conceptos básicos d e la fgm presentados en el capítulo 10.) Sea M la
fgm (común) d e las X ; . Puesto que las X-;son independientes, AIS, la
fgm d e S , esta dada por Ms(t) = [ M ( t ) l n ,.y como Tn es una función
lineal d e S (usando el Teorema 10.2), la fgm d e Tn está dada por

Así,
334 Sumas de variables aleatorias 12.4

(En este punto observemos que la idea de la demostración consiste en


investigar A ~ (T t )~para valores g r a n d a d en ) .
Desarrollcnlos M ( t ) en una serie de Maclaurin:

Al(t) = 1 + J l ' ( 0 ) t + lll"'(O)t2


2
+ R,
donde R es el tErmino del resto. Recordando queM ' ( 0 ) = p y M " ( 0 ) =
p2 +
a 2 , obtenemos

Por lo tanto,

Usaremos ahora el desarrollo d e Maclaurin para l ~ ( 1 x): +


x2
ln(1 + x ) = x - -
2
+ x33 + . . .
-

y para n suficientemente grande, el valor absoluto de este desarrollo


será menor que uno.)A s í obtenemos
12.4 central
límite El teorema
del 33 5

Puestoque sólo estamosbosquejando 10s pasos principalesde la


demostración sin dar todos los detalles, omitamos algunas operacio-
nes algebraicas e indiquemos simplemente lo que estamos haciendo.
Queremos investigar la expresión anterior (In M T , ( ~ ) )cuando n -+ OO.
Cualquier termino que tiene una potencia positiva d e n en el denomi-
nador (tal como n-1/2, por ejemplo) tendera a cero cuando n + OO.
También se puede demostrar que todoslos tlirminos en que interviene
R tienden a cero cuando n -+ OO.DespuCs de un proceso algebraic0
muy directo, pero tedioso, encontramos que
) t 2 /2.
lím In h f ~ , ( t=
7¿"00

Entonces, tenemos

ksta es la fgm de unavariable aleatoria con distribuciónN(0,l). Debido


a la propiedad de unicidad dela fgm (vease el Teorema 10.3) podemos
concluir que la variable aleatoria Tn converge en distribución (cuando
n "-f m) a la distribuci6n N(0,l).

Observaciones: a) Aunque laanterior no es una demostración rigurosa,aun así


proporciona al lector cierta ideapara deducir este notable teorema. La forma
más general del teorema del límite central (como se establecióoriginalmente)
se puede demostrar usando un planteamiento sernejante al utilizado aquí.
b ) La forma especialdel teorema del límite cenwal, como se estableció
antes,
expresa que el promedio aritmktico ( l / n ) Cy=lX;de n observaciones de la
misma variable aleatoriatiene aproximadamente una distribución normal para
una n grande.
c) Aunque una demostración matemhtica establecería la validez de unteo-
rema, puede que no contribuya mucho a la idea intuitiva del resultado. Por
lo tanto, presentamos el ejemplo siguiente para qyienes poseen mayor orien-
tación numkrica.

EJEMPLO12.5. Considérese una urna que contiene tres clases d e


objetosidentificadoscomo O, 1 y 2. Supongamos que hay 20 ceros,
30 unos y 50 doses. Se saca u n artículo al azar y se anota su valor,
digamos X . Supóngase que X tiene la distribución siguiente. (Véase
la Fig. 12.1.)
336 Sumas de variables aleatorias 12.4

FIGURA
12.1 FIGURA12.2

Supóngase que el artículo elegido primero se sustituye, luego se escoge


un segundo artículo y se anota su valor, digamos Y . Considérese la
+
variable aleatoria M = ( X Y)/2 y su distribución (Fig. 12.2).

P(hl = m ) I 0.04 I 0.12 I 0.29 1 0.30 1 0.25


Obtuvimos los valores anteriores de P( A l ) como sigue:

P ( h l = O) = P ( X = 0,Y = O) = (0.2)2 = 0.04;


+
P ( M = :) = P ( X = 0,Y = 1) P ( X = l , Y = O)
+
= (0.2)(0.3) (0.3)(0.2) = 0.12, etc.

Finalmente supongamos que después de que el segundo artículo tam-


bién se h a reemplazado, se escoge un tercer artículo y se anota s u valor,
+ +
digamos Z . Considerar la variable aleatoria N = (X Y 2 ) / 3 y su
distribucidn (Fig. 12.3):

$
1 4 5
N O 3 1 3 5 2
P ( N = n ) 0.008 0.036 0.114 0.207 0.285 0.225 0.125

Las distribuciones de probabilidades de las variables aleatorias hl y N


ya muestran signos de “normalidad”.Es decir, la aparición de la forma
d e campana de la curva de distribución empieza a hacerse evidente.
Iniciando con la distribución de X , que es muy simétrica, encontramos
12.4 El teorema del limite central 337

P(N=n)

que el promedio d e sólo tres observaciones tiene una distribución que


ya muestra “signos de normalidad”.
Por supuesto, el ejemplo anterior no demuestru nada. Sin embargo,
representa una ilustración numérica de los resultados expuestos pre-
viamente de una manera más matemática. E1 lector deberá continuar
este ejemplo agregando una observación más y luego encontrar l a dis-
tribución de probabilidades del promedio d e las cuatro observaciones
obtenidas. (Véase el Prob. 12.10.)

EJEMPLO12.6. Supóngase que tenemos cierto número de voltajes


con ruido independientes, I<, i = 1 , 2 , . . .,n:,que se reciben en lo que
sellama un “sumador”. (Véase la Fig. 12.4.) Sea V la suma d e los
voltajes recibidos, es decir, V = Cy=lV,. Supóngase que cada una de
las variables aleatorias V, está distribuida unihrmemente enel intervalo
[O, 101. Por lo tanto, E(\<) = 5 volts y var (V,)
= 100/12.
De acuerdo con el teorema del límite central, si n es suficientemente
grande, la variable aleatoria

%
S = (IT - 5 n ) & / 1 0 f i
tiene aproximadamente l a distribuci6n N(0,l).
Luego, si n = 20 podemos calcular la probabili-
dad de que el voltaje total de entrada sobrepase
105 volts, como sigue:

P(V > 105) = P ((lo/dE)m


v - 100 > ( l105
O / a-? d100
% v3 v2

2~ 1 - (a(0.388) = 0.352.
FIGURA12.4
338 Sumas de variables aleatorias 12.5

12.5 Otras distribuciones aproximadas por


la distribución normal: de Poisson, de
Pascal y gama

I-lay cierto número de distribuciones importantes distintas a la binomial


expuesta enla sección 12.3 que se pueden aproximar porla distribución
normal. Y en cada caso, como lo haremos notar, la variable aleatoria
cuya distribución aproximaremos puede representarse con una suma
d e variables aleatorias independientes, dando así una aplicación del
teorema del límite central como se expuso en la sección 12.4.
a) La distribución de Poisson. Recordemos que una variable aleatoria
d e Poisson aparece (sujetaa ciertas condiciones) cuando estamos intere-
sados enel número total d e ocurrencias de un evento en un intervalo de
tiempo de longitud t , con una intensidad (es decir, tasa d e ocurrencias
por unidad de tiempo) de(Y (véase la Sec. 8.2). Tal como se expuso en
esa sección, podemos considerar el número total d e ocurrencias comola
suma d e las ocurrencias en intervalos muy pequeños, no sobrepuestos,
haciendo así aplicables los resultados d e la sección anterior.

EJEMPLO12.7. Supóngase que las llamadas a una central telefónica


particular ocurren a razón d e dos por minuto. <Cub1es l a probabilidad
d e q u e se reciban 22 o menos llamadas en un periodo de 15 minutos?
(Suponemos, por supuesto, quela intensidad permanece igual durante
el periodo considerado.) Si X = número de llamadasrecibidas, en-
tonces E ( S ) = 2(15) = 30. Paracalcular P ( X <22), aplicando la
corrección para la continuidad (véase la Ec. b) que precede al Ej. 12.4),
tenemos

P ( X 5 22) % P
22 + $ - 30

donde Y tiene distribucih N(0,l). Por lo tanto, la probabilidad ante-


rior es igual a i9(-1.37) = 0.0853.
6 ) L a distribución de Pascal. Si 'E = número de ensayos de Bernoulli
necesarios para tener T h i t o s , entonces Y tiene una distribución d e
Pascal y se puede representar con la suma de T variables aleatorias
independientes (véase la Sec. 8.5). Luego, para una T suficientemente
grande, se aplican los resultados d e la sección anterior.
12.6 La distribución de la suma de un número.. . 339

EJEMPLO12.8. Encuéntrese un valor aproximado de la probabilidad


de que senecesiten 150 o menos ensayos para obtener 48 éxitos cuando
P(éxito) = 0.25. Haciendo X = número de ensayos, tenemos (véase
la Ec. 8.8) E ( X ) = r / p = 48/0.25 = 192, y Var X = rq/p2 =
(48)(0.75)/(0.25)2 = 576. Por tanto,

c) La dktm'bucidn gama. Comoseindicóenelteorema 10.9, una


variablealeatoria que tiene una distribucih gama (con parámetros
Q y r ) se puede representar con una suma1 d e r variables aleatorias
independientesdistribuidasexponencialmente.Luego,parauna r
grande, se aplica nuevamenteel teorema del límite central.
12.6 La distribución de la suma de un número
finito de variables aleatorias

El ejemplo 12.6 sirve para motivar la exposición siguiente. Sabemos


que la suma de cualquier número finito d e variables aleatorias indepen-
dientes distribuidas normalmente también está distribuida normalmen-
te. Del teorema dellímite central podemos concluir que paran grande,
la suma de n variables aleatorias independientes tiene una distribución
aproximadamente normal. Queda por resolver la pregunta siguiente:
+ +
supóngase que consideramosX1 * .. X n , donde las X son variables
aleatorias independientes (no necesariamente normales) y n no es sufi-
cientemente grande para justificar el uso del teorema del límite central.
¿Cuál es la distribución d e esta suma? Por ejemplo, ¿cuáles la distribu-
ción del voltaje de entradaV (Ej. 12.6), si n == 2 o n = 3?
Primero consideraremos el importantecaso d e la suma de dos varia-
bles aleatorias. Se puede establecer el resultatdo siguiente.

Teorema 12.2. Supóngase que X y Y son variables aleatorias con-


tinuas independientes con fdp g y h, respectivamente. Sea 2 =
+
X Y y denótese la fdp de2 por s. Entonces,

(12.6)

Demslracidn: Puesto que X y Y son independientes, su fdp conjunta


f pucdc factorizarse:
340 Sumas de variables aleatorias 12.6

Usando la transformación:

z=x+y, w=x.

Lucgo, x = w, y = z El jacobiano
- 'uu7. de esta transformación es

J = / '1 -1'/=-l.

A$í,el valor absolutod e J cs 1 y, por tanto, la fdp conjunta d e 2 = S + E '


y W = S es

k ( z ; w ) = g ( w ) h ( z - w).

La fdp de 2 se obtiene ahora al integrar k ( z , w)de "o0 a m respecto a


w,de d o n d e se obtiene el resultado anterior.

Observaciones: a ) La integral anterior que relaciona las funciones g y h ocurre


e n muchos temas matemdticos diferentes. A menudo se le menciona como la
integral d e convolución de g y h ; algunas veces se escribe como g * h.
b ) La evaluación de la integral anterior debe hacersecon mucho cuidado.
En realidad, Ia misma dificultad que apareció en la evaluación d e la fdp de
un producto o d e u n cociente aparece nuevamente. Las filnciones g y h a
menudo serrin distintas d e cero sólo para ciertos valores d e sus argumentos.
Por tanto, el integrando enla integral anterior ser5 distintod e cero sólo para
aquellos valores d e la variable d e integración w para los cuales a?nbos factores
del integrando son distintos de cero.
c ) La fórmula anterior, ecuación (12.6), puede usarse repetidamente (con
dificultad creciente, sin embargo) para obtenerla fdp d e la suma de cualquier
número finito d e variables aleatorias continuas independientes. Por ejemplo, si
S = X + Y + W , podemos escribir como S = 2 + W , donde Z = S + Y . Luego
podemos usar el planteamiento anterior para obtenerla fdp de Z , y entonces,
conociendo la fdp d e Z , usar este método otravez para obtener la fdp de S.
d ) Podemos derivar la ecuación (12.6) d e otra manera, sin usar la noción de
jncobiano. Denotemos por S la fda de la variable aleatoria 2 = S -t Y . Luego
12.6 La distribución de la suma
número..
unde . 341

donde
i

FIGURA
12.5
Diferenciando S ( z ) respecto a z @ajo el signo integral,lo cual puede justificar-
se) obtenemos

+m
S
(
.
) = S’(.) = g(x)h(z - x) dx,
J-00

lo que estA de acuerdocon la ecuación (12.6).


e ) Puesto que la distribución d e X + Y debería posiblemente ser la misma
que la distribución d e Y + X , podríamos verificar que S-+,” g ( z ) h ( z - z) d z =
S-+,” h(y)g(z - y) dy. Haciendo simplemente z - x = y en la primera integral,
producirh la segunda forma.Algunas veces indicamos esta propiedad al escribir

-
g * h = h * g. Véase la Observación a) anterior.

‘1
O t FIGURA12.6
EJEMPLO12.9. Se consideran dos instrumentos electrónicos, Dl y
D2. Supóngase que Dl tiene una duración ‘que se puede representar
con una variable aleatoria T I que tiene distribución exponencial con
parámetro a l , mientras queD2 tiene una duración quese puede repre-
sentar con una variable aleatoria T2 que tiene distribución exponencial
con parámetro “ 2 . Suponiendo que D1 y D 2 estzín conectadas d e tal
manera que D2 empieza a funcionar en el momento en queDl deja d e
hacerlo, entonces T = TI + T2 representa e l tiempo total en que está
funcionando el sistema formado porlos dos instrumentos. Suponiendo
que TI y T2 son independientes, podemos aplicar el resultado anterior
para obtener
iables de342 Sumas 12.6

(¡Para todos los otros valores de 11 y t 2 , las funciones g y h se suponen


igual a cero!). Por tanto, usando la ecuación (12.6) encontramos que la
Iilp de T I + 7'2 = T e s t i dada por

El integrando es positivo si y sólo si ambos factores del integrando son


positivos; es decir cada vez t l 2 O y t - t l 2 O. Esto equivale a t l 2 O y
t l 5 t , lo cual, a su vez, es equivalente a O 5 t l 5 t . (Véase la Fig. 12.6.)
Luego, la integral anterior se convierte en

Observaciones: a ) Nótese que la suma d e dos variables aleatoriasindependien-


tes, distribuidas cxponencialmente, n o e s d distribuida exponencialmente.
b ) I'ara L Y ~> CY^, I n gráfica d e fdp de T se muestra en la figura 12.7.
c) La expresibn anterior para la fdp no esti definida para a1 = cu2, es decir,
para el caso donde TI y T2 tengan la misma distribución exponencial. A fin de
tencr cuidado con este caso especial, consideremos la primera integral d e S ( ¿ )
y hagamos LY = 01 = a2. Obtenemos

I = I/a

FIGURA
12.8
12.6 La distribución
de IQ suma de un número. . . 343

Ésta representa una distribuci6n gama (véase la 13c. (9.16). La gráfica de esta
fdp aparece en la figura 12.8. El máximo ocurre para t = 1 / a = E(T1) =
E(T2).

EJEMPLO12.10. Reconsideremoselejemplo12.6, que trata de la


suma dc dosvoltajes aleatorios independientes,VI y V2, cada uno delos
cuales está distribuido uniformemente en [0,10]. A s í ,

(Recuérdese nuevamenteque las funciones f y g son cero para cualquier


+
otro valor). Si V = If1 V2, tenemos

Razonando como en el ejemplo 12.8, observamos que el integrando es


distinto de cerosólo para aquellos valores de v l que satisfacen O 5 u1 5
10 y O 5 w - "1 5 10. Estas condiciones equivalen a O I vl 5 10 y a
w - 10 5 w1 5 2).

Existen dos casos, como se indicacn la figura 12.9.

a) w - 10 5 10 y O 5 w 5 10 que juntas implican que O 5 w I 10.


b ) O 5 w - 10 5 10 y w 2 10 que juntas implican que 10 5 w 5 20.

En el caso a), q puede tomar valores entre O y o, mientras que en el


caso b ) , u1 puede tomar valores entrew - 10 y 10.
344 Sumas de variables aleatorias 12.6

Así obtenemos

Luego, la fdp d e V tiene la grAfica que se muestra en la figura 12.10.

EJEMPLO12.1 1. Como una ilustraciónfinal d e las sumas d e variables


aleatorias, reconsideremosu n resultado queya hemos probado, usando
el método más indirecto de las [unciones generadoras de momentos
(véase el Ej. 10.1 l), esto es, la suma de dosvariables aleatorias normales
independientes otra vez está distribuida normalmente. A fin d e evitar
algunas operaciones algebraicas complicadas, consideremos sólo un caso
especial.
Supóngase que 2 = X + Y , donde X y Y son variables aleatorias
independientes, cada una con distribuciónN ( O . 1 ) . Entonces,

Por lo tanto, la fdp de 2 está dada por


12.6 La distribución
de la :ruma
número..
unde . 345

Completando el cuadrado en el exponente del integrando, obtenemos

(a:2 -.a:)=

Luego,

Sea d(a-:z/2) = u;entonces da: = du/& y obtenemos

l/t& es igual a uno. A s í ,


La integral anterior (incluyendo el factor

Pero ésta representa la fdp de una variable aleatoria con distribución


N ( 0 , a), lo cual se iba a demostrar.
Al presentar la distribución de la suma de dos variables aleatorias
independientes, nos hemos limitado a variables aleatorias continuas. En
el caso discreto, el problema un es poco más sencillo, almenos en ciertos
casos, como lo indica el teorema siguiente.
Teorema 12.3. Sup6ngase que X y Y sonvariablesaleatoriasin-
dependientes, cada una de las cuales ,puede tomar sólo valores
enteros no negativos. Sea p ( k ) = P(,Y = IC), E = O , 1 , 2 , . . . y
sea q(r) = P ( Y = Y), r = 0,1,2,.. . Sea Z = X + Y y sea
w ( i ) = P ( Z = i). Entonces,
i
w(i) = p(IC)q(i - E ) , i = o, 1 , 2 , . . .
k=O.
Demostración:
w(i)= P(Z = i)
P[X=O,Y=iox'=1,Y=i-I.o ... o X = i , Y = O ]
i i
= P [ X = E , Y = i - IC] = p(E,)q(i- IC)
k=O k=O
puesto que X y Y son independientes.
346 Sumas de variables aleatorias

OBseruacidn: Nótese la similitud entre esta suma y la integral d e convolución


derivada en el teorema 12.2.

EJEMPLO12.12. X y Y representan el ntimero d e partículas a


emitidas por dos ruentes de material radioactivo durante un periodo
de tiempo especificado d e longitud t . Supóngase que X y Y tienen
distribución d c Poisson con parámetros P l t y@:!¿, respectivamente. Z =
X + Y representa el número total d e partículas a emitidas por las dos
fuentes. Usando el teorema 12.3, obtenemos

i
P ( Z = IC) = p ( k ) q ( i - IC)
k=O

(La última igualdad se obtiene aplicando el teorema del binomio a la


sumaanterior.) La últimaexpresiónrepresenta la probabilidad d e
que una variable aleatoria, que tiene una distribucicin de Poisson con
parámetro P l t +
,&t, tome el valor i. Así comprobamos lo que ya
sabíamos: la suma de dos variables aleatorias independientesd e Poisson
tiene una distribución d e Poisson.

PROBLEMAS
12.1. a ) Una f5brica produce determinados artículos d e tal manera que
el 2% resulta defectuoso. Un gran número de tales artículos, digamos R , se
inspecciona, y se anota la frecuencia relativa de los defectuosos, digamos fo.
¿Cuán grande debería sern a fin de quela probabilidad sea al menos 0.98 d e
quefodifiera de 0.02 en menos d e 0.05?
O) Contestar a ) si 0.02,la probabilidad d e obtener u 1 1 articulo defectuoso, se
sustituye por p que se supone desconocida.
12.2. Supóngnse que seobtieneunamuestra de tamaho n de un gran
conjunto d e pernos, ~ 1 3 % los
d e cuales es defectuoso. tCu,il es la probabilidad
de quecomo misilno el 5% de los pernos elegidos sea defectuoso si:
a) n = G? b ) n = GO? c) n = GOO?
Problemas 347

12.3. a) Un sistema está constituido por 100 componentes que funcionan


independientemente. La probabilidad de que cualquiercomponente falle
durante el periodo d e operación es igual a 0.10. A fin d e que el sistema
completo funcione, al menos deben funcionar 85 (componentes. Calcular esta
probabilidad.
b ) Supóngase que cl sistema anterior está formadopor n componentes, cada
uno con una confiabilidad de 0.90. El sistema ftmcionarzi si a1 menos el 80%
d e los componentes hnciona correctamente. Determinar n, d e modo que el
sistema tenga una confiabilidad de 0.95.
12.4. Supóngase que 30 instrumentos clcctrónicos, D l , . . . 0 3 0 , se m a n d e
la manera siguiente: tan pronto como Dl falla, 0 :empieza
~ a actuar. Cuando
0 2 falla, 0 3 empieza a actuar,etc. Supóngase queel tiempo paraque ocurra la
falla.de 0;es una variable aleatoria distribuida exponencialmente con parrime-
tro ,B = 0.1 hora-1. Si T es el tiempo total de operación d c los 30 instrumentos,
¿cuál es la probabilidad de queT exceda 350 horas?
12.5. Al sumar números, u n computador aproxima cada nilmero al entero
más próximo. Suponer que todos los errores d e aproximación son indepen-
dientes y distribuidos uniformemente entre(-0.5, 0.5).
a ) Si se suman 1500 números, {cuál es la probabilidad de que la magnitud
del error total exceda 15?
b ) ¿Cu5ntos números pucden sumarsejuntos para que la magnitud delerror
total sea menor que 10, con probabilidad 0.90?
12.6. Supóngase que S;,i = 1 , 2 , . . . 50, son variables aleatorias indepen-
dientes, cada una con distribución d e Poisson con parámetro X = 0.03. Sea
+ +
S = x1 . . . x50.
a) Usando el teorema del límite central,calcular P ( S 2 3).
b ) Comparar la respuesta d e a ) con el valor exacto d e esta probabilidad.
12.7. En un circuito simple se conectan dos resistencias, R1yR2 en serie.
Por tanto, la resistencia total est5 dada por R = R1 + R2. Supóngase que R1 y
R2 son variables aleatorias independientes, cada una conla fdp

O < r; < 10, i = 1,2.

Encontrar la fdp d e R, (la resistencia total) y dibujar la grzifica.


12.8. Supóngase que las resistencias en el problema 12.7 est5n conectadas
en paralelo. Encontrar la fdp de R, l a resistencia total del circuito(establecerla
sólo en forma integral). [Zndicacidn: La relación entre R, y R1, y E 2 esd dada
+
por l / R = 1/R1 1/R2.]
348 Sumas de variables aleatorias

12.9. N medir T , la duración de unartículo, se puede cometer un error que


puede suponerse distribuido uniformemente entre (-0.01 y 0.01). Luego, el
tiempo anotado(en horas) se puede representírcomo T + S , donde T tiene una
distribución esponencial con par5rnetro 0.2 y S tiene la distribución uniforme
ya descrita. Si T y X son independientes, encontrarla fdp d e T + X.
12.1O. Supóngase que S y I’ son variables aleatorias independientes distri-
buidas idénticamente y que l a fdp cle X (y, par tanto, de Y )est5 dada por

f ( 2 )= a/& 2 > a, a > o,


= O, para cualquier otro valor.

Encontrar la fdp de X +Y. [Indicaci6n: Usar fracciones parciales para la


integración.]
12.1 1.Realizar los c5lculos sugeridos a1 final del ejemplo 12.5.
1 2.12. a ) Un instrumento tiene un tiempo T para fallar, cuya distribución
est5 dada por h r ( 1 0 0 , 4 ) . Supóngase que al anotarT se comete un error, cuyo
valor se puede rcpresentiw con una variable aleatoria S distribuida uniforme-
mente en (-1,l).Si X y T son independientes, obtenerla fdp d e S = X T en +
términos d e a, la fdp d e la distribución N ( 0 , l ) .
b ) Calcular P(100 5 S 5 101). [I~zdicaczdn:Umr la regla de Simpson para
aproximar la integral.]
12.13. Supóngaseque un aparato nuevo se prucba repetidamente enciertas
condiciones d e tensi6n hasta que falla. La probabilidad d e fallar en cualquier
ensayo es P I . Sea X igual al número deensayos necesarios hasta la primera falla,
inclusive. También se prueba un segundo aparato hasta que fillla. Sup6ngase
que la probabilidad constmte defalla de p 2 esL5 asociada con él. Sea Y igual al
número deensayos necesarios hasta su primera falla, inclusive. Supóngase que
,Y y Y son independientes y sea 2 = X + Y.Por tanto, 2 es igual al número
d e ensayos necesarios hasta que anlbos aparatos hayan fallado.
a) Encontrar la distribución de probabilidad d e Z.
b ) Calcular P ( Z = 4) si p l = 0.1, p2 = 0.2.
c) Analizar a) si p1 = p 2 .
13.1 Introduccidn

Consideremos d e nuevo un problema expuesto previamente. Supón-


gase que tenemos una fuente de material radioactivo que emite partícu-
las a y que son vAlidas las suposiciones establecidas en el capítulo8; así,
la variable aleatoria X definida como el número de partículas emitidas
durante un periodo de tiempo especificado 2, tiene una distribución de
Poisson con parametro A t .
A fin de “usar” este modelo probabilístico para describir la emisión
d e partículas a necesitamos conocer el valor d e X. Las suposiciones
que formulamos sólo conducen a la conclusión de que X tiene una
distribución d e Poisson con un parametro A t . Pero si deseamos calcular
P ( X > IO), por ejemplo, la respuesta será e’n t@rminosd e X a no ser
que conozcamos su valor numérico. EII i‘brma similar, los parsmetros
importantes asociados con la distribución, taks comoE ( X ) y V ( X ) , son
funciones d e X.
Para buscar un valor numCrico d e X debemos dejar, al menos por
el momento, el mundo de nuestros modelosmatemáticosteóricos y
entrar al m u n d o d elas observaciones. Es decir.,en este instante debemos
350 Muestras y distribuciones
muestrales 13.1

observar la emisión d e partículas, obtener los valores numéricos d e _Y


y luego utilizar esos valores de manera sistemática a fin de obtener una
información atinada d e X.
Es importante para el lector tener una idea precisa acerca de la rela-
ción entre la verificación empírica y la deducción matemática que apare-
ce en muchas áreasd e matemáticas aplicadas. Esto es relevante cuando
construimos modelos probabilisticos para el estudio de fenómenosob-
servables.
Consideremos un ejemplo trivial d e trigonometríaelemental.Un
problema típico puede implicar el cálculo d e la altura de un árbol. Un
modelo matem5tico para este problcma podría obtenerse al postular que
la relación entre la altura desconocida h , el largo d e
la sombra S y el ángulo cy es de la forma h = S t a n (Y.
(Suponemos que el árbol permanece derecho y per-
pendicular al suelo, Fig. 13.1.) Por tanto, si S y (Y son
conocidas, con ayuda de una tabla apropiada pode-
mos calcular h . El hecho importante que aquí formu-
lamos es que S y (Y deben ser conocidas antes d e qlle
podamos evaluar h. Es decir, alguien debe haber me-
dido S y N . La deducción matcmática que conduce
aa l rclación 11 = S t a n cy es complctamcnte inclepen- FIGURA13.1
dicnte delos medios con los cuales medimos S y (Y.Si
esas mediciones son exactas, entonces S t a n (Y representarA un valor

exacto de h (suponiendo que el modelo es válido). En otras palabras,


no podemos dcducir simplemente el valor de h con nuestros conoci-
micntos dc trigonometría y con la ayuda de las tablas trigonométricas.
inebemos dejar nuestro santuario (cualquiera que sea)y hacer algunas
mediciones! Y la manera de hacer esas mediciones de ningún modo
influye en In mlidez de nuestra deducción matemática, aunque el pro-
blema por rcsolver sea importante.
Al usar los modclos probabilisticos necesitaremos entrar nuevamente
al mundo empírico y hacer algunas mediciones. Por ejemplo, en el
caso que consideramos se usa la distribución d e Poisson como modelo
probabilistic0 y, por tanto, necesitamos conocer el valor del parámetro X.
A fin de obtener alguna inrormación acerca de X debemos hacer algunas
mediciones y luego usarlasd e manera sistemática con objeto d e calcular
X. En el capítulo 14 describiremos la forma de hacer este cálculo.
Finalmente, debemos insistir aquí en dos puntos. Primero,las medi-
ciones necesarias para obtener información respecto aX serán en gene-
ral másfácilcs de obtener quelas que resultarían de mediciones directas
13.2 aleatorias Muestras 35 1

para eXt(At)k/k! (así como es más fácil obtener mediciones para el largo
de l a sombra S y el ángulo a, que para la altura h). Segundo, la manera
como obtenemos mediciones paraX y el modo como usamosesas medi-
ciones dc ninguna formainvalida ( o confirma) la aplicación del modelo
de Poisson.
Lo anterior es un ejemplo típico de una granclase de problemas. En
muchos casos es relativamente natural (y apropiado) formularla hipóte-
sis de que unavariable aleatoria X tiene una distribución particular de
probabilidades. Ya hemos visto varios ejemplos que indican que supo-
siciones muy simples acerca de la conducta probabilística d e X condu-
cirán a un tipo determinado de distribuciones tales como la binomial,
exponencial normal, de Poisson y otras. Cada una de esas distribucio-
nes depende de ciertos parámetros. En algunos casos, el valor de uno
o más parámetros puede ser conocido. (Tal conocimiento puede prove-
nir del estudio previo d e las variables alcatorias.) Muy a menudo, sin
embargo, no conocemosel valor d e los parámetros implicados. En tales
casos debemos proceder como se sugirió anteriormcntc y obtener algu-
nos valores empíricos de S y luego usar esos valores de alguna manera
apropiada. En el capítulo 14, veremos cómo se hace esto.

13.2 Muestras aleatorias

Previamente hemos presentado la noción de muestreo aleatorio con o


sin sustitución de un conjunto finito d e objetos o población d e objetos.
Tenernos que considerar una población especifica de objetos (personas,
artículos, manufacturados, etc.) acercad e la cual queremos hacer algu-
na inferencia sin tomar en cuenta cada objeto particular. Así “muestrea-
mos”, es decir, tratamos de considerar algunos objetos “típicos” de los
cuales esperamos extraer alguna información que dc algiln modo sea
característica d e la población completa. Seamos más precisos.
Supongamos que se designan consecutivamente cada uno d e los ele-
mentosdeuna poblaciónfinita de modo que, sin perder generali-
dad, una población que consta de A’ objetos puede representarse como
1 , 2 , . . . , N . Elijamos ahora n artículos, de la manera que se describe a
continuación. Definamos la siguiente variable alcatoria.
X ; = valor poblacional obtenido cuando se escoge el i-Csimo artículo,
i = 1,2,...,n.
las variables aleatorias X1 ,. . . , X n
La distribución de probabilidades de
depende obviamente de cómo vamos a muestrear. Si cl muestreo es con
352 Muestras y distribuciones
muestrales 13.2

sustitución, escogiendo cadavez un objeto al azar,las variables aleatorias


son independientes e idénticamente distribuidas.Es decir, para cada X,,
i = 1 , 2 , . . . ,n tenemos

P(X’2 = j ) = 1 / N , j = 1 , 2 , . . . , N .

Si elmuestreo es sin sustituciónlas variables aleatorias X1 , . . . X, ya no


son independientes. En este caso, su distribución conjunta d e probabi-
lidades está dada por

donde j , , . . . , j , son n valores cualesquiera d e (1,.. . ,N ) . (Podemos


demostrar que la distribución marginal d e cualquier Xi) independien-
temente de los valores tomados por X I , . . . ,X i - I 7 Xi+1,. . . ,X,, es la
misma que la anterior cuando el muestreo se hace con sustitución.)
Hasta ahora, en nuestra exposición, hemos supuesto que existe una
población principal, 1 , 2 , . . . ,N que es finita y acerca d e la cual queremos
tener una información basada en una muestra de tamaíío n < N . En
muchos casos no hay ninguna población finita d e la cual obtengamos
muestras; d e hecho, podemos tener dificultades al definir una población
principal d e cualquier clase. Consideremos los ejemplos siguientes.
a) Se lanza una moneda. Definamosla variable aleatoria X1 = núme-
r o d e caras obtenidas. Só10 en un aspecto podemos pensar que X’1 es
una muestra de tamaño uno de la “población” d e todos los lanzamien-
tos posibles de esa moneda. Si lanzamos l a moneda una segunda vez y
definimos la variable aleatoria X2 como el número de caras obtenidas
con el segundo lanzamiento,S 1 ,X 2 posiblemente se puede considerar
como una muestra de tamaño dos de la misma población.
b ) La precipitación totalanual en cierta localidad durante el año1970
podría definirse como una variable aleatoria X’1. Durante los años si-
guientes, las variables aleatorias S 2 , . . . ,X , pudieron definirse análo-
gamente. Podemos considerar d e nuevo ( X I , . . . ,A-,) como una mues-
tra de tamaño n, obtenida de la poblaci6n d e todas las precipitaciones
anuales posibles en esa localidad específica,y podría suponerse en forma
realista que las X-,.son variables aleatorias independientes idénticamente
distribuidas.
c) La duración de una bonlbilla Fabricada mediante cierto proce-
dimiento se estudia escogiendo n bombillas y midiendo su d u r a c i h ,
13.2 Muestras aleatorias 353

. . ,Tn. Podemos considerar ( T I , . . . ,T,) como una muestra alea-


í‘‘I,.
toria d e la población d e todas las duraciones posibles d e las bombillas
fabricadas de esa manera específica.
Formaliccmos esas nociones como sigue.

Definición. Sea X una variable aleatoria con cierta distribución d e


probabilidades. Sean X I , . . . , X n n variables aleatorias indepen-
dientes cada una conla misma distribución queX. Llamamos en-
tonces a (X,, . . . , X , n )muestra uleutoriu de la variable aleatoria X.

Observaciones: a ) Establezcamos d e una manera más informal loanterior: una


muestra alcatoria d e tamaño n de unavariable aleatoria X corresponde a n me-
diciones repetidasde X , hechas básicamenteen las, mismas condiciones. Como
ya lo hemos dichoen otros contextos,la noción matemáticamente idealizada d e
una muestra aleatoria se puede, en el mejor d e 10s casos, aprosimar sólo por
las condiciones experimentales reales. A fin de que X1 y X2 tengan la misma
distribución, todas las condiciones “relevantes” en las que se realiza el experi-
mento deben serlas mismas cuando se observa X1 que cuando seobserva X2 .
Por supuesto, las condiciones experimentales nunca se pueden duplicar idén-
ticamente. Lo importante es que esas condicione:;, que son diferentes, deben
tener poco o ningún efecto en el resultado del experimento. Sin embargo, al-
gún cuidado deber5 tenerse para asegurarnos de que realidad en obtengamos
una muestra aleatoria.
Por ejemplo, supóngase que la variable aleatoria que se considera es S , el
nilmero d e llamadas que llegan a una central telefjnica elmiércoles entre las 4
P M y las 5 PM. A fin de obtener una muestra aleatoria de X , posiblemente debe-
ríamos elegir n miércoles al azar y anotar el valor d e X I , . . . , X,. Tendríamos
que estar seguros de quetodos los miércoles son miércoles “típicos”. Por ejem-
plo, podríamos no incluirun miércoles particular si coincide con Navidad.
Nuevamente, si tratamos de obtener unamuest.ra aleatoria X d e la variable
aleatoria X definida como la duración de un instrumento electrónico que se
fabrica con determinadas especificaciones, desearíamos asegurarnos de que
no se ha obtenido un valor muestra1 de un artí8cdo producido durante un
momento en queel proceso d e producción estaba fallando.
6) Si X es una variable aleatoria continua con fdp f y si X I , . . . , X , es una
muestra aleatoria d e X , entonces g , la fdp conjunta? d e X I , .. . , X,, puede
escribirse como g ( q , ,, . , x,) = f ( X 1 ) . . . f(x,). Si X es una variable aleatoria
discreta yp(r;) = P ( X = xi), entonces

c) Tal como lo hicimos antes, usaremos letras nnayilsculas para las variables
aleatorias y letras minúsculas para el valor de la variable aleatoria. Así, los
354 Muestras y distribuciones
muestrales 13.3

\-alorcs que toma una muestra ( 2 1 , . . . ,x,) se denomr5n con (21,.. . ,x,). A
nlenudo llablarernos del finrulo mzuswal S I , . . . , X,. Con esto indicaremos
simplemente que consideramos a ( 2 1 , . . . ,x,) como las coordenadas de un
punto en uncspacio euclidiano n dimensional.

13.3 Estadísticos*

Una vez que hemos obtenidolos valores de una muestra aleatoria, habi-
tualmente queremos usaresos valores muestrales conel objeto de hacer
alguna inferencia respecto de la población representada porl a muestra
que, en el presente contexto, significa la distribución d e probabilidades
d e la variable aleatoria que se est5 muestreando. Puesto que los diver-
sos parámetros que caracterizan una distribución de probabilidades son
números, es natural que queramos calcular ciertas características nu-
méricas específicas que se obtienen de los valores muestrales,lo que nos
podría servir para hacer proposiciones apropiadas acerca d e los valo-
res d e los parámetros que a menudo no son conocidos. Definamos el
siguiente concepto importante.

Definición. Sea X I ) .. . , X n una muestra aleatoria de una variable


aleatoria X- y sean X I ) .. . x n los valores tomados por la muestra.
)

Sea 11 una función definidapara l a n.-tupla ( X I , . . . ,x,). Definimos


Y = I I ( X 1 , . . . , X-,) como un estadístico que toma el valor y =
r q q , . * . xn).
)

Enpalabras, un estadísticoes una función real d e la muestra.


Algunas veces usamos el término estadístico para referirnos alva-
i podemos hablar delestadístico y = H ( z 1 , . . . ,
lor d e la función. h
z n ) cuando en realidad deberíamos decir que1~ es el valor del es-
tadístico Y = N ( X 1 , . . . , S , , ) .

Observacio,~es:a ) El uso anterior es muy especial, pero en general aceptado,


del término estadístico. Obsérvese que lo estamos usando en singular.
b) De acuerdo con la definiciónanterior,¡un estadístico es una variable
aleatoria! Es muyimportanterecordar esto. Por lo tanto,ahoraser5 iltil
considerarla distribución d e probabilidades de un estadístico, su esperanza y su
varianza. Cuando una variable aleatoria es en realidad un estadístico, es decir,

*N. del T. El autor emplea la palabra stahtics, quc hemos traducido como
estadístico por ser lo mis comúnmente empleado en espaiol.
13.1 Algunos estadísticos importantes 355

una hnción de una muestra, a menudohablamos dle su dlstribucwn muestral, en


vez de su distribución d e probabilidades.

Como sugerimos al principio d e este capítulo, usaremos la infor-


mación obtenida de una muestra con el objeto d e estimar ciertos pa-
rámetros desconocidos asociados con una distribución de probabilida-
des. Encontraremos que ciertos estadísticos desempeiian un papel im-
portante en la solución d e este problema. Antes d e que consideremos
esto con m& detalles (enel capítulo 14), estudiemos algunos estadísticos
importantes y sus propiedades.

13.4 Algunos estadisticos importantes

Hay ciertos estadísticos que encontraremos a menudo. A continuación


veremos unos cuantos y expondremos algunas des u s propiedades im-
portantes.

Definición. Sea (X,, . . . ,X,) una muestra aleatoria de la variable


alcatoria X . Los siguientes estadísticos son de intcrés.
a)X = (1/n) Cy=lX; se llama promedio n;!uestrd.
b ) S’ = [ l / ( n - l)]Cr=l(X;- X)2se llama varianza muestral.En
forma breve explicaremos porqué dividimos entre ( n - l),en vez
d e elegir simplementen.)
c ) IC = mín(X1,. . . ,X,) se llama minimo de la muestra. (IC repre-
senta simplemente el valor observado miis pequefio.)
d ) A l = máx(X1,. . . ,X,) se llama mcixirno de la muestra. ( M
representa el mayor valor observado.)
e ) R = h+‘- K se llama recorrido muestral.
f)-X;) = j-ésima observación mayor enla muestra, j = 1 , 2 , . . . , n.
(Tenemos que X;)= M , mientras que :<?)
=K.)

Observaciones: a ) p as variables aleatorias X:), j = 1 , 2 ,. . . , n se llaman


orden asociados con la muestra aleatoria S I , . . . , S,. Si S es una
estadisticos da
variable aleatoria continua pdernos suponer que .X;) > S?) > . . > X,, .
b ) LOS valores extremos d e la muestra (en la notación anterior, X;) y S?))
son a mcnudo de interés considerable. Por ejemplo, en la construcción d e
represas para controlar inundaciones,la mayor altura que ha alcanzado un río
en los 50 años anteriores puede ser muy importante.
356 Muestras y distribuciones
mueshales 13.4

Teorema 13.1. Sea S una variable alcatoriacon esperanza E ( d Y )= p


y varianza V ( S ) = u'. Sea X el promediomuestra1 tlc u n a
muestra aleatoria d c tarnafio n. Entonccs,

c ) se deduce deuna aplicación directa delteorema del límite ccntral.


I'odcrnos escribir X = ( l / n ) X i + .. .+( l / n ) X , como l a suma d c varial)lcs
alcatorias indcpcndicntemcntc distril~uidas.

Obserrvzcioncs: a) Cuando el tamaño de muestra aumenta,el promedio nlucs-


tral Sticnde a variar catlavez menos. Esto cs intuitivamcntc evit1ent.c y corrcs-
ponde a nuestra experiencia con datos numéricos. ConsitlCrcse, por ejemplo,
el conjunto siguientede 18 nilmcros

Si crtlculamos el promedio de esos nrimeros, tomando dos n l a vez en cl orden


anotado, obtenemos el siguiente con.j~~ntode promedios:

1 , -1,0.5,4.5,0.5, -2.5,8.5, 1.5,2.5.


13.4 importantes
Algunos estadfsticos 357

Si promediamos el conjunto original d e números, tomando tres a la vez, obte-


nemos

1.3,-1,3. - 1.3,7.7,0.7

Finalmente, si promediamos los números, tomandlo seis a la vez, obtenemos

0.2,0.8,4.1.

L a varianza en cada uno de esos conjuntos de promedios es menor que


en el conjunto anterior, debido a que en cada caso el promedio estí5 basado
en un número mayor de valores. El teorema anterior indica precisamente
x
cómo la variación de (medida en términosd e su varianza) disminuyecuando
aumenta n. (En relación con estovéase la Icy d e los grandes números, Sec. 12.2
y en particular la Ec. 12.2.)
b ) Si n no es suficientemente grande para asegurar la aplicación del teore-
ma del límite central, podemos tratar de encontr.ara l distribución exacta de
x
probabilidades d e por un medio directo (pero en general mzís complicado).
En la sección 12.6 sugerirnos un método mediantc: el cual podemos encontrar
la distribución de probabilidades de la suma de variables aleatorins. Con una
aplicación repetida d e este método podernos obtenerla distribución de prol)a-
bilidades de y ,en especial si n es relativamente pcqueiin.
c) El teorema 13.1 indica que para una n suficientemente grande, el prome-
dio muestral7 tiene una distribuciónaproximatl;~mentc normal (con espcran-
za p y varianza r 2 / n ) .

Encontramos que no sólo X , sino la mayor parte d e las funciones


“conbuencomportamiento”de x tienen csta propiedad. En este
nivel d e presentación no podernos darundesarrollocuidadosode
este resultado. Sin embargo, el resultado es dc gran importancia en
muchas aplicaciones para sostener a lo menos un argumento hcurístico
e intuitivo.
Supóngase que Y = ~ ( y5que ) T se pucdc desarrollar en una serie
d e Taylor respecto a p . Así T = (x) =~ ( p ) +(x +
- p ) r ’ ( p ) R, donde R
es el término delresto y puede expresarsecorno R = [ ( X- p ) 2 / 2 ] 7 ” ’ ( z ) ,
x
donde z es u n valor comprendido entre y p . Si n es suficicntemente
grande, 7 estarácercana a p y, portanto, (x
- 11)
2
serápequeña
comparada con ( X - p ) . Para n grande, podc,mos considerar, por tanto,
que el resto es despreciable y ctfiroximur r ( F )como sigue:

T(X)Y T(p) + r’(p)(X ” P).


358 Muestras y distribuciottes
muestrales 13.4

Vemos que para una n suficientemente grande, r ( X )se puede aproxi-


mar por unafunción lined d e Y.Puesto que X será aproximadamente
normal (para unan grande), encontramosque .(x)
también será apro-
ximadamente normal, puesto que una función lineal de una variable
aleatoria distribuida normalmenteestá también distribuida normalmen-
te.
De la representación anterior d e .(x)
encontramos que

E (.(X)) 31 r(p), v (.(X))21 [ T ' (n/ L ) ] ~ u ~


Así, para una n suficientemente grande, vemos que la distribución d e
r ( X ) es aproximadamente N ( r ( p ) ,[ 7 " ( p ) ] 2 ~ 2 / ~ )(en condiciones muy
generales d e l a función r).

Teorema 13.2. Sea X una variable aleatoria continua con fdpf y fda
F . Sea X I , . . . ,X n una muestra aleatoria de X y sean Ir' y A l el
mínimo y cl máximo dela muestra, respectivamente. Luego:

a) la fdp deA l está dada por g ( m ) = n [ F ( m ) l n - l f ( m ) ,


b ) la fdp de Ii' está dada por h ( k ) = n[l - F ( k ) ] " - ' f ( k ) .

Demostración: Sea G ( m ) = P( M _< m ) la fda de M. Ahora { A l _< m }


es equivalente al evento {*Y; 5 m, para toda i}. Por tanto, puesto que
las S ; son independientes, encontramos

Por tanto,

g ( m ) = G'(7n)= TI [F(7n)ln-' f(77~).

La obtcnción dela fdp d e I<se dcja al lector. (VCase el Prob. 13.1.)

EJEMPLO13.1. Un instrumento electrónico tiene una duración T


que está distribuida exponencialmente con parámetro a = 0.0001, es
decir, su fdp es f ( t ) = O.OO1e-O~OO1t.Supóngase que se prueban 100 d e
tales instrumentos, lo que davalores observados T I , . . . , T ~ o o .
13.4 Algunos esíadísticos importafttes 3 5 9

a ) <CuA es la probabilidad d e que 950 < T < 1100? Puesto que


el tamaño de muestra es muy grande, podernos aplicar el teorema del
límite central y proceder como sigue:
- 1 1
E ( T ) = --- 1000, V ( T )= -(o.oo1)-2 = 10.000.
0.001 100

Por lo tanto, T - 1000/100 tieneaproximadamente la distribución


N ( 0 , l ) . Así,

P(95O < T < 1100) = P 'r - 1000


"

100

= @ ( l-
) @(-0.5)
= 0.532,

d e las tablas de la distribución normal.

Observación: En el caso presente podemos obtener en forma inmediata la


distribuciónexacta de T sin recurrir al teorema del límite central. En el
teorema 10.9 demostramos quela suma devariables aleatorias independientes
distribuidas exponencialmente tiene una distribución gama,decir,
es
(~~~~~)100s9"-0.001S
g(s) = >
99!

donde g es la fdp d e TI + . . . + T I M .Lucgo, la fdlp de T est5 dada por

Así, T tiene una distribucióngama con parhnetros O. 1 y 100.

b) ?Cuál es la probabilidad de que el mayor valor- observado sobre-


pase 7200 horas? Necesitamos qne P ( h i > 7 2 0 0 ) = 1 - P(Ai 7200). <
El valor máximo será menorque 7200 si y sólio si cada valor de muestra
es menor que 7200. Por lo tanto,

P(Ai > 7200) = 1 - [F(7200)]100.


Para calcular F(7200) recordemos que la variable aleatoria distribuida
exponenciallnente con parámetro 0.001, ~ ( t=) 1 - e-O.Ool'. Luego,
360 Muestras y distribucio~tesmuestrules 13.4

Así la probabilidad pedida es 1 - (0.09925)'00, que es igual a 0.071.


c) ?CuA es la probabilidad d e que cl tiempo mis corto para que
ocurra una f:,llla sea menor que diez horas? Pedimos quc P(Z< < 10) =
1 - P ( I < 2 10).
El mínimo de la muestra ahora es mayor o igual a 10 si y sólo si cada
valor muestra1 es mayor que o igual a 10. Por tanto,

P(Z< < 10) = 1 - [l - F(lO)]loO.

l cxprcsión d e F como se dio en /I), tenemos


Usando a

1 - E'(10) = e -0.001(10) -
- ,-0.01 = 0.99005.

P(K < 10) = 1 - (0.98005)100 = 0.63.


La filtima partc del ejemplo anterior puede generalizarse como
lo indica
cl tcorcma siguiente.

Teorema I?.?. Sea S unavariabledistribuidacsponcncialmcnte


con p a r h e t r o (Y y sea (-171,.. . ,S T L ) una mucstra alcatoria de S .
Sea K = m í n ( S 1 , . . . , X n ) . Entonces, Z< e s t i t a m b i h distribuida
esponencialmentc con pal-Amctro no.

00semacio'u: Este teorema puede gcncraliznrse como sigue. Si .Y1, . . . , S ,


son variables alentorias indcpendicntes y si S i tiene una distribución esponen-
c i d con parhlctro a ; ,i = 1 , . . . , n , entonces I< = m í n ( S 1 , . . . ,S,)tiene una
dist.ribuci6n esponencial con p a r h c t r o 0 1 + . . . + cy,. Para una demostraciiin
de csto, d a s e cl problcmn 13.2.
13.4 Algunos estadísticos importantes 361

El teorema 13.4 nos (la informacih acerca del estadístico S 2 .

n n
- 2

i=l i=l

+ 2(p - T)(XZ- p ) + ( p - ","I


n

= [(X2 - p y
E=l

C(X;- p ) 2 + 2(p - X)C ( X 2 - p ) + n ( p - X)2


n n
=
i= 1 /j= 1
n

por lo tanto,
362 Muestras y distribuciones muestrales 13.4

6) No demostraremos b), sólo haremos posible su validez al conside-


Cy=l((x;- X)2para n = 2.
r a r el caso especial siguiente: Considérese
Entonces

Puesto que -Y1y -Y2 cstán distribuidas indepcndicntemente con distribu-


ción N ( p , c 2 ) encontramos
, quc( S 1 - X 2 ) tiene distribuciónN ( @ ,2a2j.
Luego,

tienedistribuciónx-cuadradaconungradodelibertad.(Véase el
Teorema 10.8.) La demostración para una TI general sigue una línea
semejante. Debemos demostrar que CF=l((s;- y l 2 / o 2se puede des-
componer enla suma de ( n - 1) cuadrados de variables alcatorias inde-
pendientes, cada una con distribuci6nN ( @ 1).
,

Observacwn: Aunque S2 sedefine como la suma d e los cuadrados de n


términos, esos n términos no son independientes. En realidad, (XI - S)+
+
( J ~ -2 X ) . . .+ (X, - S r ) = ELl X ; - nS? = O. Por lo tanto, hap una relacibn
lineal entre los n términos, lo que indica que tan pronto comose conozca alguno
de los ( n - I), el n-ésimo estará determinado.

Finalmente, establezcamos(sin demostracih) un resultado que se


refiere a la distribución d e probabilidades del recorrido de muestra R.

Teorema 13.5. Sea X unavariablealeatoriacontinuacon f d p J.


Sea B = A l - K el recorrido de muestra basado en una muestra
aleatoria d e tamafio 7 2 . Luego, la fdp d e R está dada por
13.5 L a transformacwn
integral 363

EJEMPLO13.2. Un voltaje aleatorio V está distribuidouniforme-


mente en [O, 11. Se obtiene una muestra de tamañon, digamos VI,. . . ,
I S L , y se calcula el recorrido muestra1 R. Encontramos que la fdp de R

.>
es

g ( r ) = n(n - 1)
+m
r"f(sjf(s + ds *

Tenemos f ( s ) = f ( s +
r ) = 1 para le(r)
cualquier O 5 S 5 1 y O 5 S r 5 1, las +
que juntas implican que O 5 S 5 1 - T . Por

= n ( n - 1j f . n - 2 ( l - T ) , o 5 T _< 1. FIGURA13.2

Para n > 2, la grafica de la fdp d e R tiene la forma que se indica en


la figura 13.2. Obs&-vese que cuando n -, (m,el valor d e r en el cual
ocurre el máximo se desplaza a la derecha. Así, cuando el tamaño de
la muestra aumenta, cada vez es más posible que el recorrido R esté
cercano a 1, que es intuitivamente lo que esperaríamos.

13.5 La transformación integral

Una muestra de una variable aleatoria S puede usarse para obtener


informaci6n acerca de parámetros desconocidosasociados con la distri-
buci6n d e probabilidades de X. Sin embargo, podemos usar una mues-
tra con un propósito diferente. Podríamos tomar algunas observacio-
nes de una variable aleatoria cuya distribución está completamente es-
pecificada y luego usar esos valores muestrales para aproximar ciertas
probabilidades que seríamuy dificil obtcner con un cálculo matemático
directo. Por ejemplo, suponicndo queX tiene una distribución N ( 0 , l )
y queremos estudiar la variable alcatoria Y = .--'sen AT. ~ 1 especial,
1
supongamos que queremos calcular P ( 0 5 E '5 4).
A fin de obtener la
respuesta exacta, necesitamos encontrar G, la [da de Y y luego calcular
i)
G( - C(0). Encontraríamos mucha dificulml al hacer esto. Sin em-
bargo, podemos usar otro planteamiento, el cual sc basa en a l idea de
364 Muestras y distribuciones
muestrales 13.5

s i n d a r el experimento que da origenlaavariable aleatoriaY . Entonces


usamos la fkecuencia relativa como una aproximación ala probabilidad
huscada. Si esta frecuencia relativa se basa en un número de observa-
ciones sulicientenlente grande, la Icy de los grandes números justifica
nuestro procedimiento.
De manera específica supóngase que tenemos una muestra aleatoria
de la variable aleatoriaX anterior, cuya distribucicinestá completamente
especificada, X I , . . . ,-Yrl. Para cada X; definimos la variable aleatoria
E’ = e -xi scn S i . 1,ucgoevaluamos la frecuenciarelativa n , ~ / ndonde ,
n A es igual al núrnero devalores Y;,digamos y;, que satisfacen O 5 y; 5
i. Por tanto, n ~ / es n la fi-ecuencia relativa del evento O 5 Y 5 i, y si
n es grancle, esta frecuencia relativa estará LLcercana” a P [ O _< I.’ _< ;I,
segíin la ley de los grandes números.
Para aplicar el procedimiento anterior, debemos encontrar un medio
de “generar” una muestra aleatoriaXI, . . . ,X,, d e la variable aleatoria
cuya distribucicin es N ( 0 , l ) . Antes d e indicar cómo se hace esto, ex-
pongamos cn forma breve una distribución para la cual esta tarea ya
se ha realizado debido a la disponibilidad de tablas. Supóngase que X
est5 distribuida uniformemente e n el intervalo [O, 13. A fin de obtener
una muestra alcatoria para tal variable aleatoria, sólo necesitamos con-
sultar al Tiblu de números czleatom‘os (véase el Apéndice). Esas tablas se
han hecho de maneraque sean útiles para este propósito. Para usarlas,
sitnplernente sclcccionamos una ubicacicin a l azar en la tabla y luego ob-
tenemos nilmcros a lo largo d e filas o columnas. Si queremos usar esos
númcros tabulados para representar valores entre O y 1, sólo se necesita
poner u n punto decimal a l comienzo dcl númcro. Así, el número 4573,
tal como se listó, se usaría para representar el númcro 0.4573, etcétcra.
La disponibilidad de esas taldas d e nilmeros aleatorios hace que la
larca de obtener una muestra aleatoria de una distribuci6n arbitraria
sea relativamentesencilla debido a l resultado dcl teorema siguiente.

Teorema 13.6. Sca una variallle alcatoria con fdp f y fda F . [Se
supone que f ( z ) = O, z 6 ( a , b).] Sea E“ a
A Y

l variablealcatoria
definida porY = F ( S ) . I,uego, Y está distribuida uniformemente
en [O, 11. (Y se dcsigna como t)-un.sformncidnintegml d e X.)

Demostracidn: Puesto que X es una variable aleatoria continua, la fda


F es una función continua estrictamente monótona con u n a inversa
F-’. ES decir, E’ = F ( S ) puede resolversepara X ent@rminos d e
13.5 LAZ transformacwn
integral 365

Y : X = 3 " l ( Y ) (VCase la Fig. 13.3.) [Si F ( z ) = O para 2 5 a ,


definimos F-l(O) = a. De manera similar,si F ( z ) = 1 para z 2 b,
definimos F-'( 1) = b.]
Sea G la fda d e la variable aleatoriaY definida anteriormente. Enton-
ces,

Por tanto, la fdp de Y , g(y) = G'(y) = 1. Esto establece nuestro


resultado.

Obseroaciones: a) Comentemos brevemente cómo se observa en realidad el


valor de unavariable aleatoriaY . Observamos un1 valor de la variable aleatoria
X, digamos x, luego calculamos el valor de Y = F ( X ) como Y = F ( c ) donde
F es la fda conocidade X .
b ) El teorema 13.6 enunciado y demostrado anteriormente para variables
aleatorias continuas tambien es válido para variables aleatorias discretas. Hay
que hacer un pequeÍí0 cambio en la demostraci6n, puesto que la fda de una
variable aleatoria discreta es una función escalonada y no tiene una inversa
cínica.

I F"(y) FIGURA13.3

Podemos usar ahora el resultado anterior a fin de generar una mues-


tra al azar de una variable aleatoria con una distribución específica.
Consideraremos nuevamente sólo cl caso comtinuo. Sea X una variable
aleatoria continua con fda F d e la cual se pide una muestra. Sea y1 un
valor (entre O y 1) obtenido de unatabla de númerosaleatorios. Puesto
que Y = F ( X ) está distribuida uniformementeen [O, 11, podemos consi-
derar a y1 como una observaciónd e esa variable aleatoria. Resolviendo
la ecuación y1 = F ( q ) para 2 1 (lo que es posible si S es continua), ob-
tenemos un valor de unavariable aleatoriacuya fda es F . Continuando
este procedimiento con los números y2, - ,yn obtenidos d e una tabla
366 Muestras y distribuciones
muestrales 13.5

dc números alcatorios, tenemos r i , i = 1 , . . . ,17, con10 soluci6n d e l a


ccuación yi = F ( r ; ) y, por tanto, tenemos nuestros valorcs nluestralcs
requeridos.

EJEMPLO13.3. Supóngase q u e qucremos obtener una muestra de


tamaño cinco d e una variable alcatoria con distribucicin1Y(2,0.09) y su-
póngase que obtenemos los valores siguientes dc una tabla d e nilmeros
aleatorios 0.487, 0.722, 0.66 t . 0.194, 0.336. Definamos .r1 como sigue:

dt

De las tablas de la distribución normal encontramos que(rI - 2)/0.3 =


-0.03. Luego rl = (-0.03)(0.3) +
2 = 1.991. Este nilmerorepre-
senta nuestro primer valor de muestra de a l distribución especificada.
Continuando de la misma manera con los otros valorcs obtenemos los
siguientes valores adicionales de muestra: 2.177, 2.124, 1.742, 1.874.
El procedimientoanteriorpuedegeneralizarsecomosigue.Para
obtener u n valor d e muestra de la ciistribuci6n l ~ r ( p , 0 2 ) ,otmmemos un
valor muestra1 (entre 0y 1) de unatabla d e nilmeros alcatorios. El valor
pedido ”1’1está definido por la ccuacicin @((.cI - p ) / ~ = ) 711,

Observaciones: a ) Para generar muestras aleatoricasde una distribución espe-


cífica existen métodos alternativos al antes sngcrido. Véase el problema lf3.8.
b) Uno d e los aspectos que hace iltil este planteamiento d e “simuhci6n”
es la posibilidad de tener u n a rn11esu-a aleatoria muy g r m z d t . Esto es posible,
especialmente, si se dispone de un computador electrónico.

EJEMPLO13.4. El cmpl!je 1 d e un pr0puls01- sGlitlo d e u n sistcma


d e cohetes es una función muy complicada de un ninnero de variables.
Si S = área de la garganta, E’ = factor dc la tasa de encendido, Z =
área donde se quema el propulsor sólido, IT” = dcnsidad del propulsor
sólido, n = coeficiente de encendido y C‘; = constantc, i = 1 , 2 , 3 ,
podemos expresar T como sigue:

” I___ ”_._ .. ” “.l.”-..l


13.5 La transfonnacidn
integral 367

En investigacionesanteriores se han hecho hipótesisplausibles: S , E’, TV


y 2 son variables aleatorias independientes distribuidas normalmente
conmedias y varianzasconocidas. Cualquierintentoparaobtener
la distribución d e probabilidades d e la variable aleatoria T o aun dc
expresiones exactas para E ( T ) y V ( T )fracasará debido a la relación
compleja entre X, Y , W , 2 y T .
Si pudiéramos generar una muestra aleatoria (grande) de X , E’, 2
y W , por ejemplo obtener 4-tuplas (*Y;, Y,, 2;) W ; ) , podríamos luego
generar una gran muestra de T , llamémosla ( T I ) .. . ,Tn) e intentar
estudiar en forma empírica las características d e la variable aleatoria T
(en términos de la muestra). Supóngase, por ejemplo, que deseamos
calcular P ( u 5 T 5 b ) . Para aplicar la ley de los grandes números,
simplemente necesitamos obtener la frecuencia relativa del evento{ u 5
T < - b} de nuestra muestra (grande), y luego poder tener una certeza
razonable de que la frecuencia relativa se diferencia muy poco de la
probabilidad teórica que se está buscando.
Hasta ahora nos hemos interesado sólo en el problema de aproximar
una probabilidad exacta con una frecuencia relativa basadaen un gran
número deobservaciones. Sin embargo, el rrlétodo que hemos sugerido
puede usarse para obtener soluciones aproximadas d e problemas que
son d e naturaleza completamente no probabilística. Indicaremos sólo
uno de los muchos tipos de problemas que pueden considerarse de
esta manera. El planteamiento general se designa como el método de
“Monte-Carlo”. Una descripción muy adecuadade este mCtodo aparece
en Modern Mathemutics for the Engineer, de E. F. Beckenbach, publicado
por McCraw-Hill Book Co., Inc.,Nueva York, 1956, capítulo 12. El
ejemplo 13.5 se obtuvo d e este libro.

EJEMPLO13.5. Supóngase que deseamos;calcular la integral x dx


sin recurrir a los procedimientos triviales para obtener su valor 2.
1
Se procedecomose indica.Se obtiene, de una tabla denúmeros
aleatorios, una muestra aleatoria de la variablealeatoriadistribuida
uniformemente en [O, 11. Supóngase que los valoresmuestralesson
0.69, 0.37, 0.39, 0.97, 0.66,0.51,0.60, 0.41, 0.76 y 0.09. Puesto
que la integral requerida representa a E ( X ) , donde X es la variable
aleatoria uniformemente distribuida que se ~muestrea, parece razonable
que podamos aproximar E ( X ) usando el promedio aritmético d e los
valores muestrales.Encontramosque y = 0.5-15. (Si hubiésemos
tomado una muestra mayor, tendríamos una buena razón para esperar
una exactitud mayor.)
368 Muestras y distribuciones muestrales

Esta ilustracióntrivialindica la idea bAsica quesustentamuchos


métodos d e Monte-Carlo. Estos métodos han sido usados con &;to
para evaluar integrales múltiples sobre ciertas regiones complicadas y
resolver algunas ecuaciones diferenciales.

Observacidn: Los medios para obtener muestras d e una distribución arbi-


traria como se describió en la sección 13.5 pueden llegar a ser complicados.
Debido a la gran importancia d e la distribución normal, existen tablas dispo-
nibles (véase la tabla 7 en el Apéndice) que eliminan en gran partelos cblculos
antes descritos. L a tabla 7 proporciona, directamente, muestras de la distri-
bución N ( 0 , l ) . Estos valores muestrales se llaman desviaciones normales. Si se
necesitan n valores muestrales 2 1 . . . , x , d e la distribución N ( 0 , l),se toman en
forma directa de la tabla 7 (escogiendo el punto de partida de alguna manera
aleatoria adecuada, como se describii, para el uso de la tabla d e los nlimeros
aleatorios).
De una manerasencilla, también puede usarse estatabla para obtenermues-
tras de unadistribución normal arbitraria N ( p ,g 2 ) .Simplemente se multiplica
z;, el valor escogido d e la tabla, por (T y luego se le suma p. Es decir, se forma
y; = az; + p . Entonces yi, será un valor muestral d e la distribución pedida.

PROBLEMAS
13.l . Deducir la expresión para la fdp del mínimo de unamuestra. (Véase
el Teorema 13.2.)
13.2. Demostrar que si X I , . . . , X , son variables aleatorias independien-
tes, cada una de las cuales con distribución exponencial con parámetro a;,
i = 1 , 2 , . . . , n y si K = mín(X1,. . . , X,), entonces K tiene una distribución
+ +
exponencial con parámetro CUI . . . a,. (Véase el Teorema 13.3.)
13.3. Supóngase que X tiene una distribución geométrica con parámetro
p . Sea X I , . . . , X , una muestra aleatoria d e X y sea M = máx(X1,. . . ,X,) y
Ii' = mín(X1,. . . , X,). Encontrar la distribución d e probabilidades d e M y de
IC. [Indicacidn: P ( M = m ) = F ( m ) - F ( m - l), donde F es la fda d e M . ]
13.4. Se obtiene una muestra d e tamaño 5 de una variable aleatoria con
distribución N(12,4).
a) ¿Cuál es la probabilidad de que el promedio muestral exceda 13?
b ) ¿Cuál es la probabilidad de queel mínimo d e la muestra sea menor que
1O?
c) ?Cuál es la probabilidad de queel máximo de la muestra exceda 15?
13.5. La duración de un articulo (en horas) está distribuida exponencial-
menteconparámetro = 0.001. Se prueban seis artículos y se anotan los
tiempos en que ocurrenlas fallas.
Problemas 369

a) {Cuál es la probabilidad de que ningún artículofalle antes de quehayan


transcurrido 800 horas?
b ) {Cuál esla probabilidad de que ningún
artículo dure más d e 3000 horas?

13.6. Supóngase que X tiene distribución N(O,O.O9). Se obtiene una mues-


tra d e tamaño 25 d e X , sea X I , . . . , X 2 5 . ?Cud es la probabilidad de que
x:zl X: exceda 1.5?

13.7. Utilizando una tabla d e números alea.torios, obtener una muestra


aleatoria d e tamalio 8 de una variable aleatoria que tiene las distribuciones
siguientes:

a) exponencial, con parámetro 2,


b ) x-cuadrada con 7 grados de libertad,
C) N(414).

13.8. En la sección 13.5 se estudi6 un método con el cual puede generar-


se una muestra aleatoria de una distribución especificada. Hay muchos otros
métodos con los que puede hacerse esto, alguno!; de los cuales pueden prefe-
rirse al mencionado, particularmente si hay instrumentos d e cómputo disponi-
bles. El siguiente es uno de dichos métodos. Supóngase que se desea obtener
una muestra aleatoria de una variable aleatoria que tiene una distribución x-
cuadrada con 2 k grados de libertad. Se procede como sigue: se obtiene una
muestra aleatoria d e tamalio k (con ayuda de una tabla d e números aleato-
rios) de una variable aleatoria que está distribuida uniformemente en (O, l),
sea ~ 1 ,, .., U k . Luego se calcula X I = - 2 l n ( ~ 1 ~ 2.un>
. . = -2x:=, ln(U;).
La variable aleatoria X 1 tendrá entoncesla distribución pedida como seindica
enseguida. Luego, continuando con este esquem.a, se obtiene otra muestrad e
tamaño k de unavariable aleatoria distribuida uniformemente y se encuentra
así el segundo valor muestra1 X2. Nótese que este procedimiento necesita k
observaciones de una variable aleatoria distribuilda uniformemente para cada
observación de x i k . Para verificar l a proposición. que sehizo antes se procede
como sigue.

a ) Obtener la función generadora d e momentos d e la variable aleatoria


-2 ln(U;), donde U; esté distribuida uniformementeen (O, 1).
b ) Obtener la función generadora d e momentos d e la variable aleatoria
-2 x;"=, ln(U;), donde las U; sean variables aleatorias independientes cada
una con la distribución anterior. Se compara es8tafgm con l a distribución x-
cuadrada y luego se obtienela conclusión buscadh.

13.9. Usando el esquema bosquejado en el problema 13.8. obtener una


muestra aleatoria d e tamaño 3 de la distribución xi.
370 Muestras y distribuciones muestrales

13.10. Una variable aleatoria continuaX está distribuida uniformemente en


(-;,;). S_” obtiene una muestra de tamaño n d e X y se calcula el promedio
muestral X. ¿CuAl es la desviación estándar d e y?
13.11. De una variable aleatoria distribuida normalmente con esperanza20
y varianza 3 se toman muestras independientes d e tamaño 10 y 15. ?Cuál es
In probabilidad de queel promedio d e las dos muestras se diferencie(en valor
absoluto) en más de 0.3?
13.12. (Para esteejercicio y los tres siguientes, leerla observación al final del
capítulo 13.) Con ayuda de l a tabla d e las desviaciones normales (Tabla 7 del
Apéndice) obtener una muestra d e tamaño 30 de unavariable aleatoria X que
tiene una distribuciónN ( 1, 4). Usar esta muestra para responderlo siguiente:
Comparar P ( X >_ 2) con la frecuencia relativa de ese evento.
a)
b ) Comparar el promedio muestral X y la varianza muestral S’ con 1 y 4,
respectivamente.
c) Construir una gráfica d e F ( t ) = P(X 5 t ) . Usando el mismo sistema de
coordenadas, obtenerla gráfica de la función de distribucwn empírica F, definida
como sigue:

donde X(2) es la i-ésima mayor observación en la muestra (es decir, X(;) es


el estadístico d e i-ésimo orden). [La funci6n F, se usa frecuentemente para
aproximar la fda F . Puede demostrarse que e n condiciones muy generales
F,(t) = F(t).]
13.13. Tenga X una distribución N ( 0 , l ) . De la tabla 7 del Apéndice obtener
una muestra d e tamaño 20 para esta distribucibn. Sea Y = I X I .
a ) Usar esta muestra para comparar P[1 < Y 5 21 con la frecuencia relativa
de ese evento.
b ) Comparar E ( Y ) con el promedio muestral y.
c) Comparar la fda d e Y , F ( t ) = P ( Y 5 t ) , con Fn,la fda empírica d e Y .

13.14. Supóngase que X tiene distribución N(2,9). Sea X I , . . . , X20 una


muestra aleatoria de X obtenida con ayuda d e la tabla 7. Calcular

l n
s2- -y(& - r?)2
n-1
i= 1
y comparar con E(S’) = 9.
13.15 Tenga X unadistribución N(0,l). Slea X I , . . . ,X30 una muestra
aleatoria d e X obtenida usando la tabla 7. Calcular P ( X 2 2 0.10) y comparar
este valor con la frecuencia relativa de ese evento.
14.1 Introducción

En el capítulo anterior sugerimos que una muestra de unavariable alea-


toria X puede usarse con el propósito de estimar unoo varios paráme-
tros (desconocidos) asociados con la distribución d e probabilidades d e
X. En este capítulo consideraremos en detalle este problema.
A fin d e desarrollar un ejemplo específico, tomemos en cuenta la si-
tuación siguiente. Un fabricante nos ha enviado 100 O00 pequeños re-
maches. Un empalme perfectamente remachado necesita que cada re-
mache ajuste con exactitud en un hueco y, por consiguiente, se tendrá
cierta dificultad cuando el remache lo exceda. Antes de aceptar este
cargamento queremos tener una idea acerca d e la magnitud de p , la
proporción d e remaches dercctuosos (es decir, los qne exceden el hue-
co), para lo cual procedemos como sigue. Sc: inspeccionan n remaches
del lote escogidos al azar. Debido al gran tamalio del lote, podemos
suponer que escogemos con sustitución aunque realmente no procede-
ríamos así. Se definen las siguientes variab1;:s aleatorias: Xi = 1 , si el
i-ésimo artículo es defectuoso, y O en cualquier otrocaso i = 1 , 2 , . . . ,n.
Por lo tanto, podemos considerar que S I , . . . ,S,, sea una muestra d e
374 Estimacih de pardmetros 14.2

la variable aleatoria X , cuya distribución está dada por P ( S = 1 = p,


P(X=O)=l-p.
La distribución d e probabilidades d e X depende del parámetrodes-
conocido p de una manera muy sencilla. <Podemos usar la muestra
X I , . . . ,X, de alguna manera con el objeto de estimar el valor d e p ?
CI-Iay algún estadístico 11 tal que H ( X 1 , . . . , X , ) pueda usarse como un
estimador (puntual) dep ?
Debería ser evidente que una muestra de tamaño n, donde n <
100 000, nunca puede permitirnos reconstruir la verdadera composi-
ción del cargamento, sin importar cuán hábilmente usemosla informa-
ción obtenida d e la muestra. En otras palabras, a no ser queinspeccio-
nemos cada uno delos artículos (es decir, tomemos n = lOOOOO), nunca
podremos conocer el valor verdadero dep. (Esta illtima frasese refiere
evidentemente al muestre0 sin sustitución.)
A s í , cuando proponemos a p como un estimado d e p, en realidad no
esperamos queI; sea iguala p. (Recordemos quees una variable aleatoria
y, por tanto, puede tomar muchos valores.) Este dilema da origena dos
preguntas importantes:
1) ¿Qué características queremos que posea un “buen” estimado?
2) <Cómo decidimos que un estimado es “mejor” que otro?
Puesto que ésta puede ser la primera vez que el lector encuentrepre-
guntas deesta clase, vale la pena comentar brevementela naturaleza ge-
neral de este problema. Para muchas preguntas matemáticas existe una
respuesta definida. ÉSta puede ser muydificil de encontrar, puesto que
implica diversos problemas técnicos y podríamos tener que contentar-
nos con una aproximación. Con todo, normalmente es evidente cuándo
tenemos una respuestay cuándo no. (Por ejemplo, supongamos que nos
+
piden encontrar una raíz real de la ecuación 3z5 - 422 132 - 7 = O.
Una vez que hemos encontrado una solución,es muy sencillo verificar
si es l a correcta: sólo necesitamos sustituirla en la ecuación dada. Si te-
nemos dos respuestas aproximadas, T I y m, es también sencillo decidir
cuál aproximación es mejor.)
Sin embargo, el problema actual, en particular la estimación de p ,
no admite un análisis tan sencillo. En primer lugar, puesto que nunca
podemos conocer el valor verdadero de p (en cualquier situación real
al menos), no tiene sentido decir que nuestro estimado I; es “correcto”.
Segundo, si tenemos dos estimados d e p , llamémoslos I;l y $2, debemos
encontrar algún medio para decidir cuál es “mejor”. Esto significa que
debemos cstablccer algunos criterios que podamos aplicar para decidir
si un estimado es preferible a otro.
14.2 estimados para Criterios 3 75

14.2 Criterios para estimados

Definiremos ahora algunos conceptos importantes que nos ayudarAn a


resolver el problema antes sugerido.

Definición. Sea X‘ una variable aleatoria con una distribución de


probabilidades que depende de un par;lmetro desconocido O. Sea
3 - 1 , . . . ,*YjLuna muestra de X y sean 21,.. . , E los
~ valores mues-
trales correspondientes. Si g(X1,. . . ,X,) es una [unción de l a
muestra que se usará para estimar O nos referimos a g como un
estimudor de O. El valor que toma g, les decir g ( X 1 , . . . , S , , ) , se
conoce como un estimado de O y habitualmente se escribe como
O = g(r1,. . . ,x,). (Véase la Observación siguiente.)

Obsenucwn: En este capítulo violaremos una regla que hemos observado


con mucho cuidado hasta ahora: hacer una distinción minuciosa entre una
variable aleatoria y su valor. Es decir, a menudo ‘hablaremos d e S , el estimado
d e O, cuando en realidad deberíamos hablar del estimador g ( X 1 , .. . ,X,).
También escribiremos E ( 8 ) cuando, realmente indicamos E[g(XI,. . . , X n ) ] .
Sin embargo,elcontextoen el cual nos permitimos esta libertaddebería
eliminar cualquier ambigüedad posible.

Definición. Sea O un estimado del parárnletro desconocido 0 asocia-


d o con la distribución d e la variable aleatoria X. Entonces, 6 es
un estimador insesgado ( o estimado insesgado; véase la Observación
anterior) para O si E ( B ) = O para toda O.

Obse?vucidn: Cualquier buen estimado debería. estar “cercano” al valor que


está estimando. “Insesgadura”significa principalmente que elvalor promedio
del estimado estará cercano alvalor verdadero dcl parámetro. Porejemplo, si
el mismo estimado se usa una y otra vez y promediamos esos valores, espera-
ríamos que el promedio estuviera cercano al valor verdadero del parámetro.
Aunque es dcseable que un estimado sea insesgado, puede haber ocasiones
en las cuales podríamos preferir estimados sesgados (véase más adelante). Es
posible (y realmente fácil) encontrar más de un estimado insesgado para u n
parámetro desconocido. A fin d e hacer una buena elección en talcs casos pre-
sentamos el concepto siguiente.

Definición. Sea O un estimado insesgado de O. Decimos que 6 es u n


eslinzndo insesgado de vnrianm mínima de O si para todos los estimados
376 Estimacidn de pardmetros 14.2

U* tales que E ( u * )= O, tenemos v ( U ) 5 v(u*)


para cualquier B. ES
decir, entre todos los estimados insesgados de U, 6 tiene la varianza
m,is pequeña.

FIGURA
14.1 FIGURA
14.2
Obseruaciones: u) La varianza de una variable aleatoria mide la varia-
bilidad de la variable aleatoria respecto a s u valor esperado. Por tanto,
es intuitivamcnte atractivo pedir que un estimado insesgado tenga una
varianza pequefia, pues si la varianza es pequeíía, entonces el valor d e
la variable aleatoria tiende a estar cerca d e s u promedio, lo cual, en el
caso de un estimado insesgado significa aproximarse a l valor verdade-
ro del pat-ámetro. Luego, si b1 y U2 son dos estimados de O, cuya fdp
está bosquejada en la figura 14.1, posiblemente preferiríamos U1 a 0 3 .
Ambos estimados son insesgados y I/(&) < V(U2).
En el caso de los estimados 0 3 y 6 4 , la decisión no es tan evidente
(Fig. 14.2) ya que U3 es insesgada,mientras que b4 no io es. Sin
embargo, I/(&) > V ( 8 4 ) . Esto significa que mientras en promedio U3
estar5 cercanaa U, su mayor varianza indicaque no serían sorprendentes
desviaciones considerablesd e B. Por otra parte, en promedio 64 tendería
a ser algo mayorque O y podría estar a ú n más cercana a U que 63, (\&m
la Fig. 14.2).
b ) Existentécnicas generales para encontrar estimados insesgados
d e varianzamínima. Sin embargo,nopodremospresentarlas aquí.
I-Iaremos uso d e este concepto principalmente con el objeto d e elegir
entre dos o más estimados insesgados disponibles. Es decir, si y 9 son
estimados insesgados de U, y si V(61) < I/(&), preferiríamos U .
l

Otro criterio para discernir entre estirnados es algo más dificil d e


formular y se basa en la siguiente definici6n.

Definición. Sea 4 un estimado (con base en una muestra S I , . . . ,


S,,) del parámetro U. Se dice que e s u n estimado consistente de
U. si
14.2 Criterios para estimados 377

lím Prob
n+cc [I^O O I > 1
- E =O para toda 6 >O
o equivalente, si

lím Prob
c
7L‘ [I-O O I 5 1
- E = 1 para toda E >O
Obseruacwnes: a ) Esta definición establece que un estimado es consistente
si, cuando aumenta el tamaiio R. de muestra el. estimado 0 converge en el
sentido probabilístico anterior a B. Nuevamente, ksta es una característica
intuitivamente atractivaque debeposeer un estimado, pues afirmaque cuando
aumenta el tamaño d e muestra (lo que significaría, en circunstanciasmuy
razonables, que se dispone d e m& información), el estimado llega a ser “mejor”
en el sentido indicado.
b ) Es relativamente fácil verificar si un estimado es insesgadoo no. También
es muy elemental comparar a ls varianzas de dos estimados insesgados. Sin
embargo, verificar la convergencia aplicando la definición anterior no es t m
sencillo. El teorema siguiente es muy útil algunas veces.

e
Teorema 14.1. Sea un estimado de O con base en una muestra de
tamaño n. Si límn+cc E(B)= U, y si V ( 0 ) = O, entonces U
es un estimado consistented e O.

Demostración: Usarcmos l a desigualdadde Chcbyshcv,ecuación


(7.20). Así, escribimos:

Por lo tanto, haciendo quen y utilizandlo la hipótesis del teorema,


[lti I 1
--f 00

encontramos que lírnn+W P - O 2 c 5 10 y así igualamos a O.

Observación: Si el estimado 8 es insesgado, la primera condición se satisface


automáticamente.
os de 378 Estimacidn 14.3

Un criterio final que se aplica a menudo a estimados puede formu-


larse como sigue. Suponer que X I , . . . , S n es una muestra deX y O es
un parámetro desconocido. Sea O una función d e ( X I , . . . ,X,).

Definición. Decimos que 6 es el mejor estimado lineal insesgado d e O si:


u ) E ( @ = o.
b ) 8 = Cy=Ia i X i . Es decir, 8 es una fünción lineal d e la muestra.
c) V ( 6 ) 5 V(B*)donde O* es cualquier otro estimado de O que
satisface las relaciones a ) y b) anteriores.

Posteriormente consideraremos un método muy general que nos da-


r i buenos estimados para un gran número de problemas, dado que
satisfarán uno o más d e los criterios anteriores. Antes d e hacer esto,
consideraremos sencillamente algunos estimados que de manera intui-
tiva son muy razonables, y luego verificaremos, mediante los criterios
anteriores cuán buenoso cuán malos son.

14.3 Algunos ejemplos

Los criterios anteriores d e insesgadura, varianza mínima, consistencia


y linealilidad nos dan al menos una pauta para juzgar un estimado.
Consideremos ahora algunos ejemplos.

EJEMPLO14.1. Reconsideremos el problema anterior. Hemos mues-


treado 71 1-emaches y cncontrado que la muestra (-Y1,. . . , S , ) produce
exactamente k dcfcctuosos; es decir, Y = A-; = k . Debidoa nues-
tras hipótesis, E’ es una variable aleatoria distribuida binomialmente.
El estimado intuitivamentemás sugestivodel parámctrop cs I; = Y/n,
la proporci6n d e defectuosos encontrados en la muestra. Apliquemos
algunos d e los criterios anteriores para ver cuán bueno es un estimado
6

E($) = E
(t)
-
1
= “(np) = p .
n

hi,$ es un estilnado insesgado d e p .


14.3 Algunos ejemplos 379

Luego V ( p )"+O cuando n -+ 00 y, por tanto, fj es un estimado consis-


tente. Como señalamos antes, puede haber muchos estimados insesga-
dos para un parámetro, algunos de los cuales, además, pueden ser muy
malos. Por ejemplo, considérese, en el contexto del presente caso, el
estimado p* definido como sigue: p* = 1 si el primer artículo elegido
es defectuoso, y O en cualquier otro caso. Es; decir, es evidente que no
es muy buen estimado cuando observamos quesu valor es una función
sólo d e X I , en vez d e X I , . . . ,X n . Sin embargo,p* es insesgado porque
+
E @ ) = 1 P ( X = 1) O P ( X = O ) = p . La varianza d e p* es p ( l - p ) ,
la que se compara muy malcon la varianza d'e p antes considerada, esto
es p ( l - p ) / 7 2 , cn especial si n es grande.

El resultado obtenido en el ejemplo anterior


es un caso especial d e la
siguiente proposición general.

Teorema 14.2. Sea X una variablealeatoriaconesperanzafinita


p y varianza a 2 . Sea f? el promedio muestral obtenido en una
muestra de tamañon. Por lo tanto, X es un estimado insesgadoy
consistente d e p .

Demostrución: Ésta se deduce inmediatamente del teorema13.1, don-


de demostramos que ,?(y) = 11 y V ( f ? )= o í ! / nque tiende a O cuando
n "+ OO.
Obsemacwn: Que el resultado demostrado en el ejemplo 14.1 es un caso
especial del teorema 14.2, se deduce cuandoobse~rvamosque la proporción d e
+ +
dcfcctuosos en la muestra, Y / n , puede escribirse como ( l / n ) ( X ~ . . . X n ) ,
dondea ls X1 toman los valores uno y cero, según que el articulo inspeccionado
sea o no dcfcctuoso.

El promedio muestral citado en el teorema 14.2 es una función lineal


d e la nlucstra. Es decir, es d e la forma a l X l + ~ 2 x 2 + + a n X n , con
a l = ... = a n = l / n . FAcilmente se observa que = a ; X ; es
un estimado insesgado dep para cualquier elección d e los coeficientes
que satisfacen la condición Cy=la ; = 1. Surge la siguiente pregunta
interesante.¿Paraqué elecci6n d e las a ; (sujetas a u; = 1) es
más pequefia la varianza de n ; X ; ? Resulta que la varianza es
minimizada si a ; = l / n paratoda i. Es decir,es el estimadolineal
insesgado d e varianza mínima.
380 Estimacidn de partimetros 14.3

Para verificar esto, consideremos

/2 = xn

i=l
a;&,
n

d= 1
a; = 1.

Luego,

i=l
puesto que las X ; son variables aleatorias independientes con varianza
común a2. Escribimos

Por lo tanto, esta expresi6n es minimizada obviamente si a; = l / n


para toda i.

EJEMPLO14.2. Sup6ngase que T,el tiempo para que ocurra una


falla de un componente, est6 distribuida exponencialmente. Es decir, la
fdp de T est6 dada por f ( t ) = Pe-P', t 2 O . Sup6ngase que probamos
n componentes, anotando el momento en quefalla cada uno, digamos
TI, . ..,Tn.Deseamos u n estimado insesgado del tiempo esperado para
que ocurrala falla E(T)= l/P, con baseen la muestra (TI,. . . ,Tn). Uno
d e talesestimadoses T = (l/n) Ti. Del teorema 14.2 sabemos
que E ( T ) = l/P. Puesto que V ( T ) = l/p2, elteorema 13.1 nos
afirma que V ( T ) = l/P2n. Sin embargo, T no es el Único estimado
insesgado d e l/p. Consideremos, en efecto, el mínimo d e la muestra,
Z = mín(T1,. .. ,Tn).De acuerdo con el teorema 13.3, d e nuevo 2 está
distribuida exponencialmente con parime{ro np. Luego, el estimado
nZ tambikn es un estimado insesgado del/P.

Para evaluar la varianza calculamos

V(n2)= n 2 V ( 2 )= n2 -
1 - --1
@PI2 - P2
14.3 ejemplos Algunos 38 1

Así, aunque los dos estimados nZ y T , son imesgados, el último tiene


una varianza más pequeña y, por tanto, debería preferirse.
Sin embargo, en esta situación especial hay otra consideración que
podría influir en nuestra elección entre los dos estimados sugeridos.
Los n componentes podrían probarse simult5neamente. (Por ejemplo,
podríamos poner n bombillas en n portalámparas y anotar el tiempo en
que se queman.) Cuando usamos n Z como estimado, la prueba puede
terminarse tan pronto como el primer componente falle. Al usar T
como estimado debemos esperar hasta que todos los componentes hayan
fallado. Es muy posible que transcurra mucho tiempo entre la primera y
la última falla. Diciéndolode manera distinta,si L es el tiempo necesario
para probar lo n artículos y calculamos el estimado para l/P, entonces,
usando n Z , tenemos L = min(T1,. . . ,T ~ )mientras
, que al usar T ,
tenemos L = máx(T1,. . . ,Tn). Luego, si el tiempo necesario para
efectuar la prueba es de cualquier efecto serio (digamos, en términos
de costo), podríamos preferir el estimado con mayor varianza.

EJEMPLO14.3. Supóngaseque deseamlos unestimadoinsesgado


de la varianza cr2 de una variable aleatoria, con base en una muestra
XI,. . . , X n .
Aunque podríamos considerar( l / n ) Cr=ll(X;-X)2,resulta que este
estadísticotiene un valor esperado igual a [ ( n- l)/n]a2. (Véaseel
Teorema 13.4.) Por lo tanto, un estimado i~nsesgado d e cr2 se obtiene
al tomar

l n
- -C ( X 2 - X ) 2 .
b2 -
"

n-l.
:=1

Obseluacwnes: a) Aunque dividir entre ( n - 1) e n ves d e n es distinto cuan-


do n es relativamente pequeña, para una n grande la diferencia es pequeña
cualquiera que sea el estimadoque se use.
6) El ejemplo 14.3 ilustra una situaci6n muy común: puede suceder que un
b
estimado de un parhmetro ,B,sea sesgado en el sentido E(& = k,B; en tal
caso, consideramos simplementeal nuevo estimadop / k , que serA insesgado.
c) Puede demostrarse, aunque no lo haremos aquí, elque estimado anterior
d e u2es consistente.

EJEMPLO14.4. En la tabla 14.1 reproducimos los datosobteni-


dos en el famoso experimento realizado po:r Rutherford [Rutherford
s de 382 Estimación 14.3

y Geiger, Phil. Mag. S6, 20, 698 (1910)l sobre la emisión de partículas
a por una fuente radiactiva. En la tabla, k es el número de partículas

TABLA14.1

k O 1 2 3 4 9 81 071 16T o5 t a l

nk 383
203 57 532 525 139
273 408 49 ' 27 10 6 2612

observadas en una unidad de tiempo (unidad = minuto), mientras que


n k es el número deintervalos en los que k partículas fueron observadas.
Si hacemos que X sea el número de partículas emitidas durante el
intervalo de tiempo de (minuto) de duración, y suponemos que X
sigue la distribución d e Poisson, tenemos

Puestoque E ( X ) = i X , podemosusar el promediomuestralpara


obtener un estimado insesgado de i X . Para X, obtenemos entonces el
estimado = SX.
Para calcular X , simplemente evaluamos

Por tanto, un estimado insesgado d e X con baseen el promedio muestral


es igual a 30.96 (que puede interpretarse comoel número esperado de
partículas emitidas por minuto).

EJEMPLO14.5. En la fabricación de explosivos puede ocurrir cierto


número deinflamaciones al azar. Sea X el número deinflamaciones por
día, suponiendo que X tiene una distribuciónd e Poisson conparámetro
X. La tabla 14.2 da algunos datos que se van
a emplear parala estimación
d e X.
TABLA14.2

Número de idamaciones, k O 1 2 3 4 6 5Total


Númerodedías conk inflamaciones, n k 75 90 54 22 2 6I 250
14.3 Algunos ejemplos 383

Usando nuevamente el promedio muestrial para el estimado de X,


obtenemos

x= ‘li
Ck
Icnk = 1.22 número de inflamaciones por día.
nk

EJEMPLO14.6. Se ha establecido que el contenido de ceniza en el


carb6n est& distribuido normalmente con parsmetrosp y u 2 . Los datos
de la tabla 14.3 representan el contenido de ceniza en 250 muestras
de carbdnanalizadas.[Datosobtenidos de E. S. Grummel y A. C.
Dunningham (1930); BritishStandardsInstitution 403,17.1 nx esel
número de muestras 4ue tienen un porcentaje x de ceniza.

A fin de calcular los parsmetros p y u’, usaremos los estimados


insesgados presentados antes:

j-j= E x xnx = 16.998, -2


O
1 E n z ( . - fi) 2 = 7.1.
=-
249 250 x

TABLA14.3
Contenido de ceniza en el carb6n 1I
X 9.25 9.75 10.25 10.75
nx 1 O 2 1
X 14.25 14.75 15.75 15.25
nx I 13 I 14 I 15 I 13
X I 19.25 I 19.75 I 20.25 I 20.75
nx 1 1 2 1 7 1 6 1 8
X I 24.25 I 24.75 I 25.25 I
nr 1 0 1 0 1 1 1
Total I I I I
de muestras I 250 I I I

Obseruacidn: Supdngase que tenemos un estimado insesgado 8, digamos, de


un parAmetro 8. Puede suceder que estemos interesados sólo en estimar una
funci6n g(8) de 8. [Por ejemplo, si X está distribuida exponencialmente con pa-
rámetro 8, posiblemente estaremos interesados en l/8, es decir,E ( X ) ] .Debería
suponerse que todo lo que necesitamos hacer es considerar l/e o por ejem-
plo, comoel estimado insesgado apropiado de l/8 IO(S)2. Categbricamenteesto
no es así. En realidad, una de las desventajas del clriterio de insesgadura es que
si hemos encontrado un estimado insesgado de 8, en general debemos partir
del principio para encontrar un estimado para g(8). S610 si g(8) = a8 + b, es
304 Estimación de parámetros 14.4

decir, si g cs una Funci6n lineal d e O, es cierto que E[g(e)] = g[E(e^)]. En general,


E[g(e^)] # g[E(e)]. Supóngase, por ejemplo, que X es una variable aleatoria con
E ( X ) = p y V ( X )= u2. Hemos visto que el promediomuestra1 es un estima-
d o d einsesgado d e p . ?Es y2un estimado insesgado d e ( P ) ~ ?La respuesta es
“no”,como lo indica el cálculo siguiente. Puesto que V ( T )= E ( X ) 2- ( E ( X ) ) 2 ,
tenemos

Aunque los ejemplos anteriores demuestran e n Forma convincente que en


general

resulta que enmuchos casos la igualdad es válida, aproximadamente al menos,


e n especial si el tamaiio d e muestra es grande. A s í , en el ejemplo anterior
+
encontramos que E(X) = p y E(;~T)’ = p2 u 2 / n , [con = F y g(z) = z21,
que es aproximadamente igual a p2si n es grande.

14.4 Estimados de máxima verosimilitud

Sólo hemos considerado ciertos criterios con los cuales podemos juzgar
u n estimado. Es decir, dado un estimado propuesto para un par5metro
desconocido, podemos verificarsi es insesgado y consistente, y podemos
calcular (al menosen principio) su varianza y compararla con l a varianza
de otro estimado. Sin embargo, no tenemos aún un procedimiento
general con el cual podamos encontrar estimados “razonables”. Existen
diversos procedimientos d e los cuales expondremos uno, llamado el
método de la máxima verosimilitud. En muchos casos este método da
estimados razonables.
A fin d e evitar la repetición de nuestra exposición para el caso dis-
creto y el continuo, convengamos en la terminología siguiente para los
propósitos d e la exposición presente.
Escribiremos f(x;13)tanto parala fdp deX (evaluada enx) como para
P ( X = x) si X es discreta. Incluimos 6 (en la notación) para recordar
que la distribución de probabilidades Xdedepende del parámetro0 en
el cual estamos interesados.
Sea X1 7 . . . X , una muestra aleatoria ladevariable aleatoriaA’ y sean
x1,. . . ,2 , los valores muestrales. Definamos la función de verosimilitud L
como la siguiente función dela muestra y de 0.
14.4 Estimados de máxima verosimilitud 385

Si X es discreta, L(z1,. .., x n ;S) representa p[X1 = 2 1 , . . . ,X , =


x,], mientras que si X es continua, L(x1,. . . ,X,; e) representa la fdp
conjunta de( X I , .. . ,Xn).
Si se ha obtenido la muestra ( X I , . . . ,X,,), los valores muestrales
( q , . . . ,x%) son conocidos. Puestoque 8 es desconocida, podríamos ha-
cernos la siguiente pregunta. <Para que valor de 0 ser5 mayor L(z1,. . .
,x,; O)? En otras palabras, supongamos que tenemos dos valores de 8,
sean 81 y O2 y que L(z1,. . . ,x,; 01) < L ( z l , , .. , x n ;02). Preferiríamos
entonces 192 a 81 para los valores muestrales dudos ( X I ,. . . ,x,). Porque
si 132 es realmente el valor verdadero de8, entonces la probabilidad de
obtener valores muestrales como los que teníamos es mayor que si 81
h e s e el valor verdadero de O. Informalmente, preferimos el valor del
par5metro que hace tan probable como sea ]posible ese evento que en
realidad ocurrió. Es decir, deseamos elegir el valor más probable de
6' después de obtener los datos, suponiendo que cada valor de e fuese
igualmente posible antes que los datos fuesen obtenidos. Hagamos la
siguiente definición formal.

Definición. El estimado d e máxima verosimilitud de O, digamos 8, con


base en una muestra aleatoria X I , . . . ,X,, es el valor d e 6' que
maximiza a L(X1,. .. ,X,; e), considerado como una función de
0 para una muestra dada X I , . . . ,X,, donde L esti definida porla
ecuaci6n (14.1). (Éste habitualmente se designa como el estimado
M L.)

Observaciones: a ) Por supuesto, 8 será un estadísticoy, por tmto, una variable


aleatoria, puesto que su valor dependerá de la muestra ( X I , .. . ,X,). (No
consideraremos como soluci6nuna constante.)
b) En la mayor parte de nuestros ejemplos, I9 representará un solo número
real. Sin embargo, puede suceder que la distribución de probabilidades de X
dependa de dos o m6s valores paramCtricos (cornlo se hace en la distribuci6n
normal, por ejemplo). En tal caso, I9 puede repres'entar un vector, 0 = ((Y,p) o
6=(~,P,Y ),
etc.
c ) A fin de encontrar el estimado ML debemos determinar elvalor m5ximo
de una hncibn. Por lo tanto, en muchos problemas podemos aplicar algunas
de las tkcnicas estAndar del c6lculo para encontrar este máximo. Puesto que
In x es una hnci6n creciente de x,

In L ( X I , .. . ,X,; O)
os de 386 Estimación 14.4

obtendrti su valor máximo para el mismo valor de 0 como lo hará L ( X 1 , . . . ,


X,; e). Luego, en condiciones muy generales, suponiendo que0 es un número
real y que L ( X 1 , . . . , X,; e)es una función diferenciable de 8, podemos obtener
el estimado ML 6 al resolver lo que se conoce como la ecuación de verosimilitud:

a
- In L ( X 1 , . . . ,X,;
0) =O (14.2)
ae

a
- In L(X1,. . . ,X,; a ,/3) = O,
8-Y
(14.3)
a
- In L ( X 1 , . . . , X,; a ,p) = O.
aa

Nuevamente se insistirá en queel planteamiento anterior no siempre


esútil.Sin embargo, en un gran número de ejemplosimportantes
(algunos de los cuales presentaremosenformabreve)estemétodo
proporciona el estimado ML, pedido con relativa facilidad.

Propiedades de los estimadores de máxima verosimilitud:


a ) El estimado ML puedesersesgado. Muy a menudo talsesgo
puede evitarse multiplicando por una constante apropiada.
b ) En condiciones muy generales,los estimados ML son consistentes.
Es decir, si los tamaños de muestra en los cuales se basan es grande, el
estimado ML estará “cercano” al valor del parámetro que se estima. (Los
estimados ML poseen otra propiedad muy importante,la propiedad del
“gran tamaño de muestra” que se expondrg m& adelante.)
c) Los estimados ML poseen la notable propiedad de invarianza. Su-
p6ngase que 8 es el estimado ML d e O. Entonces puede demostrarse
que el estimado ML de g(0) es g(8). Es decir,.si el estadísticoA toma sus
medidas en pies2 y el estadístico B mide en pies y si el estimado ML d e
A es 8, entonces el d e B sería d.
Recordemos que esta propiedad no
la tienen los estimados insesgados.
Consideraremos ahora ciertas aplicaciones sobresalientes d e los esti-
mados ML.
14.4 de Estimados mdxima verosimilitud 387

EJEMPLO14.7. Supóngase que el tiempo para que ocurra la falla,


digamos T,de un componente tiene una distribución exponencial con
parametro P. La fdp deT , por lo tanto, esta dadapor

Supóngase que se prueban n de tales componentes, dando los tiempos


de falla T l , , . .,Tn. Por lo tanto, la función de verosimilitud de esta
muestra esta dada por

A s í , In L = n In -P Ti. Portanto,

da j = 1/T, donde T es el promedio muestral de los tiempos para que


suceda la falla. Puesto que el valor esperado deT , el tiempo promedio
para que ocurra la falla, está dada por l/P, usando la propiedad de
invarianza de los estimados ML, encontramos que el estimado ML de
E ( T ) est5 dado porT , el promedio muestral. Sabemos queE ( T ) = 1/P
y, por tantoT , el estimado ML de E ( T ) , es insesgado.
Obseruacidn: En general, no es fácilencontrar la distribución de probabilida-
des de los estimados ML, especialmente si el tamaño de muestra es pequeño.
(Si TZ es grande, encontraremos que es posible una solución general.) Sin em-
bargo, en elpresente ejemplo podemos obtener la distribución.delos estimados
ML. Del corolario del teorema 10.9 encontramos que 2npT tiene distribución
x;,. Luego, P(T 5 t ) = P(2nPT 5 Znpt). Esta probabilidad se puede obtener
directamente de la tabla de la disaibución X-cuadrada si n, p y t son conoci-
das.

EJEMPLO14.8. Se sabe que cierta proporción (fija), digamos p , de


detonantes es defectuosa. De una gran partida, se eligen n al azar y se
prueban. Definamos las variables aleatorias s.iguientes.

X i =si el i-ésimo detonante es defectuoso y O en cualquier otrocaso,


i = 1 , 2 , ...,n
388 Estimación de pardmetros 14.4

Por tanto, (X,). . . ) X , ) es una muestra aleatoria dela variable aleatoria


X que tiene la distribución de probabilidades P ( X = O ) = f ( O ; p ) =
1 - p , P ( S = 1 ) = f ( 1 ; p ) = p . Es decir, f ( z , p ) = px(l - p ) 1 -x , z = O, 1.
Luego,

L ( X 1 ) . . . ) x n ; p ) = pk ( ~ - p ) , - ~ ,

donde k = X i = número total dedetonantesdefectuosos. Así,


InL(X1, . . . , , Y , ; p ) = k I n p + ( n - k ) l n ( I - p ) . Portanto,
BlnL
” -
n- k
-k + “(-1) n-k
k - -.
=-
aP P 1-P P 1-P
Si k = O o n encontramos directamente, al considerarla expresión deL,
que el valor máximod e L se obtiene cuandop = O o 1, respectivamente.
Para k # O o n, hacemos Bln L / B p = O y encontramos como solución
6 = k / n = Y,el promedio muestral. A s í , nuevamente encontramos que
el estimado ML da un estimado insesgado del parámetro buscado.

EJEMPLO14.9. Supóngase que la variable aleatoria X está distribui-


da normalmente con esperanzap y varianza l. Es decir, la fdp deX está
dada por

Por lo tanto,

Luego, Bln L / a p = O da $ = y,el promedio muestral.

EJEMPLO14.10. Hasta ahora hemos considerado situaciones en las


cuales pudimos encontrar el valor máximo Lde al derivar simplemente
L( o In L ) respecto al parámetro y hacer esta derivada igual a cero. El
ejemplo siguiente ilustra que esto no siemprees efectivo.
14.4 de Estimados máxima verosimilitud 389

Supóngase quela variable aleatoria X está distribuida uniformemen-


te en el intervalo [O, a],donde a es un parámetro desconocido. L a fdp
de X está dada por

f(.) = l/a, o 5 x 5 (Y,


=O para cualquier otro valor.

Si ( X I , . ..,X,) es una muestra deX, su función de verosimilitud está


dada por

L ( X 1 , . . . , X n ; a ) = (l/a),, O 5 X; 5 a para toda i,


=O para cualquier otro valor.

Considerando L como una funci6n de (Y para (XI,.. .,X,) dada, se


observa que debemos tener a 2 X; para toda i a fin de que L sea
distinta d e cero. Esto equivale a pedir quea 2 máx(X1,. . . ,X,). A s í , si
dibujamos L como una función de a obtenemos la gráfica que se muestra
de inmediatoquC valor de
en la figura 14.3. De esta gráfica, es evidente
a maximiza L, es decir

& = máx(X1,. . . ,X,).

Estudiemos algunas propiedades d e este estimado. Del teorema 13.2


obtenemos la fdp de & : g ( & ) = n[F(&)In-'f(&).Pero F ( z ) = x / a ,
O 5 z 5 a y f ( z ) están dadas anteriormente. Luego, obtenemos

FIGURA14.3
390 Estimacióndeparámetros 14.4

Para encontrar E ( & )calculamos

E ( & )= 1
CY
hg(&)d 6 = 1 6
CY nbn-l
7 d6

Así, 6 no es un estimado insesgado de a ; 6 tiende a “subestimar”a. Si


queremos un estimado insesgado, podemos usar

Observemos queaunque E ( & ) # a tenemos


que E ( & ) = a.
Así, para verificar la consistencia debemos demostrar aún queV ( & +) O*
cuando n + m. (Véase el Teorema 14.1.) Debemos calcular

= la(&) La(&)
2 g(6)d6 = 2 an d&

Luego,

n n
V ( & )= E(&)2- ( E ( S ) ) 2= -
n+2 n+l (n + 2)(n +
Así, V ( 6 ) + O cuando n -+ m y, portanto, la consistenciaest5
demostrada.

EJEMPLO14.11. Consideremos un ejemplo en el cual los dos pa-


rámetros (ambos desconocidos) caracterizanla distribución. Supóngase
que X tiene distribución N ( p )a 2 ) .Por tanto, l a fdp de X es

Si (X,, . . . ) X n )es una muestra de X, su función de verosimilitud está


dada por
14.4 Estimados de máxima verosimilitud 39 1

Luego,

Debemos resolver simultáneamente

aln L alnL
=o y -
aff o.
8”
Tenemos


aln L
a”
- 5 (Xi
;=I
- PI _= o,
U2

lo que da = X, el promedio muestral. Y

que da

62 = -
l n C(X2- ” ) 2 =-
l n E(Xa -x>
- 2 *

n r=l
. n .
r=l

ObsCrvese que el método ML produce un estimado sesgado de a2,


puesto que ya hemos visto que un estimado insesgado es de la forma
l / ( n - 1)c~=~(x;
- F12.

EJEMPLO14.12. Anteriormente consideramos (Ej. 14.7) elproble-


ma de estimarel parámetro p en unaley exponencial d e falla, alprobar
n artículos y anotar sus tiempos d e falla, T I , .. . ,Tn. Otro método po-
dría ser el siguiente. Supóngase que sacamos n artículos, los probamos,
y despues que ha transcurrido cierto tiempo, digamos TOhoras, simple-
mente contamos el número de artículos que han fallado, digamos X .
s de 392 Estimación 14.4

Nuestra muestra consiste en X I , . . . ,X n , donde X i = 1 si el i-ésimo ar-


tículo ha fallado en el periodo especificado, y O en cualquier otrocaso.
Luego, la función d e verosimilitud d e la muestra es

donde k = Cy=lX; = número de artículos que h a n fallado y p = Prob


(el artículo falla). Ahora p es una función del parámetro que se est2
estimando; es decir,

Utilizando el resultado del ejemplo 14.8, encontramos que el esti-


mado ML d e p es 1; = k / n . Aplicando l a propiedad de invarianza
del estimado ML (observando que p es una función creciente d e ,O),
obtenemos el estimado M L d e ,f3 simplemente al resolver la ecuación
1 - e-pTo = k/n. Un cálculo fácil da

8="1.(--), 1 n .- k
TO

o, para el estimado d e l/,f3,el tiempo promedio para que ocurra


la falla,

($)= ln[(n-Tok ) / n ].
-

En todoslos ejemplos antes presentados,


el método ML da ecuaciones
queeranrelativamente sencillas de resolver.Este no es el caso e n
muchos problemas y a menudo debemos recurrira métodos numCricos
(aproximados)a fin de obtencr los estimados. El ejemplosiguiente
ilustra tales dificultades.

EJEMPLO14.13. Como ya lo observamos, la distribuci6ngama


tieneaplicacionesimportantesparaprobar la duración.Supóngase
por ejemplo queel tiempo para que ocurra una falla de un generador
eléctrico tiene una duraciónA', cuya fdp está dada por
14.4 de Estimados máxima verosimilitud 393

donde r y X son dos par6metros positivos que deseamos estimar.Supcin-


gase que es posible una muestra (XI,.. . ,X n ) de X. (Es decir, se han
probado n generadores y se h a anotado los tiempos en que se produce
su falla.) La funcidn d e verosimilitud d e la muestra es

n n

A s í , debemos resolver simultáneamente d In L/dX = O y O In L / & = O.


Estas ecuaciones se convierten en

nOrl n L -
"

dX
--
X i=l
x"; =o,
n

Luego, d l n L/BX = O da directamente 1= r / y . Por tanto, después de


sustituir X por i,encontramos que d l n L / & := O da

Es evidente que debemos resolver la ecuación anterior para r , ob-


+
teniendo y cntonces i= + / X . Afortunadamente se ha tabulado la
función r " ( r ) / r ( r ) . Un método muy rápido para obtener las solucio-
nes pedidas, se prcsenta en el estudio d e D. G . Chapman (Annals of
Mc&nzalicaZ Stntistics, 27, 498-506, 1956). E,ste ejemplo muestra que
la solución de las ecuaciones de verosimilitud puede conducir a dificul-
tades matemriticas considerables.
Como antes mencionamos, los estimados ML poseen una propiedad
adicional que los hace muy apreciados, especialmente si los estimados
se basan en una muestra muy grande.

Propiedad asintótica de los estimados de máxima verosimilitud.


Si
8 es unestimado ML para el parámetro O, definido sobre una muestra
os de 394 Estimación 14.4

aleatoria X1 , . . . ,S n de una variable aleatoria X , entonces para n sufi-


cientemente grande, la variable aleatoria 9 tiene aproximadamente la
distribución

, donde B = nE (14.4)

aquí f es la función de probabilidad puntual o fdp deX , dependiendo


de si X es discreta o continua y donde 9 se supone que es un número
real.

Obse7wacwnes: a) L a propiedad anterior, por cierto,es mucho más fuerte que


la propiedad de consistencia que hemos mencionado antes. La consistencia
expresa que si n es suficientemente grande, 6’ estará “cercana” a O. Ahora, esa
propiedad nos describe cuAl es el comportamiento probabilístico d e 6 para una
n grande.
b ) No demostraremosestaafirmación, sólo ilustraremos su uso con un
ejemplo.

EJEMPLO14.14. Reconsideremoselejemplo 14.7. Encontramos


que b = 1/T esel estimado ML de P. Lafdp d e T fue dada por
f ( t ; P) = Pe-p‘, 1 > O. La propiedad anterior establece que si n es su-
ficientemente grande, b = l/T tiene aproximadamente la distribución
N ( @ ,l/B), donde B está dada por la ecuaci6n (14.4).
Para encontrar

Por tanto,
14.5 El método de I(osmínimos cuadrados 395

TABLA
14.4

,Y (altura, m) Y (temperatura, C) X (altura, m) Y (temperahIra, o c)


O

1142 13 1O08 13
1742 7 20;B 18
280 14 4 3'9 14
437 16 1471 14
678 13 48'2 18
1002 11 67.3 13
1543 4 4 0'7 16
1002 9 12910 7
1103 5 1609 6
475 11 9110 9
1049 10 127'7 11
566 15 4110 14
995 10

b,
Por lo tanto, encontramos que para unan gramde tiene aproximada-
mente la distribución N ( P , ,$/,). (Esto verifica la propiedad de consis-
tencia del estimado, puesto queP 2 / n + O cuando n -+ m.)

14.5 El mdtodo de los minnimos cuadrados =

EJEMPLO14.15. Estamos familiarizados con el hecho de que la tem-


peratura del aire disminuye con la altitud del lugar. Los datos de la
tabla 14.4 y el diagrama de dispersidn asociado (gráfica de puntos) (Fig.
14.4) lo refuerzan. La gráfica de puntos indica no sólo que la tempe-
ratura Y disminuye con la altura X , sino que es evidente una relación
lineal.
Las observaciones representan la al-
titud (en metros) y la temperatura (en
grados centígrados) enlas primeras ho-
ras d e la mañana en cierto número de
puestos de observacih en Suiza.Los
datos provienen del Observatorio Ba-
sel-St. Margarathen.
¿Cual es un .modelo razonable para
los datos anteriores? Supondremos que
Y es una variable aleatoria, cuyo valor
depende, entre otrascosas, del valord e
X . Supondremos, específicamente, que FIGURA14.4
3 96 Estimación de parámetros 14.5

donde a y p son constantes (desconocidas), X es la altitud (conocida)


desde la cual se mide Y , y E es una variable aleatoria. El análisis d e
este modelo lineal depende de las hipótesis que hagamos acerca de la
variable aleatoria t . (Esencialmente decimos que la temperatura es un
resultado aleatorio, cuyo valor puede descomponerse estrictamenteen
una componente aleatoria más un término que depende de la altitud
.Y de una manera lineal.) La hipótesis que haremos acerca de es la
siguiente:

~ ( c =
) O; ~ ( t=) u2 paratoda X.

Es decir, el valor esperado y la varianza d e 6 no dependen del valor


+
d e X. Por lo tanto, E ( Y ) = crX /3 y V ( Y ) = 0 2 . Observemos que
el modelo que hemos establecido depende d e los tres parámetros a , /3
y u 2 . No podemos usar el método de la máxima verosimilitud para
estimar esos parámetros a no ser que hagamos m5s hipótesis acerca
d e la distribución de E. Nada se h a supuesto acerca d e la distribución
d e la variable aleatoria E ; sólo se formuló una hipótesis acerca de su
valoresperado y suvarianza.(Posteriormentemencionaremosuna
modificación d e este modelo.)
Antes d e establecer cómo estimar los parámetros respectivos, diga-
mos unas pocas palabras sobre el significado de una muestra aleatoria
en el presente contexto. Supongamos que se escogen n valores d e X ,
2 1 , . . . ,xn. (Recordemos otravez que aquí X no es una variable aleato-
ria.) Para cada x;,sea Y , una observación independiente dela variable
aleatoria Y descrita anteriormente. Por tanto,( X I ,Y l ) ,. . . , ( x n ,Yn)pue-
de ser considerada como una muestra aleatoria dela variable aleatoria
Y para los valores ( X I , .. . ,z n ) d e X dados.

Definición. Supóngase que tenemos E ( Y ) = a X +


/3, donde a ,
/3 y X son como antes se expresó. Sea (q,Y l ) ,. . . ,( x n ,Yn)una
muestra aleatoria de Y . Los estimados de mínimos cuadrados d e los
parámetros a y /3 son los valores a y ,d que minimizan
14.5 Eldemdtodo los mfnimos
cuadrados 397

Observacwn: La interpretación del criterio anteriores muy evidente. (Véase


la Fig. 14.5.) Para cadapar (zi, 6 )calculamos la discrepancia entre Y,, el valor
observado, y ax;+ ,O, el valor esperado. Puesto que sólo estamos interesados
en la magnitud d e esta discrepancia, elevamos al cuadrado y sumamos todos
los puntos d e muestra. La línea buscada es aquella para la cual esta suma es
más pequeña.

A fin de obtener los estimados pedi-


dos para (Y y p procedemos como sigue.
Sea ~ ( pa) , = ~r=~[x +
- ( m i p)12.
Para minimizar S ( ( Yp)
, debemos resol-
ver las ecuaciones
7

8s 8s
-=o y -
aa ap = O. FIGURA14.5

Derivando S respecto a a y a p, obtenemos

as
-
n

a(Y i=l i= 1

Así, d S / & = O y aS/ap = O pueden escribirse, respectivamente, como


sigue:

n n
(14.5)
i=l i=l

Ex.
n n
a C z ;+ n p = (14.6)
s=l i=l

Tenemos así dos ecuaciones Zineules en las incógnitas CY y p. La so-


lución puede obtenerse de la manera usual, por eliminación directa o
usando determinantes. Denotando las solucilones por & y 6,
encontra-
mos f5cilmente que
398 Estimación de parámetros 14.5

(14.7)

,8=y-&z7 donde y = -Ex.


1
12.
(14.8)
s=l

Las soluciones anteriores son únicas y siempre se obtienen, siempre


que

E ( x i -q 2 # o.
i=l

vez todaslas xi no son


Esta condición, sin embargo, se satisface cada que
iguales.
El estimado del parAmetro u2 no puede obtenerse por los métodos
anteriores. Establezcamos simplemente que el estimado usual deu 2 ,en
términos de los estimados de mínimos cuadrados & y es p,
u2 = -
l
n-2.
n
[x- (&Xi + p)] 2 .
t=l

Obsemacwnes: a) Evidentemente es ~5una función Lineal d e los valorcs mues-


trales Y1, . . . , Yn.
b ) También P es una finción lineal d e Yl , . . . ,Y,, como lo indica el cAlculo
siguiente:

c) ES u n ejercicio sencillo demostrar que E(&.)= CY y que = p. (Véase


el Prob. 14.34.) Así, ¿ y ,b
ison estimados insesgados.
d ) Las varianzas d e h y ,b tambikn se pueden calcular con facilidad. (Véase
el Prob. 14.35.) Tenemos
14.6 El coeficiente de correlacwn 399

V ( & )=
cy==,(.;
U2

- 2)2
. V ( P )= ;[ 1
+- ?¿?
1
(x;- F)2 u2
(14.9)

e ) Los estimados ti y son en realidad los mejores estimados lineales inses-


gados d e (Y y p. Es decir, de entretodos los estimados lineales insesgados, éstos
tienen la mínima varianza. Éste es un caso especial1 del teorema general de Gauss-
Murkofl, el cual establece que enciertas condicionles los estimados d e mínimos
cuadrados y los mejores estimados lineales insesgados son siempre los mismos.
J) El método de los mínimos cuadrados puedeaplicarse a modelosno linea-
+ +
les. Por ejemplo, si E ( Y ) = a x 2 /?X y, podemos estimar (Y, ,f? y y de modo
que

[.i- (ax;+ ax;+ y)]


n 2

i=l

se minimiza.
g) Si formulamos la hipótesis adicional de que la variable aleatoria E tiene
distribución N ( 0 , u2),podemos aplicar el mCtodo de la máxima verosimilitud
para estimar los parámeh-os CY y P. Esos estimaldos son los mismos que los
estimados d e mínimos cuadrados obtenidos anteriormente. (Esto no siempre
es cierto, es una consecuencia d e la hipótesis de normalidad.)

EJEMPLO14.16. Este ejemplo es presentadopor Y. V. Linnik en


Method of Least Squares and Principles of the Theory of Ol)sewations, Perga-
mon Press, Nueva York, 1961. Los datos de este ejemplo fueron obte-
nidos por Mendeléjev y presentados en Founahtions of Chemistry. (VCase
la Tabla 14.5.) Relacionan la solubilidad d e nitrato de sodio N a N 0 3 con
la tempcratura del agua (en"C). A la temper,atura indicada,las Y par-
tes de N a N 0 3 se disuelven en 100 partes de agua.Al hacer una grhfica
con esos datos se obtiene el diagrama d e dispersión que. se muestra en
la figura 14.6.
Este diagrama sugiere un modelo ladeforma E ( Y ) = bT+a. Usando
el metodo delos mínimos cuadrados bosquejado anteriormente, encon-
tramos que b = 0.87 y ¿ =i67.5.

14.6 El coejciente de correlación

En la secci6n anterior nos interesamos en pares de valores ( X ,Y ) ,pe-


ro, como lo hemos señalado una y otra vez, X no debe considerar-
secomounavariablealeatoria. Sin embargo,hayvariablesaleato-
rias bidimensionales ( X ,Y ) que dan origen a una muestra aleatoria
400 Estimación de pardmetros 14.7

TABLA
14.5
T

T Y T Y
.
e

O 66.7 92.9 29
71.0 4 36 99.4

10 51 76.3
113.6

15 80.6 68 125.1

85.7 20 40 60
21
FIGURA14.6
(XI,Y l ) ,. . . ,(X,, Y,). Uno d e los par5metros m& importantes asocia-
d o con una variable aleatoria bidimensional es el coeficiente
d e correla-
ción p x y .
TABLA 14.6

X (velocidad, km/seg) 11.93 8.87 10.13 10

Y (altura, km) 62.56 40.57 44.38 48

El estimado que se acostumbra usar parap es el coeficiente de correlucidn


muestral, definido como sigue:

Nótese que para propósitos de cálculo es más fácil evaluar r como


sigue:

EJEMPLO14.17. Los datosanotadosen la tabla 14.6 represen-


tan la velocidad (en km/seg) y la altura (en km) de la estrella fugaz
número 1242 como se informó en la “Smithsonian Contributions to
Astrophysics” en el Proccedings of the Symposium on Astronomy and Physics
of Meteors, Cambridge, Mass., 28 d e agosto - lo. de septiembre de1961.
Un cálculo directo da T = 0.94.
14.7 Intervalos de conjattza 40 1

14.7 Intervalos de confianza

Hasta ahora sólo nos hemos interesado en la obtención de unestimado


puntual para un parámetro desconocido. Como se sugirió al principio
de esté capítulo, existe otro planteamiento que a menudo conduce a
resultados muy significativos.
Supóngase que X tiene distribución N ( p , u 2 ) ,donde o2 se supone
conocida, mientras que p es el parámetro desconocido. Sea X I , . . . ,X n
una muestra aleatoria deX y X el promedio muestral.
Sabemos que X tiene distribución N ( p , u 2 / n ) .Por tanto, 2 = [(X-
p ) / u ] J ntiene una distribución N ( 0 , l . ) Nótese que aunque 2 depende
de p , su distribución d e probabilidades no. Podemos usar este hecho a
nuestra conveniencia como sigue.
Considerar

(
= P X--<p<:u+- .
ZU

Jn- - " dñ
z')

Esta filtima proposición probabilística debe interpretarsemuy cuidudosa-


mente. No significa que la probabilidad del parámetro p que cae en el
intervalo mencionado sea igual a 2@(z) - 1; 11 es un parámetro y está o
no en el intervalo anterior. En su lugar,lo anterior debería interpretarse
como sigue: 2 @ ( z )- 1 es igual a la probabilidad que el intervalo aleato-
rio (X - xu/*, + xu/*) contenga a p . A tal intervalo se le llama
intervalo de confianza para el parámetro p. Puesto que z queda a nues-
tro criterio, podemos elegirlode modo quela. probabilidad anterior sea
igual a 1 - (Y.Por tanto, z está definida por la relación % ( z )= 1 - a / 2 .
Ese valor d e z, denotado con ISl-cY/2, se puede obtener delas tablas d e
la distribución normal. (Véase también la Fig. 14.7.) Es decir, tenemos
@(Ii-l-cY/2) = 1- 4 2 .
-
Para resumir: el intervalo ( ~ - n - ~ / ~ u ~ x'+7.1-1/2
< ~ - , ~ 01c1-a/2)
p , es
un intervalo de confianza para el parámetro p con coeficiente de confinnza
(1 - a ) , o un (1 - a) 100% d e intervalo de confianza.
402 Estimacióndeparámetros 14.8

Supóngase queX representa la duración de unapieza de un equipo.


Supóngase que se probaron 100 piezas quetuvieronunaduración
promedio de x = 501.2 horas. Se sabe que u es de cuatro horas y que
deseamos tener un intervalo de 95% de confianza parap . Encontramos,
p = E(X):
por tanto, el siguiente intervalo de confianza para

501.2 - &(1.96),501.2 + &(1.96), llega aser (500.4;502.0).

Nuevamente es útil un comentario. Al establecer que (500.4; 502.0)


es un intervalo de 95% de confianza para p , no estamos diciendo que
el 95% d e las veces el promedio muestra1 quedar5 en ese intervalo.
La próxima vez que saquemos una muestra aleatoria,X posiblemente
serA distinta y, por tanto, los extremos del intervalo de confianza serán
diferentes. Estamos diciendo queel 95% de las veces p estar5 contenido
en el intervalo (x - 1.960/+, +
?T 1.96u/fi). Cuando afirmamos que
500.4 < p < 502.0 simplemente estamos adoptando el punto de vista de
creer que algo es así cuando sabemos quees verdadero la mayor parte
del tiempo.

Obseruacidn: El intervalo d e confianza construido no es Único. Tal como


hay muchos estimados (puntuales) para u n parAmetro, podemos construir
muchos intervalosd e confianza. Aunque no discutiremos el problema d e lo que
podríamos designar comoun intervalo d e confianza “mejor” establezcamos, sin
embargo, u n hecho obvio. Si se comparanlos intcrvalos d e confianza que tienen
el mismo coeficiente, preferiríamos el que tiene menos longitud esperada.
La longitud L del intervalo d e confianza antes considerado puedeescribirse
como

Así, L es una constante. Adem&, resolviendo la ecuaci6n anterior para n da


14.2 Criterios para estimados 403

Por lo tanto, podemos determinar n (para CY y u dadas) de modo que el


intervalo de confianza tenga una longitud prefijada. En general (comose
ilustró en el ejemplo anterior), L ser5 una función decreciente de n: cuanto m5s
pequeña deseemos que sea L m5s grande debe tornarse n. En el caso anterior
especialmente debemos cuadruplicar n a fin de dividir a L.

14.8 LA distribución t de Student

El análisis del ejemplo anterior dependía mucho del hecho d e q u e l a


varianza u2 era conocida. ¿Cómo debemos modificar el procedimiento
si no conocemos el valord e u 2 ?
Supongamos que estimamoso2 utilizando el estimado sin sesgo

2
8 =-
1
n-l.
E(&
" S)? -
a=1

Consideremos la variable aleatoria

(14.10)

Debería ser intuitivamente evidente quela distribución d e probabilida-


des d e la variable aleatoria t es considerablemente más complicada que
la d e 2 = ( F - p ) f i / u , ya que enla definición de t , tanto el numerador
como el denominador son variables aleatorias, mientras que 2 es sim-
plemente una función lineal Xde I , . . . ,Arn. Pa.ra obtener la distribución
d e probabilidades d e t usemos los hechos siguientes:
a) 2 = (x - p ) f i / u no tiene distribuciónN(O,1).
b ) V = Cr=l(X;- T)2/02 tiene una distribuci6n x-cuadrada con
( n - 1) grados de libertad. (Véaseel Teorema 13.4.)
c) 2 y V son variables aleatorias independientes. (Esto no es muy
fácil d e demostrar, y no lo verificaremos aquí.
Con ayuda del teorema siguiente podemos obtener ahora la fdp
de t.

Teorema 14.3. Supóngase quelas variables aleatorias 2 y V son inde-


pendientes y tienen distribuciones N ( 0 , l ) y x
:, respectivamente.
Definimos
z
=
404 Estimación de parámetros 14.2

Entonces, la fdp de T está dada por

-(k+l)/Z
hk(t)= , “00 < t < OO. (14.11)

distribución t de Student con X: grados d e


Esta distribución se conoce como
libertad.

Observaciones: a ) La demostraci6n d e este teorema no se proporciona aquí,


pero se sugiere en la sección d e problemas. (Vkase el Prob. 14.17.) Tenemos
las herramientas disponibles cona ls cuales podemos encontrarh k ( t ) muy fácil-
mente. Primero necesitamos determinar l a fdp d e m, la cual se obtiene
con facilidad conociendo la fdp de V. Entonces sólo necesitamos aplicar el
teorema 6.5 que dala fdp del cociented e dos variables aleatorias independien-
tes.
b) El teorema anteriorse puede aplicar direcmmente para obtenerla fdp d e
t= (x - p ) f i / & , la variable aleatoria antes considerada. Esta variable tiene la
distribución t de Studentcon ( n - 1) grados de libertad. Nótese que aunqueel
valor de t depende dep , su distribución no.
c ) La gráfica de h.k es simétrica, como se muestra en la figura 14.8. En
realidad, se asemeja a €a gráfica d e la distribución normal, y el lector puede
demostrar que

d) Debido a su importancia, esta distribución ha sido tabulada. (Véase el


Apéndice.) Para una CY dada 0.5 < CY < 1, los valores d e t k , a , que satisfacen la
condición

/tk’a h k ( t ) dt = CY
J-00

están tabulados. (Véase la Fig. 14.9.) (Para los valores d e a que satisfacen
O < CY < 0.5, podemos usar los valores tabulados debido a la simetría d e la
distribución.)
e ) Esta distribución se llama así en honor delestadístico inglés 147. S. Gosset,
quien publicó su trabajo conel seudónimo de “Student”.
14.9 Más sobre los intervalos de confianza 405

FIGURA
14.8 FIGURA
14.9

Volvamos ahora a l problema presentado al principio de esta sección.


¿C6mo obtenemos un intervalo de confianza para el promedio de una
variable aleatoria distribuida normalmentesi Ila varianza es desconocidu?
De una manera completamente análogaa la1 usada en la sección 14.7,
obtenemos el siguiente intervalo d e confianza 'para p , con coeficiente de
confianza ( 1 - a ) :

A s í , el intervalo de confianza anterior tiene l a misma estructura que


el previo, con la diferencia importante de que el valor conocido de
a: se ha sustituido por el estimado 8 y la constante K 1 - a / 2 , obtenida
anteriormente de las tablas d e la distribución normal, se ha sustituido
por t l a - l , l - c y / 2 obtenida
, d e las tablas de l a distribución t .

Observaciha: La longitud L del intervalo d e confianza anterior es igual a

Luego, L no es una constante, puesto que depende de 6, que a su vez


depende de los valores muestrales (X1l . . . S ; , , ) .

EJEMPLO14.18. Sehicierondiezmedicionessobre la resistencia

que X = 10.48 ohms y 6 = 4;


de cierto tipo de alambre, dando los valores JLrl . . . , X l o . Supóngase
x!zl(Xi - X)2 = 1.36 ohms. Suponga-
mos que X tienedistribución iV(p,c2)y qne deseamos obtener un
intervalo de confianza para p con coeficiente de confianza 0.90. Por
tanto, a: = 0.10. De las tablas de la distribución t encontramos que
t9,0.95 = 1.83. Luego, el intervalo de confianza pedido es
406 Estimacióndeparámetros 14.9

+ -( 1 1.36)(1.83)) = (9.69,11.27).
/
1
(10.48 -(1.36)(1.83)10.48
-
m m
14.9 Más sobre los intervalos de conjianza

Aunque no intentamos dar una presentación general de este tema,


deseamos continuar considerando algunos ejemplos importantes.
Algunas veces deseamos obtener un intervalo d e confianza para una
función particular d e un parámetro desconocido, conociendo un inter-
valo d e confianza para el parámetro mismo. Si la función es monótona,
esto puede satisfacerse como lo ilustra el ejemplo siguiente.

EJEMPLO14.19. Sup6ngase que la duración X de un artículo tiene


distribución N ( p , a 2 )y que o2 es conocida. La confiabilidad del artículo

r 'i>
para un tiempo deservicio de t horas está dada por

R ( t ; p )= P ( X > t ) = 1 - cp - .
Puesto que a R ( t ; p ) / a p > O para toda p , tenemos que para cada t
fija, R(t;p ) es una función creciente de p. (Véase la Fig. 14.10.) Luego,
podemos proceder como sigue para obtener un intervalo de confianza
para R ( t ; p ) . Sea ( -
p , p ) el intervalo de confianza para p obtenido en
la sección 14.7. Sean y a, respectivamente, los extremosinferior y
superior del intervalo deconfianza pedido para R(t;p ) . Si definimos a
R y R por las relaciones
-

encontramos que P(& 5 R 5 a) = P ( - p 5 p 5 p ) = 1 - a , Y que,


por tanto, ( & X ) representa un intervalo deconfianza para R(t;p ) con
coeficiente de confianza (1 - a ) . (Véase la Fig. 14.11.)
14.9 M d s sobre los interualos de confianza 407

Usemos los valoresmuestralesobtenidosen la sección 14.7 para


ilustrar este procedimiento. Supóngase que deseamos un intervalo de
confianza para la confiabilidad del componente cuando se usó para
t = 500 horas.Puestoqueencontramos 1" = 500.4 y p = 502.0,
"

obtenemos

R=
- l-@ (500 = 0.6554,
-
R = 1- Q, (500 - 502
) = 0.6915.
Hasta ahora sólo hemos considerado intervalos d e confianza biln-
terales. Es decir, hemosobtenidodos estadísticos (algunas veces lla-
mados cota superior e inferior d e confianza), sean L ( X 1 , . . . ,X,) y
<
U(X1,. . . ,X,), tales que P [ L U 5 U ] = 1- C Y , donde U es el parámetro
desconocido.
A menudo sólo estamos interesadosen obtener intervalosd e confian-
za unilaterales d e la forma siguiente:
P[U<U]=l-a o P[L<8]=1-a.
Ilustremos lo anterior con ejemplos.

EJEMPLO14.20. Supóngase queX tiene dlistribución N ( p , a 2 )y de-


seamos obtener un intervalo d e confianza unilateral para el parAmetro
desconocido u 2 . Sea X I , . . . , X , una muestra aleatoriad e X .
Del teorema 13.4 sabemos que Cr=l(X; - F ) 2 / a 2tiene distribución
xi-1. Por tanto, d e las tablas d e la distribución x-cuadrada podemos
obtener un númerox 2 ~ - ~ tal , que
~ - ~

(Véase la Fig. 14.12.) La probabilidad


anteriorpuedeescribirsecomosigue: hn-dX2)

teral pedido paraa2 con coeficiente d e FIGURA14.12


confianza ( 1 - a ) .
os de 408 Estimación 14.9

EJEMPLO14.21. Supóngase que la duración X de un instrumen-


to electr6nico está distribuida exponencialmente con par5mctro l/P.
Luego, E ( X ) = P. Sea S I , . . . , S , , una muestra de X . En el ejemplo
14.7 hemosencontradoque X ; / n es el estimado MI, d e P. Del
colorario del teorema 10.1) encontramos que 2 n X / p tiene distrilmción
x i n . Por lo tanto, P [ 2 n Y / p 2 x;n,l-a] = (Y], donde el número &,,l-cu
se obtiene d e las tablas d e distribuci6n X-cuadrada.
Si deseamos un intervalo d e confianza (inferior) parala confiabilidad
n(t;p>= P ( X > t >= e -t/P, procedemos como sigue. se multiplica la
desigualdad anterior por ( - t ) y se reagrupan los términos, obteniendo

P [ ( - t / @ ) 2 -t&+n/x2n] = 1 - a.

Esto a su vez implica que, puesto que e’ es una función creciente de2 ,

Luego, ( e x P [ - t X ; n , l - n / ~ 2 ” , m>es un intervalo d e confianza unilateral


para R ( t ;0) con coeficiente de confianza (1 - a ) .

Como una ilustración final de unintervalo d e confianza, encontramos


un intervalod e confianza parael parAmetro p asociado conuna variable
aleatoria X distribuida binomialmente. Sólo consideraremos el caso don-
d e n , el número de repeticiones del experimento que da origen a X , es
bastante grande como para poder usar la alwoximncidn normal.
Representemos con X / n = h la frecuencia relativa de un evento il
e n n repeticiones de un experimento para el cual P ( A ) = p . Por tanto,
E ( h ) = p y V ( h ) = p q / n , donde q = 1 - p.
Usando la aproximación normal a la distribución binomial, podemos
escribir

= 2 q K ) - 1,

donde, como siempre, $(I{)= ( 1 / 6 ) JJi 2


e-‘, /’ d l . A s í , si hacemos
igual a (1 - a) la probabilidad anterior, podemos obtener el valor d e
14.9 Más sobre los intervalos de cotzjianza 409

Ii- d e la tabla d e la distribución normal. Es decir, 2@(Ii‘) - 1 = 1 - a!


implica A‘ = I<l-ff12.Puesto que estamos interesados en obtener un
intervalo de confianza para p , debemos volver a escribir la desigualdad
anterior ( 1 1 1 - p ( 5Km} comounadesigualdad en p . Ahora
- pl 5 I<-> es equivalente a { ( h - ,p12 5 ~ ~- p () p / ? 1
L ) . Si
consideramos unsistema de coordenadas,(11, p), la desigualdad anterior
representa el contorno y el interior de unaelipse. La forma de la elipse
está determinada por K y n: a mayor n , m8s fina es la elipse.
Considérese un punto Q ( h , p ) en el plano h,p. (Véase la Fig. 14.13.)
Q será un punto “aleatorio”, puesto que su primera coordenada1~será
determinada por el resultado del experimento. Puesto que Q quedará
dentro de la elipse si y sólo si {Ih - pl 5 KJpq/n), la probabilidad d e
que esto ocurra será 2@(I<) - 1. Si deseamos tener esta probabilidad
iguala (1 - a!), debemos elegir adecuadamente a I<, es decir Ii‘ =
I~l-ffp

FIGURA
14.13
Ahora p es desconocida. ( h e , por supuesto, es nuestro problema.)
La recta h = c (constante) cortará la elipse en dos lugares, sean p = p l
y p = p2. (Es fácil verificar que dadas a y h, siempre habrá dos valores
distintos d e p.)
Los valores p l y pa se pueden obtener como solución d e la ecuación
cuadrática (en p ) : ( h - p ) 2 = K2(1- p ) p / n . Las soluciones son:

+ ( 1 i * ~ / 2-> K [ h ( l - h>n+ (1<~/4)]


hn 112

n+K 2
Pl = 7

hn + (1<~/2)+ [ h ( l --h>n + 112


( I ~ T ~ / L ~ > ]

.
n+K 2
P2 = (14.12)
410 Estimación de parárnetros

Portanto, {Ih - pl 5 K,,/&~G} es equivalente a { p l 5 p 5 p.}.


Así, si se escoge K de modo queel evento anterior tenga probabilidad
( I - a ) ,obtenemos un intervalo de confianza parap , digamos ( P I ,p.),
con coeficiente de confianza (1 - a ) . Para resumir: con el objeto d e
obtencr un intervalo de confianza para p = P ( A ) con coeficiente de
confianza (1 - o ) , se realiza el experimento n veces y se calcula la
frecuencia rclativa del evento A, digamos h . Luego se calculan p l y
p z de acuerdo con las ecuaciones (14.12), donde K se determina de las
tablas d e l a distribución normal. Recordemosque este procedimiento es
válido sólo si n es suficientemente grande para justificar
la aproximación
normal.
Observacidn: Recuérdese que en las ecuaciones (14.12), h = s / n , donde X
= nilmero de ocurrencias del evento A . Luego, S = nh y n - S = n ( 1 - 11).
Si adem& de n, tmto X y n - S son grandes, p1 y p2 pueden aproximarse,
respectivamente, por

PI21 11 -
I-
, “” p2 2: h + ”m.
K
fi fi
EJEMPLO14.22. En un proccso d e producción se fabrican 79 artícu-
los durante cierta semana.D e esos, se encontró que3 eran defectuosos.
Así h = & = 0.038. Usando el procedimientoanterior,obtenemos
(0.013, 0.106) como un intervalo de confianza parap = P(e1 artículo es
defectuoso) con un coeficiented e confianza 0.95.
EJEMPLO14.23. Una fábrica tiene un gran número de artículos al-
macenados, algunos d e los cuales provienen d e un método de produc-
ción que en la actualidad se considera de poca calidad, mientras que
otros provicncn de un proceso modcrno. Dcl almacén se escogen a l
azar 3 O00 artículos. De &os, se encuentra que 1578 se han fabricado
con el proceso d e poca calidad. Utilizando la aproximación anterior pa-
ra p ] y p a , el cálculo siguiente da un intervalo de confianza
d e 99% para
p = proporción d e artículos del proceso insatisfactorio.

1578
1%= -= 0.526, IC = 2.576,
3000
Problemas 41 1

PROBLEMAS
14.1. Supóngase que un objeto se mide en forma independiente con dos
instrumentos, d e medicióndiferentes.Sean L1 y L2 l a s longitudes que se
midieron conel primero y el segundo, respectivamente. Si ambos instrumentos
esdn correctamente calibrados, podemos suponer que E(L1) = E ( L 2 ) = L ,
la longitud verdadera. Sin embargo, la exactitud d e los instrumentos no es
necesariamente la misma. Si se mide la exactitud en términos d e la varianza,
+
entonces V ( L 1 ) # V ( L 2 ) . Al usar la combinación lineal 2 = aL1 (1 - a ) L 2
para el estimado deL , cle inmediato se tiene que E ( Z ) = L. Es decir, Z es un
estimado, insespdo de L. ?Para que elección del valor de a, O < a < 1, es
mínima la varianza d e Z ?
1.1.2. Sea S una variable aleatoriaconesperanza p y varianza u 2 . Sea
(X1, . . . ,S,)una
muestra d e X. I Iay muchos otros estimados d e u’ que se
sugieren además del ya propuesto. Demostrar que C cyl:(,Y;+1 - es un
estimado insesgado d e u2 para un valor apropiado deC. Encontrar la elección
del valor d e C.
14.3. Supóngaseque se obtienen 200observaciones independientes, X I , . . . ,
X ~ Mde, una variable aleatoria S . Se dice que 200 X; = 300 y que 200 S: =
3754. Usando esos valores obtener un estinlado d e E ( X ) y V ( S ) .
14.4. Una variable aleatoria X tiene fdp f ( z ) =: ( p + 1)zD, O
< z < 1.
a ) Obtener el estimado ML d e p, con base en ulna muestra S I , . . . ,S,.
6) Evaluar el estimado si los valores muestrales son 0.3,0.8, 0.27, 0.35, O.G2
y 0.55.
14.5. Los datos d e la tabla 14.7 se obtuvieron ¿le la distribución del espesor
d e la madera en los postes telefónicos. (W. A. Shewhart, Economic Control of
Quality of Manufactured Products, Macmillan and Co., Nueva York, 1932, pág.
66.) Suponiendo que la variable aleatoria que se considera tiene distribución
N ( p ,u 2 ) ,obtener los estimados ML de p y u 2 .

14.6. Supóngase que T , el tiempo para que ocurra


la falla (en horas) de un
instrumento electrónico tiene la siguiente fdp:

=O paracualquierotro valor.

(T tiene una distribución exponencialtruncada a la izquierda en to). Supóngase


que se prueban R artículos y que se anotanlos tiempos en que ocurrela falla
T i , . . . ,T,.
a ) Suponiendo queto es conocida, obtener el estimado ML d e P.
412 Estimación de parámetros

TABLA
14.7

Espesor d e la Frecuencia Espesor d e la Frecuencia


madera (pulg.) madera (pulg.)

1.o 2 3.7 123


1.3 29 4.0 82
1.G 62 4.3 48
1.9 106 27 4.6
2.2 153 4.9 14
2.5 186 5.2 5
2.8 193 5.5 1
3.1 188 Total de frecuencias: 1370
3.4 151

b ) Suponiendo que t o es desconocida, pero conocida, obtener el estimado


hlL d e to.
14.7. Considerese la misma ley d e falla descrita en el problema 14.6. Esta
vez se prueban N artículos durante To lloras (TO> t o ) y se anotn el ntímero IC
d e artículos que fallan en tal periodo, dignmos k. Responder la pregunta a ) del
problema 14.6.
14.8 Supóngase que X est5 distribuida uniformemente en (-a, a). Encon-
trar el estimado M L d e a, con base en una muestra aleatoria d e tamaíío n,
X I , . . . >xn.
14.9. a ) Se efectúa un proceso hasta que un evento il particular ocurre
por primera vez. En cada repetición, P ( A ) = p . Se supone que se necesitan
nl repeticiones. Luego se repite el experimento y esta vez se requieren 722
repeticiones para producir el evento A . Si esto se hace k veces, obtenemos la
muestra n l , ...,n k . Basándose en esta muestra, obtenerel estimado ML d e p .
b ) ) Supóngase que k es muy grande. Encontrar el valor aproximado d e
E($) y V ( $ ) ,donde fi es el estimado ML obtenido en a).
14.10. Se prueba un componente que se supone tiene una distribucibn
exponencial d e fallas y se observan las siguientes duraciones (en horas): 108,
212, 174, 130, 198, 169,252, 168, 143. Usando esos valores muestrales, obtener
un estimado ML para la confiabilidad del componente cuando se use durante
un periodo de150 horas.
14.1 1. Los datos siguientes representan la duración d e bombillas elkctricas
(en horas):

1009, 1085, 1123, 1181, 1235, 1249, 1263, 1292, 1327, 1338,1348,
1352, 1359, 1368, 1379, 1397, 1406, 1425, 1437, 1438, 1441,1458,
1433, 1488, 1499, 1505, 1509, 1519, 1541, 1543, 1548, 1549, 1610,
1620, 1G25, 1638, 1G39, 1658, 1673, 1682, 1720, 1729, 1737,1752,
1757, 1783, 1796, 1809, 1828, 1834, 1871, 1881, 1936, 1949, 2007.
Problemas 413

De los valores d e la muestra anterior, obtener el estimado ML para la confia-


bilidad d e tales bombillas eléctricas cuando seusa'n durante 1600 horas, supo-
niendo quela duración est5 distribuida normalmente.
14.12. Supóngase que se usan dos bombillas tal como se describe en el
problema 14.11 : a) en unaconexión e n serie y b ) en unaconexión en paralelo.
En cadauno delos casos encontrar el estimado MI, d e la confiabilidad durante
una operación d e 1600 horas del sistema con base en los valores muestrales
dados en el problema14.1l.
14.13. Supóngase que una fkenteradiactiva emite particulas a d e acuerdo
con una distribución d e Poisson. Es decir, si X es e:lnúmero departículas emiti-
das durante unintervalo de 2 minutos, entonces P ( X = IC) = e - A t ( X t ) k / / l í ! . En
vez de anotarel número reald e partículas emitidas, supóngaseque se observa
el número deveces en queno se emitió ninguna partícula.Específicamente, su-
póngase que durante50 minutos se observan30 filentes radiactivas que tienen
la misma potencia y que en25 casos al menos se emitió una partícula. Obtener
el estimado ML d e X con base en esta información.
14.14. Una variable aleatoria X tiene distribución N ( p ,1). Se hacen 20
observaciones de X , pero, en vez d e anotar su vador, sólo observamos si X es
negativa o no. Suponiendo que el evento { X < O} ocurrió exactamente 14
veces, utilizar esta informaciónpara obtenerel estimado ML de p.
14.15.Sup6ngase que X tiene una distribución. gamma; es decir, la fdp est5
dada por

Supóngase que r es conocida. Sea X I , . . . , X , una muestra d e X , obtener el


estimado ML d e X con base en esta muestra.
14.16.Supóngase que X tiene una distribución d e Weibull con fdp

Supóngase que a es conocida. Encontrar el estimado


ML de X con base en una
muestra d e tamaño n.
14.17. Demostrar el teorema 14.3. [Sugerencia: Véase la Observación a)
que sigue a este teorema.]
14.18.Comparar el valor d e P ( X 2 l), donde X tiene distribución N ( 0 , l),
con P(t 2 l), donde t tiene distribución t de Studentcon:
a) 5 g.1. b ) 10 g.1. c) 15 g.1. d ) 20 g.1. e ) 258 g.1.
414 Estimación de parámetros

14.19. Supóngase que X tiene una distribución d e N ( p , r 2 ) .Una muestra


d e tamaño digamos, X I , . . . , X 3 0 , da como resultado los valores siguientes:
X; = 700.8, X! = 16 395.8. Obtener u n intervalo de confianza
d e 95% (bilateral)para 11.

14.20. Supóngase que X tiene una distribución N ( p , 4 ) . IJna muestra d e


t?maño 25 produce un promediomuestra1 7 = 78.3. Obtener un intervalo de
confianza d e 99% (bilateral) para p .

14.21. Supóngase que la duración de un componente tiene distribución


una
normal, digamos N ( p ,9). Se prueban 20 componentesy se anotan sus tiempos
para que ocurrala falla X I , . . . , X20. Snp6ngase que = 100.9 horas. 0bt.ener
un intervalo de confianza de 99% (bilateral) para la confiabilidad R(lO0).

14.22. Obtener un intervalo d e confianza unilateral de 99% (inferior) para


R(100) del problema 14.21.
14.23. Supóngase que X tienedistribución N ( p , u 2 ) ,donde p y u2 son
desconocidos.Unamuestra de tamaño 15 produce los valores X ; = 8.7
y Et:, X: = 27.0. Obtener un intervalo d e confianza d e 95% (bilateral) para
U2.

14.24. Se prueban cien componentes, 93 de los cuales filncionan más de


500 horas. Obtener un intervalo d e confianza d e 95% (bilateral) para p = P
(un componente funciona más de 500 horas). [Sugerencia: Usar la Ec. 14.12.1

14.25. Supóngase que X , la longitud de un perno, tiene distribución N ( 1 1 , l ) .


Se fabrica un gran número de pernos y posteriormente se separan en dos
grandes lotes. El lote 1 contiene sólo aquellos pernos para los cuales S > 5,
mientras que el lote 2 contiene el resto. Una muestra d e tamaño n se saca
del lote 1 y se miden las longitudes d e los pernos elegidos. Así obtenemos
una muestra 1'1,. . . , Y, de la variable aleatoria Y, que es una variable aleatoria
distribuida normalmente y truncada en 5 a la izquierda. Escribir la ecuación
que debe resolverse a fin de obtener el estimado ML de p con base en la
muestra ( Y l , .. . ,Y,)en terminos de las funciones C$ y tabuladas, donde
c$(.E) = ( l / ~ % ) e - ~ ' / ~y @ es la fda de la distribución N ( 0 , 1).
14.26. (La distribución F ) . Sean X y Y variables aleatorias independientes
con distribuciones x:l y x;,, respectivamente. La variable aleatoria F se de-
fine como sigue F = ( X / n l ) ( Y / n 2 )= n 2 X / n l Y . (Esta variable aleatoria des-
empeña un papel importanteen muchas aplicaciones estadísticas.) Demostrar
que la fdp d e F est5 dada por la expresión siguiente:
Problemas 4 15

[ÉStase llama distribución F (Snedecor) con( n l , n:!)grados d e libertad. Debido


a su importancia, se han tabulado las probabilidades asociadas con la variable
aleatoria F.] [Indicacidn: Para derivar la fdp anterior, usar el teorema6.5.1
14.27. Dibujar la gráfica d e la fdp h como se da en el problema 14.26,
suponiendo quen1 > 122 > 2.
14.28. Una razón d e la importancia de la di:stribución F es la siguiente.
Suponer queX y Y son variables aleatorias independientes con distribuciones
~ ( p af)~y ~, ( pai),~ respectivamente.
, Sean X I ., . . . ,X,, y ~ 1 , . .. , ynZ mues-
mas aleatorias d e X y Y , respectivamente. Entonces, el estadístico C C:&(X; -
-
X)2/ xy21(x - Y ) 2tiene una distribución F para una elección apropiada d e
C. Demostrar estoy determinar C. {Cuáles sonlos grados d e libertad asociados
con esta distribución?
14.29. Supóngase que la variable aleatoria t tiene una distribución t d e
Student con 1 grado delibertad. {Cuál es la distribución d e t 2 ? Identifiquela.
14.30. Supóngase que X est5 distribuidanormalmente.Seobtiene una
muestra aleatoria d e tamaño 4 y se calcula F, el promedio muestral.Si lasuma
d e los cuadrados d e las desviaciones d e esas 4 mediciones d e 5? es igual a 48,
obtener u n intervalo d e confianza d e 95% (bilateral) para E ( X ) e n términos d e
-
X.
14.31. La muestra siguiente d e tamaño 5 se obtuvo d e la variable aleatoria
bidimensional (X,Y ) . Usando esos valores, calcular el coeficiente d e correla-
ción muestral.

x11 2 3 4 5
y14 5 3 1 S!

+
14.32. Supóngase que E(Y)= crX P. Una. muestra d e tamaño 50 est5
disponible, sea (x;,I:), i = 1,.. . , 5 0 para la cual C = ri;; = O , xfzl
x: = 10,
E:2 = 15 y ,!:x z;yZ = 8.

a ) Determinar los estimados d e mínimos cuadrados d e los parAmetros cr y


P, es decir y ,b.
A) {Cuál es el valor d e la suma mínima d e cuadrados Cfzl[x - (&Y.;+ &I2.
14.33. Se podría suponer (erróneamente) que siempre puede encontrarse
un estimado insesgado para un parámetrodesconocido. El hccho de que no es
así, se ilustra conel ejemplo siguiente. Supóngase:que se hacen n repeticiones
de unexperimento y que un eventoespecial A se .verificaexacL3mente k veces.
Si hay una probabilidad constante p = P ( A ) por hipótesis de que A ocurra
cada vez que se hace el experimento, podríamos estar interesados en estimar
416 Estimación de parámetros

la razón r = p/(l - p ) . Para verificar que no existe un estimado insesgado d e


r = p / ( l - ~ )[con baseen las observaciones d e k A y ( n - k ) x ] , suponemos que en
realidad existe tal estimado. Es decir, supóngase que i = h ( k ) es un estadístico
para el cual E(?) = p/(l - p ) . Específicamente, snpbngase que n = 2 y, por
tanto, k = O, 1, o 2. Desígnese los tres valores correspondientes d e i por a , b
y c . Demostrar que E ( ? ) = p / ( l - p ) da como resultado una contradicción al
observar lo que sucede a la izquierda y a la derecha de esta ecuación cuando
p + 1.
14.34. L’erificar que los estimados de los mínimos cuadrados Cy y ,8 como se
dan enlas ecuaciones (14.7) y (14.8) soninsesgados.
14.35. Verificarlas expresionespara V(&) y V@), como se danen la
ecuación (14.9).
14.36. Suponer queE(Y) = @ X 2+ PX + y , donde X estA preasignada. Con
base en una muestra(xi,Yi),i = 1 , .. . , n, determinar los estimados d e mínimos
cuadrados d e los p a r h e t r o s cy, ,D y 7 .
14.37. Con ayuda de la tabla 7, obtener una muestra d e tamaño 20 d e una
variable aleatoria que tenga distribución N(2,4).
a) Supóngase que esta muestra se obtuvo de unavariable aleatoria que tiene
distribución N(cy,4). Usar los valores muestrales para obtener unintervalo de
confianza d e 95% para a.
b ) Lo mismo que a) excepto que se supone que la muestra proviene d e la
distribución N ( a , P 2 )con P2 desconocida.
c) Comparar las longitudes d e los intervalos de confianza en a ) y b ) y comen-
tar.
15.1 Introduccidn

En este capítulo analizaremos otra manera dle abordar el problema de


hacer una afirmación acerca de unparámetrcl desconocido asociado con
una distribución de probabilidades conbase en una muestra aleatoria.
En vez de encontrar un estimado para el parámetro, a menudo será
conveniente formular una hipótesis sobre un valor para éste y luego
usar la información de la muestra para confirmar o rechazar el valor de
la hipótesis. Los conceptos que se presentan en este capítulo pueden
formularse sobre una base teórica correcta. Sin embargo, no tratare-
mos este tema desde un punto de vista formal. En su lugar, conside-
raremos varios procedimientos que son intuitivamente muy atractivos.
Estudiaremos algunas propiedades delos procedimientos sugeridos, pe-
ro no intentaremos indicar por qué deberán preferirse algunos métodos
propuestos en vez de una alternativa. El lector interesado puede ob-
tener un fundamento más teórico d e algunos d e estos procedimientos
consultando las referencias que se sugierenal final del capítulo.
Consideremos el ejemplo siguiente.
418 Pruebas de hipótesis 15.1

EJEMPLO15.1. Un fabricante se ha dedicado ala producción d e pin-


zas que se usarán en ciertas condiciones d e tensión. Se ha encontrado
que la duración (en horas) esosde artículos está distribuida normalmen-
te, N(100,9). Se ha introducido un nuevo sistema de fabricación, cuyo
objetivo es alargar su duración. Es decir, se espera que la duración X
(correspondiente alos artículos producidoscon el nuevo método) tenga
una distribución N ( p ,9), donde > 100. (Supongamos que la varianza
permanece igual. Esto significa, esencialmente, que la variabilidad del
nuevo proceso es la misma que la del antiguo.)
Así, el fabricante y el comprador potencial estPn interesados en pro-
bar la siguiente hipótesis:

Ho: p = 100 contra H I : 11 > 100.


(Estamoshaciendo la suposicióntácita de que el nuevoprocesono
puede ser peor queel antiguo.) I10 se llama hipdtesis nula, y H1 hi$dtesis
alternativa.
Esencialmente estamos encarando un problema similar a uno ex-
puesto en el capítulo 14. Estamos estudiando una variable aleatoria y
no conocemos el valor de un parámetro asociado con su distribución.
Este problema se podría resolver comolo hicimos antes, al estimarsim-
plemente p . Sin embargo, en muchas situaciones en realidad estamos
interesados en tomar una decisidn especijica: ¿deberíamos aceptar o re-
chazar la hipótesis Ho? A s í , no volveremos a tratarlos conceptos previos
d e estimación, sino que procederemos a desarrollar algunos conceptos
especialmente apropiados para resolver el problemaespecífico que tra-
tamos.
Empezamos por obtener una muestra de tamaño n d e la variable
aleatoria X . Es decir, elegimosal azarn artículos fabricadospor el nuevo
proceso y anotamos cuPnto tiempo funciona cada uno, así obtenemos la
muestra X I , . . . ,X n . Luego calculamos el promedio aritmético d e esos
números, digamos X. Puesto que se sabe que X es un “buen” estimado
d e p , parece razonable que basemos nuestra decisión de aceptar o
rechazar 110 en el valor d e X . Puesto que estamos interesados en la
discriminación entre p = 100 y los valores d e p mayores que 100, parece
razonable que debamos rechazar 110si (X- 100) es “demasiado grande”.
A s í , llegamos al siguiente procedimiento (sobre una base estrictamen-
te intuitiva), llamado usualmente prueba d e la hipótesis: se rechaza Ho
si X - 100 > C‘ o, de manera equivalente, si > C (donde C es una
constante por determinar),y se acepta en cualquier otro caso.
15.1 Zntroduccwn 419

Nótese que la forma particular de la prueba que estamos usando fue


sugerida en parte por la hipótesis alternativa H I . Este es un punto al
cual nos referiremos más adelante. Si en la situación anterior hubiése-
mos estado interesados en probar HO: p = 100 contra 11; : p # 100, ha-
bríamos usado la prueba: rechazar HO si I X c’.
- 1001 > Ahora estamos
en una posición análoga a la que nos encontrábamos cuando construi-
mos un estimado 8 para el parámetro O. Nos preguntábamos: ?cuán
“bueno” es el estimado? ?Qué propiedades deseables tiene? Podemos
formular preguntas similares acerca d e la prueba que hemos construi-
do. {Cuán “buena” esla prueba? {Qué propiedades posee? ?Cómo la
podríamos comparar con otra posible pruebal?
A fin de responder tales preguntas, primero debemos verificar que
no existe solución, en el sentido usual, para el problema que estamos
proponiendo. Es decir, por simple inspección d e algunos d e los artícu-
los que se están fabricando nunca podemos estar seguros de quep = 100.
(N6tese otravez la analogía con el problema d e estimación: no espera-
mos que nuestro estimado6 sea igual aO. Simplemente esperamos que
esté “cercano” a O.) Lo mismo es cierto aquí: una prucba no conducirá
siempre a la decisión correcta, pero una “buena” prueba conduciría “la
mayoría d e las veces” a la decisión correcta.
Seamos más precisos. Básicamente hay dos tipos de error que pode-
mos cometer. Podemos rechazar 110cuando de hecho 110sea verdadera;
es decir, cuando la calidad d e las pinzas no haya mejorado. &to pue-
de ocurrir debido a queescogimos unas cuantas pinzas más resistentes
en nuestra muestra que no son típicas de la producción completa. O,
alternativamente, podemos aceptar 110 cuanldo de hecho HO sea falsa;
es decir, cuando la calidad de las pinzas haya mejorado. Hagamos la
siguiente definición formal:

Definición.
Error t$o 1: rechazar Ho cuando 110 es verdadera.
Error tipo 2: aceptar Ho cuando HO es falsa.

Debe ser evidente que no podemos evitar por completo cometer esos
errores. Trataremos de mantener relativamente pequeña la probabili-
dad decometerlos.
Para enfrentar este problemapresentaremlos la muy importante no-
ción d e función d e operación característica (de la prueba, digamos L ,
que es la siguiente función del parámetro (desconocido)p.
420 Pruebas de hipótesis 15.1

Definición. Lafuncidn de ofieracio'ncaracterídicu (función OC) d e la


prueba anterior se define como

Es decir, L ( J ) es l a probabilidad de aceptar H o , considerada como una


función d e p .
Obseruacidn: Otra función, muy relacionada con la función OC, es laJimci6n
de potencia definida por

Por lo tanto, H ( p ) = 1 - L ( p ) . Usaremos la función OC para describir


propiedades dela prueba aunque esto se podría hacer fácilmenteen términos
d e l a función d e potencia.

En el caso específico que se está considerando, podemos obtener l a


siguiente expresión explícita paraL : si p es el valor verdaderod e E ( X ) ,
entonces ,u tiene distribución N ( p , 9/n). Luego,

donde, como siempre,

-2/3
@(S) = -J s e dx.
6 "o0

Las siguientes propiedades deL ( p ) se verifican con facilidad:


a) L(-m) = 1.
b ) L(+ooj = o.
c) d L / d p < O para toda p . Por tanto, L es una función estrictamente
decreciente d e p.)

A s í , la gr5fica d e l a función L tiene en general la apariencia d e la


curva d e la figura 15.1. (La forma específica depender& por supuesto,
d e la elección d e la constante C y del tamaño de muestran.)
15.1 Introduccwn 42 1

Considérese 1 - L(100). Este número representa la probabilidad d e


rechazar Ho cuando Ho es verdadera. Es decir, 1- L( 100) representa la
probabilidad de un error del tipo1. Si sedan n y C, entonces 1- L( 100)
está determinada completamente. Por ejemplo, si tomamos n = 50 y
C = 101, obtenemos

1 - L(100) = 1 - G ___-
3
loo6 0 1
rol

= 1 - G(2.37) = 0.009.

Así, estapruebaparticularnosconduciríaarechazar H o enforma


errónea alrededor del0.9% d e las veces.
A menudo consideramos el problema desde un punto de vista algo
diferente.Supóngaseque se da eltamañodemuestra n y que la
probabilidad de un error del tipo1 está esfiecijicada, es decir, 1- L( 100) =
(Y o, de manera equivalente, L(100) = 1 - (Y. ?Cuál sería el valord e C?
Específicamente, si tomamos n = 50 y elegimos (Y = 0.05, obtenemos
C como solución de la siguiente ecuación:

0.95 = @
c - 100

De la tabla d e la distribución normal estoda como resultado


C - 100
1.64 = &O.
3

Por tanto,

C = 100 + -= 1010.69
3( 1.64)
&O

Así, si rechazamos la hip6tesis cada vez que el ]->remedio muestra1 es ma-


yor que 100.69, estamos garantizando que un error del tipo l ocurrirá
<-
422 Pruebas de hipótesis 15.1

L b )= 1
(100,0.95)

I”
p= 100 FIGURA15.2
con una probabilidad de 0.05. Puesto que ahora se conocen n y C , la
función OC está completamente especificada. Su gráfica se muestra en
l a figura 15.2. El valor 0.05 se llamanivel de signiJicucio’nd e la prueba (o,
algunas veces, tamuño de la prueba). En la mayor parte d e los problemas
se supone que este valor es menor que O. 1).
Nótese que a l especificar a y el tamaño d e l a muestra n, sólo se
debe determinar la constante C a fin de especificar completamente la
prueba. Hicimos esto insistiendo en que la gráfica d e la función OC
pasa a través de un punto especificado, a saber (100, 0.95). (Debe ser
evidente cómo se modificaría el procedimiento anterior si hubiésemos
escogido un valor distintoa 0.05 para el nivel d e significación.)
Ahora que la función OC está completamente especificada, podemos
encontrar las coordenadas de cualquier otro punto. Por ejemplo,Ccuál
es el valor d e L(102)?

L(102) = @ ( 100.69 - 102


3

@(-3.1) = 0.00097

Así, para l a prueba quese considera,la probabilidad de aceptar110: p =


100 cuandodehecho p = 102 es igual a 0.00097. Portanto, la
probabilidad de un error del tipo 2 es muy pequeña si p = 102. Puesto
que L es una función decreciente de /f., observamos que L ( L L <
) 0.00097
para toda 11 > 102.
Si queremos escogera n y C , debemos especificar dos puntos a través
d e los cuales pasa la gráfica d e l a fbnción OC. De esta manera podemos
controlar no sólo la probabilidad de error del tipo 1, sino también la
probabilidad de error del tipo2.
Supóngase que en el ejemplo que estamos considerando deseamos
evitar el rechazo d e 110 cuando p 2 102. A s í , podemos hacer L(102) =
0.01, por ejemplo, y puesto que L es una función decreciente de p, se
deduce que L ( p ) 5 0.01 para IL > 102. (Vease la Fig. 15.3.) Si pedimos
15.1 Introduccidn 423

(100,0.95)

(102,O.Ol)
r
r=100 r=102 FIGURA15.3
tambiCn un nivel d e significación d e 0.05, obtenemos las siguientes
ecuaciones para la determinación d e n y C:

L(100) = 0.95,L(102) == 0.01

Estas ecuaciones se convierten en

De las tablas d e la distribución normal encontramos queestas expresio-


nes son equivalentes a

c - 100 6, (7 - 102
1.64 =
3
-2.33 =-
3
6.
A fin d e eliminar n, dividimos una ecuación entre la otra. Así,

(C- 102)(1.64) = (-2.33)(C - loo),

de la cual obtenemos

Una vez que se conoce C, podemos obtener n elevando al cuadrado


cualquiera d e las ecuaciones anteriores.
Por lo tanto,

n= [ -1.64)
,,,] =
3(
34.635.
424 Pruebas de hipótesis 15.2

15.2 Formulación general: distribución normal


con varianza conocida

Hemos considerado con cierto detalle un ejemplo relacionado con una


hipótesis que implica el promedio de una variable aleatoria distribuida
normalmente. Mientras algunos de los cálculos están ailn frescos en
nuestra mente, generalicemos este ejemplo como sigue.
Sup6ngase queX es una variable aleatoriacon distribución N ( / La, 2 ) ,
donde n2se supone conocida. Para probar 110: p = p o contra 111: CL >
po proponemos lo siguiente: obtener una muestra de tamaño n, calcular
el promedio muestra1 X y rechazar B o si X > C, donde C es una
constante por determinar. La función OC de esta prueba está dada por

L ( p )= P ( X 5 C ) = cp (""J;;)
U .

La forma general dela funcibn OC es como se indica en la figura 15.4.

I L
p=C

FIGURA15.4

Las propiedades generales deL ( p ) se establecen fácilmente (véase el


Prob.15.4):
a) L(-oo) = 1.
b) L ( + m ) = o.
c) L ' ( p ) < O y, por tanto, L es una función estrictamente decreciente
d e p . (15.1)
d ) ~ " ( p=) O para p = C y, por tanto, la gráfica tiene aquí un punto
d e inflexión.
e ) El aumento den hace que la curva tenga más pendiente.

A fin d e proceder, debemos considerar dos casos.


15.2 Formulacióngeneral: distribución normal con varianzaconocida 425

Caso 1. Si se da n y especificamos el nivel d e significación d e la


prueba (es decir, la probabilidad de un error del tipo 1) con a l g h valor
cy, podemos obtener cl valor de C al resolver la siguiente ecuación:

2
Dcfiniendo K a en la relación l / f i J f $ e-' I 2 d t = (Y,
podemos escri-
bir lo anterior como

donde K l - , puede obtenerse de


la tabla d e distribución normal. Enton-
ces, rechazamos Ho si

Caso 2. Si vamos a determinar n y C , debernos especificardos puntos


sobre la gráfica d e l a curva OC: 1 - L(p0) = (Y,
el nivel de significación,
y L(p1) = O, ,la probabilidad de un error del tipo 2 para P = p 1 . Luego,
debemos resolver las ecuaciones siguientes paran y C:

Estas ecuaciones pueden resolverse para C y n! como se indicó anterior-


mente. Obtenemos

donde K 1 - , y K p ya se han definido.


En el procedimiento bosquejado, hemos tratado l a hipótesis alterna-
tiva H I : p > 100 (o, en el caso general, I-1 > p ' . ~ )En
. otro contexto po-
dríamos considerar l i o : p = p o contra Hi
: p :< po o H a : p = po contra
H y : p # pa. Debe ser evidente cómo modificamos la prueba anterior
para tal hipótesis alternativa. Si consideramos; H i : p < p a , rechazaría-
mos H O si x < C y la función OC se definiera por
426 Pruebas de hipótesis 15.2

L(p) = P ( S 2 C ) = 1 - @ (-
U 6).
Si consideramos 11:: p # /LO, rechazaríamos 110 cada vez que I X -pol >
C y, por tanto, la función OC se definiría como

Si escogemos el mismo nivel d e significación (Y para cada una de las


pruebas anteriores y dibujamos las gráficas d e las respectivas funciones
OC en el mismo sistema de coordenadas, obtenemos lo siguiente ( A
corresponde a H I , 1~a 11; y D a 11;):

FIGURA
15.5

La figura 15.5 nos da un medio para compararlas tres pruebas que


estamosconsiderando.Todas las pruebastienenelmismo nivel d e
significación. (Debe comprenderse claramente que C es sólo un símbolo
genérico para una constante y no ser%l a misma en todos los casos. Lo
importante es que en cada uno deellos se ha escogido C de modoque
l a prueba tenga el nivel d e significación (Y.)
Si I L > /lo, entonces l a prueba A cs mejor quelas otras dos, puesto que
dará un valormás pequefio para la probabilidad de un error del tipo 2.
Sin embargo, si 11 < P O ,la prueba A es la peor delas que se están consi-
derando, mientras que la prueba B es l a mejor. Finalmente, la prueba
D es aceptable en general y aún puede ser mejorada en cualquier ca-
so específico con la prueba A o la prueba B. Por tanto, obs6rvese que
es muy importante tener en mente una hipótesis alternativaespecífica,
debido a que la prueba que escojamos puede depender de esto. (Sólo
15.2 Formulacidn general:distribucidn normal con varianza conocida 42 7

comparamos las pruebas que tienen el mismo nivel de significación; esto


no es necesario en absoluto y la comparación resulta algo vaga si usamos
pruebas que tienen niveles d e significación diferentes. Nótese la seme-
janza con nuestra comparación deciertos estimados: sólo comparamos
las varianzas d e los estimados que eran insesgados.
En muchos casos es evidente cuál hipótesis alternativa deberíamos
considerar. En el caso anterior, por ejemplo, posiblemente sabemosque
el nuevo proceso defabricación produciría pinzas con la misma durabi-
lidad o más y, por tanto, usaríamos la prueba A como sugeríamos. (Si el
nuevo proceso produjera pinzas d e calidad inferior, nuestra pruebase-
ría muy mala). Si no se garantiza ninguna d e tales hipótesis sería mejor
usar una prueba tal como D: rechazar H o si - pol > C. Las prue-
bas como A y B se llaman pruebas unilutemles, mientras que una prueba
como D se llama prueba biluterul.
Al considerar hipótesis alternativas podríamos encontrarla siguiente
analogía útil. Supóngase que una persona s e pierde de un lugar M y
sabernos que el individuo ha ido o bien a la izquierda o a la derecha de
M , manteniéndose en una trayectoria rectilínea.

Si 10 personas están disponibles para la búsqueda, <cómo deberían


dispersarse?. Sí nada se sabe con relación a la ubicación del individuo,
podría ser razonable enviar un grupo5 personas
de en cada una de esas
direcciones, luego despachar un grupo de búsqueda muy efectivo, pero
no muy fuerte, tanto a la izquierda como a la derecha. Sin embargo, si
hay algún indicio de quela persona ha caminado laaizquierda, entonces
posiblemente todos, o la mayor parte d e los hombres disponibles, debe-
rían ser enviados a la izquierda, haciendo una búsqueda muy efectiva,
pero ineficaz a la derecha. Otras consideraciones podrían también in-
fluir en el uso de los recursos disponibles. Por ejemplo, supóngase que
la trayectoria a la izquierda conduce a un terreno plano con bosque,
mientras que la trayectoria a la derecha sigue el borde de unprecipicio
profundo. Es obvio que eneste caso la mayor búsqueda se concentraría
a la derecha, debido a que las probabilidades d e estar perdido de este
lado son mucho mayores quelas de la izquierlda.
La analogía debería ser evidente. Al probar hipótesis también debe-
mos interesarnos en las consecuencias de nuestradecisión para rechazar
o aceptar 110. Por ejemplo, ?es tan importante el error que cometemos
42 8 Pruebas de hipótesis 15.2

al aceptar algunas pinzas que son de mala calidad (creyendo que 110 lo
son), como no aceptar las pinzas q u e son de buena calidad (creyendo
que no lo son)?

O b s e r v a c i h En la formulaci6n anterior sugerimos que a menudo preasig-


namos el nivel d e significación de la prueba. Esto se hace frecuentemente;sin
embargo, existe otro planteamiento del problema qne es muy comiln y que
deberemos analizar.

Volvamos alejemplo15.1,dondeprobamos 110: p = 100 contra


171: p > 100. Supóngase que sólo obtenemos una muestra de tamaíío
50, calculamos el promedio muestra] X y encontramos que es iglal a
100.87.?Deberíamosaceptar o rcchazar H o ? Podemosargumentar
como sigue: si p = 100, entonces X tiene distribución ~ ( 1 0 0&l.
, Así,
podemos calcular,

100.87 - 100
P ( X 2 100.87) = P
(" 3 1 ° 0
~

3 h 0 )

= 1 - a(2.OG)= 0.019699.

Puesto que 0.01 < 0.019699 < 0.05, diremos que el valor observado es
significativo al nivel del 5%, pero no alnivel del 1%. Es dccir, si usamos
a: = 0.05, rechazaríamos 110,mientras, que al mismo tiempo, si usamos
a: = 0.01, no deberíamos rechazar 13,.
Por decirlo de modo diferente, si p = 100, obtenemos un resultado
que ocurrirá sólo alrededor del 1.9% d e las veces. Si creemos que para
aceptar 110 un resultado debería tener por lo menos una probabilidad
d e ocur-rir de 0.05, entonces la rechazamos. Si estamos satisfechos con
una probabilidad de 0.01 la aceptamos.

Obse?vacio',l: La prueba anterior estipulóque I10 debería ser rechazada siem-


pre que ,% > C.' Suponiendo que el tamaño muestra1 n, = 2, el criterio anterior
se reduce a ( S I + ,Y2)/2 > C o, equivalentemente, (Xl + X , ) > b. Luego, el
conjunto d e valores muestrales posibles (21,22) se ha dividido en dos regiones:
R = { ( ~ 1 , ~ 2 ) 1+~22
1 > b} y R .
La región específica R depende por supuesto, delvalor d e b, que a su vez
depende del nivel de significación de la prueba R, la región d e rechazo, que
algunas vcces se llama regwn critica de la prueba. (Véase la Fig. 15.6.)
15.3 Ejemplos adicionales 42 9

FIGURA15.6

En general, una prueba puede describirse en terminos d e su región


crítica R. Es decir, rechazamos 110 si y sólo si ~ ( q ,. .. ,z n ) E R.

15.3 Ejemplos adicionales

En vez d e formular una teoría general para la prueba de hipótesis


que existe y es muy extensa), considerarem’os algunos ejemplos. En
cada uno delos casos, la prueba que propondremosserP intuitivamente
atractiva. No se harA ningún esfuerzo para indicar que una prueba
especial es mejor en algún sentido.

EJEMPLO15.2. Secomparandos proces’os de producción. El re-


sultado del proceso A puede caracterizarse como una variable aleato-
ria X con distribución N ( p Z ,a:), mientras que el resultado del proceso
B puede caracterizarse como una variable aleatoria Y con distribución
N ( p y ,u,”).Supondremos que se conoce la variabilidad intrínseca en ca-
d a u n o d e los procesos, medida por la varianza. Deseamos probar las
hipótesis Ho: px = p y ycontra la hipótesis alternativa H I : px - p y > O.
Obtenemos una muestra de tamaño n d e X, digamos X I , . . . , X n ,
y una muestra de tamaño m d e Y , sea Yl,. . . ,Ym. Calculemos los
respectivos promedios muestrales R y Y y propongamos la prueba

siguiente para probarlas hipótesis anteriores.


x
Rechazamos Ho si - Y > C, donde C es una constante escogidad e

/d-
modo quela prueba tenga unnivel de significación específicoigual a a.
La variable aleatoria 2 = [(X - Y ) - ( F , - ~ py)]
tiene distribuciónN ( 0 , l). Definiendo p = p z --py, podemos expresarl a
de 43 O Pruebas hipótesis 15.3

función OC d e la prueba anterior como una función de


p , d e l a manera
siguiente:

Ahora p z = p Y es equivalente a 11 = O. Por lo tanto, para determinar C


debemos resolver l a ecuación

L ( 0 ) = 1 - cr

Por lo tanto,

donde ICa estci definida, como antes, por la relación cr = (l/&JF;


2
e-' / 2 d t . Luego,

(No intentaremos resolver el problemade determinar óptimamente ny


na. Una exposición d e este problema se encuentra en Derman y Klein,
Probability and Statistical Inference for Engineers, Oxford University Press,
Nueva York, 1959.)

EJEMPLO15.3. U n fabricante surte un pedido fusibles,


de d e los cua-
les el 90% aproximadamente funcionan bien. Se inicia un nuevo proceso
con el objetode aumentarla proporción defusibles que funcionen bien.
Así, deseamos probarla hipótesis Ho: p = 0.90 contra H I : p > 0.90, don-
d e p es la proporción d e fusibles que funcionan correctamente.(Es decir,
15.3 Ejemplos adicionales 43 1

estamos probando la hipótesis de que no ha ocurrido ninguna mejoría


contra la hipótesis de que el nuevo proceso es superior.) Obtenemos
una muestra de 50 fusibles fabricados con el nuevo proceso y conta-
mos el número de fusibles que funcionan correctamente, digamos X .
Propongamos la prueba siguiente:

Rechazar HO siempre queX > 48 y acept,arla en caso contrario.


Suponiendo que la variable aleatoria X tiene una distribución bino-
mial con parámetro p (que es una suposició~~ realista si la muestra se
toma de un lote muy grande), obtenemos la siguiente expresi6n parala
función OC

L(p) = P(X 5 48) = 1 - P ( X 2 49)

despues de algunas simplificaciones algebraicas. Por lo tanto, tenemos


lo siguiente
a) L ( 0 ) = 1. c) L’(p) < O para toda p, O < p < 1.
b ) L ( 1 ) = O. d ) L”(p) = O s i p = 48/49.

[Las propiedades c ) y d) se verifican fá-


cilmente con una derivaci6n directa.]
A s í , la gráfica de la anterior función L
tiene la forma d e la curva que se mues-
tra en la figura 15.7. El nivel d e signi-
ficación a de esta prueba se obtiene al
calcular 1 - L(0.9). Obtenemos

a = 1 - L(0.9)
= (0.9)49[50 - 44.11
FIGURA15.7
= 0.034
Obseruacwnes: a) El ejemplo anterior se puede generalizar como sigue. Su-
póngase queX es unavariable aleatoria distribuida binomialmente con base en
432 Pruebas de hipótesis 15.3

n repeticiones de un experimento con parámetro p . Para probar la hipótesis


110: p = PO contra H I : p > PO, proponemos la prueba siguiente.
Rcchazar HO siempre queX > C , donde C es una constante por determinar.
(Por tanto, aceptarHo siempre queX 5 C.)
La función OC d e esta prueba serád e la forma

(15.2)

Las siguientes propiedadesd e L se verifican fácilmente. (VCase el h o b . 15.5.)


I) L ( 0 ) = 1;L(1) = o
2) L,'(p) < O para todap , O < p < 1. (Por tanto, L es estrictamente decrecien-
te.)
3 ) L"(p) = O s i p = C / ( n - 1). [Luego, L tiene un punto de inflexión en
C / ( n - I).]
b ) Hemos dicho que en algunos casos podemos aproximar l a distribución
binomial conla distribución d e Poisson. Es decir, si n es grande y p es pequeña,
P ( X = k ) 21 e - n p ( n p ) k / k !Usando esta fórmula d e P ( X = k ) , encontramos
que la función OC para la prueba propuesta anteriormente se reduce a

(15.3)

Las propiedades siguientes d e R también se pueden verificar con


facilidad. (Véase el Prob. 15.6.)
4 ) R(0) = 1; R(1) = o
5) R'(p) < O para toda p , O < p < 1.
6) R " ( p ) = O s i p = C / n .
7) R ( C / n )es una Lunci6n solamente d e C y n o d en.

Reconsideremos el problema de probar 110: IL = /LO contra H I : I L >


/LO, donde S tiene distribución N ( p , u 2 ) .Previamente suponíamos que
u2 era conocida. Eliminemos ahoraesta restricción.
Nuestra prueba anterior rechazaba110siempre que( X - r ~ o ) J ; ; / o >
G; C estaba determinada considerandoel hecho de que( X - p o ) f i / u
tiene distribución N ( 0 , l ) si p = /LO.
Tal como construimosun intervalo d e confianza parap cuando u2 era
desconocida, estimemos ahorau' a partir d e b2 = [ l / ( n - l)]Cy=l("i;-
15.3 Ejemplos adicionales 433

x)2.Usernos una prueba análoga ala propuesta anteriormente: recha-


cemos H O siempre que ( X - p)fi/& > C. Piara determinar C usemos
el hecho de que(x- PO),/%/& tiene una distribuciónt de Student con
(n - 1) grados de libertad si p = p o . (Véase el Teorema 14.3.)
Sea (Y el nivel d e significación prefijado. Lutego, Q = P[(.,T-po),/Z/&
> C] implica que C = in-], se obtiene d e la tabla de la distribución
t deStudent. (VCase la Fig. 15.8.) Rechazamos 110 cada vez que
X > &tn-l,1-an-2 +
1
[LO, así obtenemos nuestra prueba.

EJEMPLO15.4. Supóngase que X, la precipitación pluvial anual en


cierta zona, estd distribuida normalmente con E(A’) = 30.0 pulgadas.
(Este valor se ha establecidode un gran registro histórico de datos me-
teorológicos.) En años recientes, parece evidlente que ciertos cambios
climatológicos afectan, en otras cosas, la precipitación anual. Seestable-
ce la hipótesis de que de hecho la precipitación anual ha aumentado.
En particular deseamos probar Ho: p = 30.0 contra H I : 1-1 > 30.0. La
varianza se supone desconocida, puesto quelos cambios climatológicos
sugeridos también pueden afectar la variabilidad d e la lluvia caída, y,
por tanto, los datos anteriores sobrela varianza no son significativos.
Supongamos que en los ocho años anteriores se ha registrado la
siguiente precipitación anual (pulgadas):

34.1, 33.7, 27.4, 31.1, 30.9, 35.2, 28.4, 32.1.

Cálculos directosquedan x
= 31.6 y e2 == 7.5. De la tabla d e la
distribución t encontramos que

Luego,

Por tanto, no rechazamosNo al nivel d e significación d e 0.05.


434 Pruebas de hipótesis 15.4

15.4 Prueba para la bondad de ajuste

En la mayoría d e nuestras exposiciones supusimos que la variable aleato-


ria considerada tiene una distribuciónespecífica. En el capítulo anterior
y en las primeras secciones d e &e aprendimos c6mo resolver el proble-
ma de tener un parametro desconocido asociado con una distribución
d e probabilidades.
Sin embargo, puede suceder que aún no estemos seguros sobre la
forma general d e la distribución que se tiene. Consideremos algunos
ejemplos.

EJEMPLO15.5. Unos buques mercantes de cierto tipo estuvieron ex-


puestos durante 400 días a riesgos d e accidentes por tormentas, hielo,
incendio, encallamiento, avería d e máquinas, etc. El número de acci-
dentes, digamosX, de cada barco, puede considerarse como una varia-
ble aleatoria. Se registraron los siguientes datos:

Número de accidentes (X): I o 1 2 3 4 5 G


Número de barcoscon X accidentes: I 1448 805 206 34 4 2 1

Los datosanteriores ?justifican que X tieneunadistribuciónde


Poisson?

EJEMPLO15.6. Supóngase que se tienen 20 muestras d e u n tipo


especial d e cables y que las resistencias se miden en ohms. Se obtienen
los valores siguientes:

9.8,14.5,13.7,7.6,10.5,9.3,11.1,10.1,12.7,9.9,
10.4,8.3,11.5,10.0,9.1,13.8,12.9,10.6,8.9,9.5.

Si R es la variable aleatoria d e la cual se obtiene la muestra anterior,


?tenemos razón al suponer que R está distribuida normalmente?

EJEMPLO15.7. Seprueban 20 tuboselectrónicos y seanota la


duración de cada uno de
ellos (en horas):

7.2,37.8,49.6,21.4,67.2,41.1,3.8,8.1,23.2,72.1,
11.4,17.5,29.8,57.8,84.6,12.8,2.9,42.7,7.4,33.4.
15.4 Prueba para la bondad de ajuste 435

Los datos anteriores ¿son consistentes con la hipótesis de que T , la va-


riable aleatoria conla que seestá haciendo el muestreo,está distribuida
exponencialmente?

Los ejemplos anteriores son tipicos de una. gran clase d e problemas


que aparecen con frecuencia en aplicaciones. IHay varias técnicas esta-
dísticas conlas cuales se pueden analizartales problemas; a continuación
consideraremos algunas d e ellas.
El problema de probarla hipótesis de que una variable aleatoria tiene
cierta distribución específica puede considerarse como un caso especial
del siguiente problema general.
Considérese nuevamente las condiciones que dan origen ala distri-
bución multinomial (véase la Sec. 8.8). Un experimento E se efectfia
n veces. Cada una de las repeticiones d e E Ida como resultado uno y
s610 u n o d e los eventos A;, i = 1,2,. . . , k . Supbngase que P ( A ; ) = pi.
Sea n; el número de veces que ocurre A; entre las n repeticiones d e
~ , n+l- . - + n k = n.
Deseamos probar la hip6tesis Ho: p; = pi,, i = 1,.. . ,k , donde p;, es
un valor específico. Karl Pearson (1900) intr’odujo la siguiente prueba
de “bondad deajuste” para probarla hipótesis anterior:

k 2
Rechazar Ho siempre
que D2 = (ni - ripio)
- > c, (15.4)
i=l nPio

donde C es una constante quese va a determinar.

Observaciones: a) Puesto que E ( n i ) = np;, sipi = pi,, este criterio para probar
tiene u n considerable atractivo intuitivo. Exige que rechacemos Ho siempre
que la discrepancia entre los valores observados n; y los valores esperados
np;, sea “muy grande”.Algunas veces el estadístico D2 anterior se escribe d e
manera muy sugerente como Ci=l(o; k - e i ) ’ / e ; , donde o; y e ; representan,
respectivamente, el valor observado y esperado de n;.
b ) Es importante establecer que D2 es u n estadístico (es decir, una hnción
d e los valores observados ni, . . . , n k ) y es, por tanto, unavariable aleatoria. En
realidad, D2 es unavariable aleatoria discreta que toma un gran número finito
d e valores. La distribución actual d e D2 es muy complicada. Por fortuna, hay
una aproximacióndisponible para la distribución d e D 2 , v5lida si n es grande,
y que hace muy útil el procedimiento sugerido.
436 Pruebas de hipótesk 15.4

Teorema 15.1. Si n es suficientementegrande, y si pi = p i o , la


distribución d e D 2 tiene en forma aproximada la distribución x-
cuadrada con ( b - 1) grados de libertad.

Demostruci6n: El argumento siguienteno es una demostración riguro-


sa. Sólo es un intento de hacer plausible el resultado.
Consideremos un caso especial, es decir, b = 2. Entonces,

Ahora “1 = Ylj, donde

Y13 = 1 si Alocurre en la j-ésima repetición,


=O encualquierotro caso.

Así, 721 puede expresarse como l a suma de n variables aleatorias in-


dependientes y de acuerdo conel teorema del límite central, tiene
aproximadamente una distribucibn normal si n es grande. Además,
E ( n 1 ) = n p l o y V(nl) = n p l o ( l - p l o ) si plo es el valor verdadero de
pl. Por tanto, si pl = p l o , entonces para n grande la variable aleato-
ria (nl - nplo)/Jnplo(l - plo tiene aproximadamente la distribución
N ( 0 , l ) . Luego, de acuerdo con el teorema 10.8 para una n grande, la
variable aleatoria
r 1 2

tiene aproximadamente la distribución x!


15.4 Prueba para la
debondad ajuste 437

Hemos demostrado que si n es suficientemente grande, D 2 (con


IC = 2) tiene aproximadamente la distribucih x:. Pero precisamente
esto es lo que sosteníamos en el teorema. La demostración para una
IC en general sigue la misma línea: debemos demostrar que D 2 puede
expresarse como la suma de cuadrados de (k - 1) variables aleatorias
independientes, cada una con distribución N ( 0 , l ) si n es grande, y si
p; = p;, y, recurriendo al teorema 10.8, enco:ntramos que se deduce el
resultado anterior.

Podemos usar el resultado ya establecido para responder a la pre-


gunta “cuán grande” debería ser D 2 a fin de rechazar la hipótesis
€I():pi = pio.
Supóngase que queremos obtener una probabilidad de un error del
tipo 1 (esdecir,elnivel d e significacibn)igual a 0.05. Estosignifica
que esperamos rechazar 110 alrededor del 5% d e las veces, cuando en
realidad HO es verdadero. Luego, elegimos C para satisfacer

Puesto que D 2 tienedistribución si pi = pio, podemosobtener


el valor d e C d e la tabla d e la distribucih X-cuadrada; es decir C 1

2 2
o.95; donde ~ k - o.95
~ , está definida porla relación

donde gk-1 (z)es la fdp de una variable aleatoria con distribuciónxi-l.


(Véase la Fig. 15.9.)
Usemos las ideas que desarrollamos para responder algunas pregun-
tas planteadas al comienzo d e esta sección: <cómo podemos encontrar
una prueba para decidir si se acepta o se rechaza la hipótesis de que se
43 8 Pruebas de hipdtesis 15.4

tomó una muestra particular de una variable aleatoria con una distribu-
ción especifica?
En este punto debemos hacer una distinción entre los dos tipos d e
problemas. Simplemente podríamos formular la hipótesis de que la
variable aleatoria que se muestrea tiene alguna distribución normal,sin
especificar los parámetros implicados.
O podríamos ser más explícitos y formular la hipótesis de que la
variable aleatoria que se considera tiene una distribución normal con
promedio y varianza específicos. Los dos problemas pueden tratarse de
manera semejante, peroel segundo (cuandoespecificamos completamente
la distribución hipotktica) es un poco más simple y lo consideraremos
primero.

Caso 1. Prueba para una distribución completamenteespecificada.

EJEMPLO15.8. Supóngase que creemos que la duración T de bom-


billas eléctricas está distribuida exponencialmente con parámetro ,B =
0.00.5. (Es decir, el tiempo esperado para que ocurra la falla es d e 200
horas.) Sacamos una muestra de 150 bombillas, las probamos y anota-
mos el tiempo en quese queman, digamosT I , . . . ,T150. Consideremos
los cualro eventos mutuamente excluyentes:

A l : O < T < 100; A2: 100 < T < 200;


A3: 20g 5 T < 300; A4: T 2 3 0 0 .

Supóngase que registramosn;, el número deveces (entre los 150 tiem-


pos para que se presente la falla) que ocurrió el evento A ; , y encontra-
mos nl = 47, n2 = 40, n3 = 35 y n4 = 28. A fin de evaluarel estadístico
D 2 debemos calcular p ; , i = 1,2,3,4.
Ahora.

- 1 - e -0.5 -
pl = P(T 5 100) = 1 - e -0.005(100) - - 0.39,

p2 = P(100 5 T < 200) = 1 - e -0.005(200) - o .39 = 0.24,


-0.005(300)
p3 = P(200 5 T < 300) = 1 - e - (1 - e- O ~ O O 5 ( 2 O O ) ) = 0.15,
p4 = P(T > 300) = e "0.005(300) = 0.22.

Ahora podemos calcular


15.4 Prueba paIra kz bondad de ajuste 439

- (47 - 58.5)2 (40 - 36)2(35 - 22.5)2(28 - 33)2


- = 11.56.*
58.5 22.5 36 - + 33

En las tablas de la distribución X-cuadrada encontramos que P ( D 2 >


11.56) < 0.01, donde D2 tieneaproximad.amente la distribución x-
cuadrada con 4 - 1 = 3 grados d e libertad. Por lo tanto, rechazaríamos
(al nivel del 1%) la hipótesis de quelos datos representan una muestra
de una distribución exponencial con parámetro,f3 = 0.005.

El ejemplo anterior ilustrael procedimiento general que usamos para


probar la hipótesis de que X I , . . . , X n representa una muestra de una
variable aleatoria con una distribución compl.etamente especificada:
a) Dividir la recta real en k intervalos mutuamente excluyentes, A l ,
. . . ,Ak.
b ) Sea N ; el número de valoresmuestrales que caen en A ; , i =
1 , 2,...,k.
c) Sea pio = P ( A ; ) . Esos valores se pued.en calcular puesto que la
hipótesis especifica completamente la distribución.
d) Calcular D2 y rechazar la hipótesis si D“ > C, donde C se obtiene
d e la tabla de la distribución X-cuadrada. Si se requiere un nivel d e
significación a , C = x 2~ - ~ , ~ - ~ .

Observación: No analizaremos como se deben escoger los intervalos A; o


cuántos deberían escogerse. Establezcamos sólo la regla siguiente: si ripio < 5
para cualquier A;, combinar los datos con A;+1 o Ai-1. Es decir, no deseamos
subdividir el espacio muestra1 d e la variable aleatoria c n partes tales que el
níimero esperadod e ocurrencias en cualquier subclivisicinparticular sea menor
que 5. [Una exposición amena d e este problema puede encontrarse en el
artículo d e W. G. Cochran titulado“The ;y2 -Test of Goodness of Fit” publicado
en Ann. Math. Slat. 23,315-345 (1952).]

Caso 2. Prueba para una distribuciónsi deben estimarselos paráme-


tros.

*N. del E . Un resultado m8s exacto d e esta operaci6n es 10.41.


440 Pruebas de hipótesis 15.4

En muchos problemassólo tenemos razones para suponer quel a va-


riable aleatoria quese está muestreando tiene una distribución d e cierto
t@o sin que podamos especificar los parámetros. Por ejemplo, sabemos
que ciertas hipótesis que hemos formulado pueden conducirnos a una
distribución d e Poisson, a una distribución exponencial, etc. A fin d e
aplicar la técnica sugerida enla sección anterior debemosconocer los va-
lores d e los parámetros de la distribución.
Si noconocemos esos valores,el planteamiento obvioes estimar
primero los parAmetros desconocidos,y luego usaresas estimaciones para
evaluar las probabilidades p;. Aparecen dos interrogantes.
u ) ¿Cómo se deberían estinlar los parámetros?
b ) Si se usa @;(es decir, el parámetro estimado) en vez d e p;, en l a
expresión de D 2 , ¿cómo afecta esto l a distribución d e D 2 ? (El hecho
de que afectará la distribución debe ser evidente si comprobamos que
originalmente las pi, eran constantes, mientras que ahora las p; son
ellas mismas variables aleatorias, dando así una estructura mucho más
complicada a la variable aleatoria O’.)
Daremos (sin demostración) algunas respuestas a las interrogantes
anteriores.
u ) Los estimados usados normalmente para los parámetros son los
que se obtienen por el método dela mAxin1a verosimilitud.
O ) Si el número de parámetros estimados es igual a r < b, entonces
para una n grande, la variable aleatoria U 2 tiene otra vez una distribu-
ción X-cuadrada, esta vez con X: - 1 - T grados de libertad.

Obselvaciów Este idtimo hecho es m u y notable.Significaque D2 tiene la


misma distribución fundanlenta1 s2que antes; la única diferencia es que se
pierde 1111grado de libcrtxl por cada parámetro que debe estimarse.

EJEMPLO15.9. Consid6rense los datos del contenido d e ceniza en


el carb6n corno aparecen en el ejemplo 14.6. Supóngase que deseamos
probar la hipótesis de queesos datos se obtuvieronde unavariable alea-
toria distribuida normallncnte. Primero debemos estimar los paráme-
tros correspondientes p y o’.
Previamenteobtuvimos los estimados ML íi = 17.0 y c ? ~ = 7.1.
Dividamos los valores posibles de A’ e n cinco categorías:
15.4 Prueba para la
debondad ajuste 441

Sea n.i el número deveces que ocurre A;. Encontramos que

nl = 7; n2 = 49; n3 = 109; 7x4 = 67; n5 = 18.

A continuación debemos calcularpi = P ( A ; ) ,usando los valores estima-


dos de íi y e2 ya obtenidos. Tenemos

p1 = P ( X < 12) = P - (
X - 1712
2.7 < --)2.7- 17 = @(-1.85) = 0.03,

p2 = P(12 5 X < 15) = @(-0.74) - @(-1.85) = 0.20,


p3 = P(15 5 X < 18) = Q(0.37) - @(-0.74) = 0.41,
p4 = P(18 5 X < 21) = Q(1.48) - a(0.3'7) = 0.29,
$5 = P(X 2 21) = 1 - Q(1.48) = 0.07.
Ahora podemos evaluar

D2 =x i=l
( n ; - 250@;)2
250j;

-
-
(7 - 7.5)2 (49 - 50)2 ((109- 102.5)2
7.5 102.5 + 50

" (67 - 72.5)2


72.5 " (18 - 17.5)2
' 17.5
-

= 0.82.

Puesto que D 2 tiene 5 - 1 - 2 = 2 grados d e libertad, en las tablas de la


distribución X-cuadrada encontramos que P( D 2 2 0.82) N 0.65 y que,
por tanto, deberíamos aceptarla hipótesis de normalidad.

EJEMPLO15.10. Consideremos los datospresentadosenelejem-


plo 15.5. ¿Tiene l a variable aleatoria X, es decir, el número de acci-
dentes durante el periodo especificado de 400 días, una distribución d e
Poisson?
Estimemos primero el parámetro X d e la distribución. En el capítulo
14 encontramos que el estimado ML d e X estA dado por el promedio
muestral. Así,
442 Pruebas de hipótesis

x = O(1448) + l(805) + 2(206) + 3(34) + 4(4) + 5(2) + 6(1)


1448 + 805 + 206 + 34 + 4 + 2 + 1
A

- 1351
-
-
2500

= 0.54.

Sea A l : X = O; A2: X = 1; ‘43: X = 2; A4: X = 3; A5: A’ => - 4..


Luego, nl = 1448; n2 = 805; n3 = 206; n4 = 34; n5 = 7, y obtenemos

$1 = P ( X = O) = e -(0.54) -
- 0.58 y nl;l = 1450
p2 = P ( X = 1) = e -0.54 (0.543) = 0.31 y n.p2 = 775
-0.54 (0.543)2
$3 = P ( S = 2) = e = 0.08 y np3 = 200
2

Ahora podemos evaluar

(206 - 200)2 (34 - 25)2 (7 - 50)’


= 42.2.
+

+ 200 25 50
Puesto quehay cinco categoríasy estimábamos un parámetro,la variable
aleatoria 0’tiene la distribución aproximada x:. En las tablas de l a
distribuciónx-cuadradaencontramosque P ( D 2 2 42.2) E O y, por
tanto, deberíamos rechazar la hipótesis.

PROBLEMAS
15.1. Suponer queX tiene distribución N ( , L Iu*) , con c2 conocida. Para probar
Ho: ,LI = ,LIO contra H I : L,I < ,LIO se propone el método siguiente: obtener una
muestra d e tamaño n y rechazar Ho siempre que el promediomuestra1 < C, x
donde C es una constante que debe determinarse.
a) Obtener una expresión para la función OC, L ( p ) en términos d e la
distribución normal tabulada.
Problemas 443

b ) Si el nivel d e significación d e la prueba es a =: 0.01, obtener una expresión


para C.
c). Supóngase que u2 = 4 y que se está probando Ho: ,u = 30 contra
H I : ,u < 30. Determinar el tamaño muestral n y la 'constante C a fin d e satisfacer
las condiciones L(30) = 0.08 y L(27) = 0.01.
d ) Supóngase que seobtienen los siguientes valores muestrales d e X:

?Rechazaría 110 contra H I como seest?bleció en c) al nivel d e significación del


5%?
15.2. Considerar la situación descrita en el problema 15.1, excepto que la
hipótesis alternativa es d e la forma H I : ,u # 110. Por tnnto, rechazamos H O
siempre que \X - pol > C. Responder las preguntas a) y b ) anteriores.
15.3. Sup6ngase q u e X tiene una distribución d c Poisson con parAmetro
X. Para probar Ho: X = X0 contra 111: X > X 0 se propone la siguiente prueba.
Obtener una muestrad e tamaño n, calcular elpro~medio muestral ,y y rechazar
HO siempre que > C, donde C es una constante que se debe determinar.
a ) Obtener una expresión para la función OC d e la prueba anterior, diga-
mos L(X). [Indicacidn: Usar la propiedad reproductiva de la distribución d e
Poisson.]
b ) Hacer la gráfica d e la función OC.
c) Supóngase que se prueba Iio: X = 0.2 contra H I : X > 0.2. Se obtiene una
muestra d e tamaño n = 10 y rechazamos Ho si 2 > 0.25. ¿Cu,il es el nivel d e
significación d e esta prueba?
15.4. Establecer las propiedades d e la ecuacióln (15.1) para la filnción OC,
-%I = @KC- P>+/4.
15.5. k'erificar las propiedades parala función OC,L ( p ) , como se definieron
en la ecuación (15.2).
15.6. Verificar las propiedades parala función OC,R(p),como se definieron
en la ecuación (15.3).
15.7. Se sabeque una gran remesa d e voltimetros contiene cierta proporción
digamos p , d e defectuosos. Para probar Ho: p = 0.2 contra H I : p > 0.2 se usa
el siguiente n1étodo. Se obtiene una muestra de tamaño 5 y se cuenta X , el
número de voltímetros dcfectuosos. Si S 5 1, seacepta H o , si X > 4, se
rechaza Ho; y si ,y = 2 , 3 o 4 se obtiene una segunda muestrade tamalio 5. Sea
Y el ndmero de instrumentosdefectuosos en la segunda muestra. Se rechaza
Ho si Y 2 2 y se acepta en caso contrario. (Se supone queel lote muestreado es
suficientemente granded e modo que pueda suponerse que S y Y son variables
aleatorias independientes distribuidasbinomialmente.)
444 Pruebas de hipótesis

a ) Obtener una expresión paraL ( p ) , la función OC d e la prueba anterior, y


dibujar su grjfica.
b ) Encontrar el tamalio d e la prueba anterior.
c) CCuA es la probabilidad de un error del tipo 2 si p = 0.5?
15.8. Si n = 4 y IC = 3 , ?cuántos valores posibles puede tomar la variable
alcatoria D 2 , como se definióen la ecuación (15.4)?
15.9. a ) Calcular el valor esperado d e la variable aleatoria D 2 , como se
definió en la ecuación (15.4).
b ) ?Cómo se compara este valor con el valor esperado (asintótico) d e D 2
obtenido con la distribución X-cuadrada que puede usarse para aproximar la
distribución de D 2 cuando n es grande?
15.10. Mediante un nuevo proceso se preparan tres clases d e lubricantes.
Cada uno delos lubricantes se prueba con cierto nfimerode máquinas, y luego
el resultado se clasifica como aceptable. Los datos de la tabla 15.1 representan
los resultados d e este experimento. Probar la hipótesis de quela probabilidad
;I de qne unlubricante tenga un resultado aceptable es la misma para los tres
lubricantes. [Indicación: Estimar primero p d e la muestra.]

TABLA
15.1

Lubricante 1 Lubricante
Lubricante 2 3

Aceptable 144 152 140


I naccp table 56 48 60

Total 200 200 200

15.11. Al usar varias leyes d e falla se ha encontrado que la distribución


exponencial desempeña un papel muy importante y que, por tanto, interesa
poder decidir si una muestra particular d e tiempos para que se presente una
falla proviene d e una distribución exponencial bAsica. Sup6ngase que se han
probado 335 bombillas y el resumen siguiente de su duración T (en horas) est5
disponible:

Duración
(enhoras) O<T<100 lOO<T<200 2005T<300 300<T<400 T1400
Nilmero
de bombillas 82 71 G8 62 52

De los tiempos registrados para que ocurra la falla, se encontró que T , el


promedio muestra], era igual a 123.5 horas. Usando esta información, probar
Problemas 445

la hipótesis de que T , el tiempo para que ocurra la hlla, est5 distribuido


exponencialmente.
15.12. Sup6ngase que la variable aleatoria X tiene la siguiente fdp:

Para probar Ho: (Y = (YO se propone la siguiente prueba. Obtener una obser-
vación de X, sea XI, y rechazar Ho si X 1 > 1.
a) Obtener unaexpresión para la función OC, L ( ( Y ) , de esta prueba y hacer
su gráfica.
6) ¿Cuál es el tamaño de esta prueba si (YO = ~ / 4 ?
15.13. En una malla de 165 celdas, secontó el número de granos de grafito
en cada celda. A s í se obtuvieron los datos de la talbla 15.2. Probar la hip6tesis
de que el número de granos en cada una de las celdas esuna variable aleatoria
con una distribución de Poisson. [Sugerencia: Reunira l observaciones 5 2 y
s
también aquellas 2 10.1

TABLA
15.2

Número de granos de Observados Número de granos de Observados


grafito por celda grafito por celda
O 1 7 17
1 1 8 22
2 5 9 21
3 7 10 4
4 20 11 2
5 34 12 1
6 30
Referencias
La siguiente lista de referencias, d e ningiln !modo es exhaustiva, per-
mite brindar al lector interesado la oportunidad de encontrar diversas
lecturas suplementariasy complementarias sobrelos diversos temas que
se presentan en el texto. Además de encontrar varios temas que no se
incluyen en esta presentación, el lector encontrará otros tratados con
mayor detalle o desde un punto devista un tanto diferente.
Además de tomar nota de los textos que figuran a continuación, el
lector deber5 estar consciente de ciertas revistas profesionales en las
cuales se hacen contribuciones importantes. Muchas d e esas revistas,
por supuesto, son escritas por personas que: poseen una experiencia
y dominio del tema considerablemente mayores que las que pueden
obtenerseestudiandounsemestre. Sin embargo, varias d e ellas en
ocasiones contienenartículosmuyclaros y alalcance del estudiante
que ha dominado la materia de este texto; entre Cstas están Journal of
the American StatisticalAssociation y Echnometrics. La última, d e hecho
se subtitula “A Journal ofStatisticsfor the Physical, Chemical, and
Engineering Sciences”, y, por lo tanto, puede.n ser de interés particular
para aquellos estudiantes a quienes está especialmente dedicado este
texto.
Muchos de los libros listados contienen análisis de la mayoría d c los
temas incluidos en este texto. No obstante, algunas de las referencias
son más especializadas y particularmente pertinentes sólo para algunos
capítulos. En tales casos, los capítulos específicos figuran entre parénte-
sis después delas referencias.

En inglés:
BAZOVSKY, I., Reliabilily The091 and Pmctice, Englewood Cliffs, Nueva
Jersey, Prentice-I-Iall, Inc., 1961 (1 1).
BERMAN, SIMEONM., The Elenlents of Probability, Reading, Mass.,
Addison-Wesley Publishing Co., Inc., 1969.
448 Referencias

BOWKER,A. H. Y G. J. LIEBERMAN, Engineering Statistics, Englewood


Cliffs, Nueva Jersey, Prentice Hall, Inc., 1959.
DERMAN,C. Y M. KLEIN,Probability and Stutistical Inference for Engi-
neers, Nueva York, Oxford University Press, 1959.
EHRENFELD, S. Y S. B. LITTAUER, IntroductiontoStatisticalMethod,
Nueva York, McCraw-IIill Book Co., 1964.
FELLER,W., An Introduction to Probability Theory and Its A$plicutions, vol.
1, sa. ed., Nueva York, John Wiley and Sons, Inc., 1968 (1, 2, 3).
FREUND, J. E., Muthemutical Statistics, Englewood Cliffs, Nueva Jersey,
Prentice-Hall, Inc., 1962.
FRY,T.C.,Probability and Its Engineering Uses, 2a. ed., Princeton, Nueva
Jersey, D. Van Nostrand, 1964.
GNEDENKO, B. V., The Theory of Probability (traducción del ruso), Nueva
York, Chelsea Publishing Co., Inc., 1962.
GUTTMAN,I. Y S. S. WILKS,Introductory Engineering Statistics, Nueva
York, John Wiley and Sons, Inc., 1965.
HABER,A., R. P. R U N Y O N
Y P. BADIA, Readings in Statistics, Reading,
Mass., Addison-Wesley Publishing Co., Inc., 1970.
LINDGREN, B. W., Statistical Theory, 2a. ed., NuevaYork, the Macmillan
Co., 1968.
LINDGREN, B. W. Y G. W. MCELRATH,Introdu.ction to Probability and
Statistics, 3a. ed., Nueva York, T h e Macmillan Co., 1969 (13, 14, 15).
LLOYD, D.K. Y M. LIPOW, Reliability: Management, Methods, and Mu-
thematics, Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1962
(1 1).
MCCORD,J. R., I11 Y R. M. MORONEY, JR., Introduction to Probability
T h e o v , Nueva York, the Macmillan Co., 1964.
MILLER,.I. Y J. E. FREUND,Probubility and Stutistics for Engineers,
Englewood Cliffs, Nueva Jersey, Prentice-Hall, Inc., 1965.
MOOD,A. M. Y F. A. GRAYBILL, Introdwtion to the Theory of Statistics,
2a. ed., Nueva I’ork, McCraw-Hill Book Co., 1963.
PARZEN, E., Modern Probability The09 and Its Applications, Nueva York,
John \Viley and Sons, Inc., 1960
WADSWORTH, B. P. Y J. G. BRYAN,Introduction to Probability and Ran-
dom Variables, Nueva York, McCraw-Hill Book Co., 1960.
Referencias 449

En español:
A continuación se presenta una lista de libros en español parabeneficio
del estudiante y del lector en general que des'een investigar algunos de
y, en especial, algunas áreas particulares.
los temas tratados en este libro
(N. del T.)

ARLEY, NIELSY RANDER BUCH, Introducción a la teoria de la probabili-


dad y de la estadistica, Madrid, Nhambra, 1968.
CARRANZA, ROQUE, Probabilidud y estudktica, Buenos Aires, Universi-
dad de Buenos Aires, 1965.
CRAMER, HARALD, Métodos mtemúticos de estadística, Madrid, Aguilar,
1968.
DIXON,JOHN,Introducción a laprobabilidad, México, Limusa-Wiley,
1970.
DIXON, WILFRID Y FRANK MASSEY, Introducción al andisis estadistico,
Madrid, Ediciones del Castillo, 1965.
FREEMAN, HAROLDA., Introducción a la injerencia estadistica, México,
Trillas, 1970.
GNEDENKO, B. V. Y A. I. JINCHIN, Introduccidn al cdlculo de probabili-
dades (traducción del ruso), BuenosAires, 'Eudeba, 1971.
GUENTHER,WILLIAM, Introduccióna la iFferenciaestadistica, Nueva
I'ork, McGraw-Hill, 1965.
Introducción a la estadisticamutemcitica,
HOEL, PAUL, Barcelona, Ariel,
1968.
Probabilidad, México, McGraw-Hill, 1970.
LIPSCHUTZ, SEYMOUR,
ISEL, EL, LOUIS, Probabilidad y estadistica, ESogotA, FondoEducativo
Interamericano, S. A., 1973.
RÍos, SIXTO,Métodosestadbticos, 5a. ed., Nueva York, McGraw-Hill,
1967.
Apéndice
TABLAl . Valores de la función distribucibn normal cstindar*

2 11 0.0 1.0 2.0 3.0 4.0 5.0


___-
____
6.0 7.0 8.0 9.0

0.0010 0.0007 0.0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000


~-
-2.9 0.0019 0.0018 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0091 0.0020 0.0019
-2.7 0.0035 0.0034 0.0033 0.0032 0.003 1 0.0030 0.0039 0.0028 0.0027 0.0026
-2.6 0.0047 0.0045 0.0044 0.0043 0.004 1 0.0040 0.0039 0.0038 0.0037 0.0036
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.007 1 0.0069 0.0068 0.0066 0.0064
-2.3 0,0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.2 0.0139 0.0136 0.0132 0.0129 0.0126 0.0122 0.01 19 0.0116 0.01 13 0.01 10
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0151 9.0150 0.0146 0.0143
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-1.9 0.0287 0.02881 0.0274 0.0268 0.0262 0.0256 0.0250 0.02 14 0.0238 0.0233
-1.8 0.0359 0.0352 0.03.14 0.0336 0.0329 0.0322 0.0314 0.0307 0.0300 0.0294
-1.7 0.0,346 0.0.136 0.0427 0.0418 0.0409 0.0401 0.0392 0.038-1 0.0375 0.0367
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0175 0.0465 0.0455
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.059-1 0.0582 0.0570 0.0559
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0722 0.0708 0.069-1 0.0681
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.2 0.1151 0.1131 0.1112 0.1093 O. 1075 0.1056 0.1038 o. 1020 O. 1003 0.0985
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 O.ll4G 0.1-123 0.1401 0.1379
-0.9 0.1841 0.181f4 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-0.8 0.2 119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1 89-4 O. 1867
-0.7 0.2420 0.2389 0.2358 0.2327 O .??97 0.2266 0.2236 0.2206 0.2177 0.2148
-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.25 16 0.2514 0.2483 0.2451
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.28810 0.2776
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.2 0.4207 0.4168 0.4 129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.1 0.4602 0.4562 0.4522 0.1483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
-0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
*B.W Lindgren, Sdaiklkal Themy, Nucva York, The Macmillan Co., 1960.
45 2 Apéndice

TABLA1. (Continuacidn)

~~ ~~

z 0.02.0 1.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734
0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944. 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9-049 0.9066 0.9082 0.9099 0.91151 0.9131 0.9147 0.9162 0.9177
.-1.4 0.9192 0.9205 0.9222 0.9236 0.9251 0.9265' 0.9278 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9430 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9648 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9700 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9762 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808,0.9812 0.9817
2.L. 0.9821 0.9826 0.9830 0.9834 0.9838-
-0;9842 0.9846 4. 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9874 0.9878 0.9881 884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 a9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000
TABLA
2. Funci6n de la distribucitjn binomial

(r)
T=n
,
1 - F ( x - 1) = pT(yT

n = 10 n = 10 n = 10 n = 10 P
x = 10 x = 9 x=s x = 7

0.0000000 0.0000000 0.0000000 0.0000000 0.0 1


0.0000000 0.0000000 0.0000000 0.0000000 0.02
0.0000000 0.0000000 0.0000000 0.0000000 0.03
0.0000000 0.0000000 0.0000000 0.0000000 0.04
0.0000000 0.0000000 0.0000000 0.0000001 0.05
0.0000000 0.0000000 0.0000000 0.0000003 0.06
0.0000000 0.0000000 0.0000000 0.0000008 0.07
0.0000000 0.0000000 0.0000001 0.0000020 0.08
0.0000000 0.0000000 0.0000002 0.0000045 0.09
0.0000000 0.0000000 0.0000004 0.0000091 0.10
0.0000000 0.0000000 0.0000008 0.0000173 0.1 1
0.0000000 0.0000000 0.0000015 0.0000308 0.12
0.0000000 0.0000001 0.0000029 0.0000525 0.13
0.0000000 0.0000002 0.000005 1 0.0000856 0.14
0.0000000 0.0000003 0.0000087 0.0001346 0.15
0.0000000 0.0000006 0.0000142 0.0002051 0.16
0.0000000 0.0000010 0.0000226 0.0003042 0.17
0.0000000 0.0000017 0.0000350 0.0004401 0.18
0.000000 1 0.0000027 0.0000528 0.0006229 0.19
0.0000001 0.0000042 0.0000779 0.0008644 0.20
0.0000002 0.0000064 0.0001 127 0.0011783 0.2 1
0.0000003 0.0000097 0.0001599 0.0015804 0.22
0.0000004 0.0000143 0.0002232 .0.0020885 0.23
0.0000006 0.0000207 0.0003068 0.0027228 0.24
0.0000010 0.0000296 0.0004 158 0.0035057 0.25
0.0000014 0.0000416 0.0005362 0.0044618 0.26
0.000002 1 0.0000577 0.0007350 0.0056181 0.27
0.0000030 0.0000791 0.0009605 0.0070039 0.28
0.0000042 0.0001072 0.0012420 0.0086507 0.29
0.0000059 0.0001437 0.0015904 0.0105921 0.30
0.0000082 0.0001906 0.0020179 0.0128637 0.3 1
0.0000113 0.0002505 0.0025384 0.0155029 0.32
0.0000153 0.0003263 0.003 1673 0.0185489 0.33
0.0000206 0.0004214 0.00392 19 0.0220422 0.34
0.0000276 0.0005399 0.00482 13 0.0260243 0.35
0.0000366 0.0006865 0.0058864 0.0305376 0.36
0.0000.481 0.0008668 0.0071403 0.0356252 0.37
0.0000628 0.0010871 0.0086079 0.0413301 0.38
0.0000814 0.0013546 0.0103163 0.0476949 0.39
0.0001049 0.0016777 0.0122946 0.0547619 0.40
0.0001342 0.0020658 0.0145738 0.0625719 0.4 1
0.0001708 0.0025295 0.0171871 0.0711643 0.42
0.0002161 0.0030809 0.0201696 0.0805763 0.43
0.0002720 0.0037335 0.0235583 0.0908427 0.44
0.0003405 0.0045022 0.0273918 0.1019949 0.45
0.0004242 0.0054040 0.0317105 0.1140612 0.46
0.0005260 0.0064574 0.0365560 0.1270655 0.47
0.0006493 0.0076828 0.0419713 0.1410272 0.48
0.0007979 0.0091028 0.0480003 0.1559607 0.49
0.0009766 0.0107422 0.0546875 0.1718750 0.50
TABLA
2. (Continuación)

(")
. .

1 - F ( x - 1) 1 prqn-r
r

n = 10 n = 10 n = 10 n = 10 n = 10 n = 10 P
x = 6 x = 5 x=4 x=3 x = 2 x = 1

0.0000000 0.0000000 0.0000020 0.0001 138 0.0042662 0.0956179 0.01


0.0000000 0.0000007 0.0000305 0.0008639 0.0161776 0.1829272 0.02
0.0000001 0.0000054 0.0001471 0.0027650 0.0345066 0.2625759 0.03
0.0000007 0.0000218 0.0004426 0.0062137 0.0581538 0.3351674 0.04
0.0000028 0.0000637 0.0010285 0.0115036 0.0861384 0.4012631 0.05
0.0000079 0.0001517 0.0020293 0.0188378 0.1175880 0.4613849 0.06
0.0000193 0.0003139 0.0035761 0.0283421 O. 1517299 0.5160177' 0.07
0.0000415 0.0005857 0.0058013 0.0400754 0.1878825 0.56561 15 0.08
0.0000810 0.00 10096 0.0088338 0.0540400 0.2254471 0.6 105839 0.09
0.0001469 0.0016349 0.0127952 0.0701908 0.263901 1 0.6513216 0.10
0.0002507 0.0025170 0.0177972 0.0884435 0.3027908 0.6881828 0.1 1
0.0004069 0.0037161 0.0239388 0.1086818 0.3417250 0.72 14990 0.12
0.0006332 0.0052967 0.0313048 0.1307642 0.3803692 0.7515766 0.13
0.0009505 0.0073263 0.0399642 0.1542980 0.4 184400 0.7786984 0.14
0.0013832 0.009874 1 0.0499698 0.1798035 0.4557002 0.8031256 0.15
0.0019593 0.0130101 0.0613577 0.2064005 0.4919536 0.8250988 0.16
0.0027098 0.0168038 0.0741472 0.2341305 0.5270412 0.8448396 0.17
0.0036694 0.02 13229 0.08834 11 0.2628010 0.5608368 0.8625520 0.18
0.0048757 0.0266325 0.1030261 0.2922204 0.5932435 0.8784233 o. 19
0.0063694 0.0327935 0.1208739 0.3222005 0.6241904 0.8926258 0.20
0.008 1935 0.0398624 0.1391418 0.3525586 0.6536289 0.9053172 0.21
0.0103936 0.0478897 0.1586739 0.3831 197 0.6815306 0.9166422 0.22
0.0130167 0.0569196 O. 1794024 0.4137173 0.7078843 0.9267332 0.23
0.0161116 0.0669890 0.2012487 0.4441949 0.7326936 0.93571 11 0.24
0.0197277 0.0781269 0.2241249 0.4744072 0.7559748 0.9436865 0.25
0.0239148 0.0903542 0.2479349 0.5042200 0.7777550 0.9507601 0.26
0.0287224 O. 1036831 0.2725761 0.53351 12 0.7980705 0.9570237 0.27
0.0341994 0.1181171 0.2979405 0.5621710 0.8169646 0.9625609 0.28
0.0403932 0.1336503 0.3239164 0.5901015 0.8344869 0.9674476 0.29
0.0473490 0.1502683 0.3503893 0.6172172 0.8506917 0.9717525 0.30
0.0551097 0.1679475 0.3772433 0.6434445 0.8656366 0.9755381 0.3 1
0.0637149 0.1866554 0.4043626 0.6687212 0.879382 1 0.9788608 0.32
0.0732005 0.2063514 0.4316320 0.6929966 0.8919901 0.9817716 0.33
0.0835979 0.2269866 0.4589388 0.7162304 0.9035235 0.9843 166 0.34
0.0949341 0.2485045 0.4861730 0.7383926 0.9140456 0.9865373 0.35
0.1072304 0.2708415 0.5 132284 0.7594627 0.9236190 0.9884708 0.36
0.1205026 0.2939277 0.5400038 0.7794292 0.9323056 0.9901507 0.37
0.1347603 0.3176870 0.5664030 0.7982887 0.9401661 0.9916070 0.38
O. 1500068 0.3420385 0.5923361 0.8160453 0.9472594 0.9928666 0.39
0,1662386 0.3668967 0.6177194 0.8327102 0.9536126 0.9939534 0.40
0.1834452 0.3921728 0.6424762 0.8483007 0.9593705 0.9948888 0.4 1
0.2016092 0.4177749 0.6665372 0.8628393 0.9644958 0.9956920 0.42
0.2207058 0.4436094 0.6898401 0.8763538 0.9690684 0.9963797 0.43
0.2407033 0.4695813 0.7123307 0.8888757 0.973 1358 0.9969669 0.44
0.2615627 0.4955954 0.7339621 0.9004403 0.9767429 0.9974670 0.45
0.2832382 0.52 15571 0.7546952 0.9110859 0.9799319 0.99789 17 0.46
0.3056772 0.5473730 0.7744985 0.9208530 0.9827422 0.99825 1 1 0.47
0.3288205 0.57295 17 0.7933480 0.9297839 0.9852109 0.9985544 0.48
0.3526028 0.5982047 0.81 12268 0.9379222 0.0873722 0.9988096 0.49
0.3769531 0.6230469 0.8981250 0.9453125 0.9892578 0.9990234 0.50
TABLA
3. Funcibn de la distribución de Poisson*

T=X
..

X a = 0.2 a = 0.3 a = 0.4 a = 0.5 a = 0.6

O 1.ooooooo 1.0000000 1.0000000 1.0000000 1.ooooooo


1 0.1812692 0.2591818 0.3296800 0.393469 0.45 1188
2 0.0175231 0.0369363 0.0615519 0.090204 0.121901
3 0.0011485 0.0035995 0.0079263 0.014388 0.023115
4 0.0000568 0.0002658 0.0007763 0.001752 0.003358

5 0.0000023 0.0000158 0.00006 12 0.000172 0.000394


6 0.0000001 0.0000008 0.0000040 0.000014 0.000039
7 0.0000002 0.000001 0.000003
X a = 0.7 a = 0.8 a = 0.9 a = 1.0 a = 1.2

O 1.ooooooo 1.0000000 1.0000000 1.0000000 1.0000000


1 0.503415 0.550671 0.593430 0.632121 0.698806
2 0.155805 0.191208 0.227518 0.264241 0.337373
3 0.034142 0.047423 0.062857 0.080301 0.120513
4 0.005753 0.009080 0.013459 0,018988 0.033769
0.007746
5 0.000786 0.001411 0.002341 0.003660
6 0.000090 0.000 184 0.000343 0.000594 0.001500
7 0.000009 0.000021 0.000043 0.000083 0.00025 1
8 0.000001 0.000002 0.000005 0.000010 0.000037
9 0.000001 0.000005
10 0.000001
X a = 1.4 a = 1.6 a = 1.8 a = 1.9 a = 2.0

O 1.000000 1.oooooo 1.000000 1.000000 1.000000


1 0.753403 0.798103 0.83470 1 0.850431 0.864665
2 0.408167 0.475069 0.537163 0.566251 0.593994
3 O. 166502 0.216642 0.269379 0.296280 0.323324
4 0.053725 0.078813 O. 108708 0.125298 0.1.12877

5 0.014253 0.023682 0.036407 0.044081 0.052653


6 0.003201 0.006040 0.010378 0.013219 0.016564
7 0.000622 0.001336 0.002569 0.003446 0.004534
8 0.000 107 0.000260 0.000562 0.000793 0.001097
9 0.000016 0.000045 0.000110 0.000163 0.000237

10 0.000002 0.000007 0.000019 0.000030 0.000046


11 0.000001 0.000003 0.000005 0.000008
456 Apéndice

TABLA
3. (Continuacidn)

e V aa
1 - F ( z - 1) = -
T=03

VI

X a = 2.5 a = 3.0 a = 3.5 a = 4.0 a = 4.5 a = 5.0


-
-
O 1.000000 1.000000 1,000000 1.oooooo 1.000000 1.000000
I 0.917915 0.950?13 0,969803 0.981F8-1 0.988891 0.993262
2 0.712703 0.800852 12 0.938901
0.908422 0,8641 0.959572
3 0.456187 0.576810 0.761897 0.679153
0.826422 0.875348
4 0.242424 0.352768 0.566530 0.463367
0.657704 0.734974

5 0.108822 0.184737 0.274555 0.371 163 0.467896 0.559507


6 0.042021 0.083918 0.142386 0.214870 0.297070 0.384039
7 0.014187 0.033509 0.065288 0.1 10674 O. 168949 0.?37817
8 0.004247 0.011905 0.026736 0.051 134 0.086586 0.133372
9 0.001140 0.003803 0.009874 0.021363 0.040257 0.068094

10 0.000277 0.001 102 0.003315 0.008132 0.017093 0.03 1828


11 0.000062 0.000292 0.001019 0.002840 0.006669 0.013695
12 0.000013 0.00007 I 0.000289 0.000915 0.002404 0.005453
13 0.000002 0.000016 0.000076 0.000274 0.000805 0.002019
14 0.000003 0.000019 0.000076 0.000252 0.000698

15 0.00000 1 0.000004 0.000020 0.000074 0.000226


16 0.000001 0.000005 0.000020 0.000069
17 0.000001 0.000005 0.000020
18 0.000001 0.000005
19 0.000001
Apbndice 45 7

4. Valores críticospara la distr.ibuci6nt de Student*


TABLA

Pr{t de Student 5 valor tabulado} = 7


"

f 0.75 0.90 0.95 0.9751 0.99 0.995

1 1.o000 3.0777 6.3138 12.70612 31.8207 63.6574


2 0.8165 1 .S856 2.9200 4.302'7 6.9646 9.9248
3 0.7649 1.6377 2.3534 3.1824 4.5407 5.8409
4 0.7407 1.5332 2.1318 2.7764 3.7469 4.6041
5 0.7267 1.4759 2.0150 2.5706 3.3649 4.0322
6 0.7176 1.4398 1.9432 2.446!3 3.1427 3.7074
7 0.7111 1.4149 1.8946 2.3646 2.9980 3.4995
8 0.7064 1.3968 1.8595 2.3060 2.8965 3.5554
9 0.7027 1.3830 1.8331 2.2622 2.8214 3.2498
10 0.6998 1.3722 1.8125 2.228 1 2.7638 3.1693
11 0.6974 1.3634 1.7959 2.2010 2.7181 3.1058
12 0.6955 1.3562 1.7823 2.17813 2.6810 3.0545
13 0.6938 1.3502 1.7709 2.1604 2.6503 3.0123
14 0.6924 1.3450 1.7613 2.14413 2.6245 2.9768
15 0.6912 1.3406 1.7531 2.131!5 2.6025 2.9467
16 0.6901 1.3368 1.7459 2.1 19!3 2.5835 2.9208
17 0.6892 1.3334 1.7396 2.1098 2.5669 2.8982
18 0.6884 1.3304 1.734 1 2.100!3 2.5524 2.8784
19 0.6876 1.3277 1.729 1 2.0930 2.5395 2.8609
20 0.6870 1.3253 1.7247 2.0860 2.5280 2.8453
21 0.6864 1.3232 1.7207 2.0796 2.5177 2.8314
22 0.6858 1.3212 1.7171 2.073!3 2.5083 2.8188
23 0.6853 1.3 195 1.7139 2.068'7 2.4990 2.8073
24 0.6848 1.3 178 1.7109 2.063!3 2.4922 2.7969
25 0.6844 1.3 163 1.708 1 2.059!5 2.4851 2.7874
26 0.6840 1.3 150 1.7056 2.055!5 2.4786 2.7787
27 0.6837 1.3 137 1.7033 2.05 i51 2.4727 2.7707
28 0.6834 1.3 125 1.7011 2.0484 2.4671 2.7633
29 0.6830 1.3114 1.6991 2.04812 2.4620 2.7564
30 0.6828 1.3104 1.6973 2.0423 2.4573 2.7500
31 0.6825 1.3095 1.6955 2.039.5 2.4528 2.7440
32 0.6822 1.3086 1.6939 2.036'9 2.4487 2.7385
33 0.6820 1.3077 1.6924 2.034.5 2.4448 2.7333
34 0.6818 1.3070 1.6909 2.032'2 2.4411 2.7284
35 0.6816 1.3062 1.6896 2.030 1 2.4377 2.7238
36 0.6814 1.3055 1.6883 2.028 1 2.4345 2.7195
37 0.6812 1.3049 1.6871 2.026'2 2.4314 2.7154
38 0.6810 1.3042 1.6860 2.024.1 2.4286 2.7116
39 0.6808 1.3036 1.6849 2.022 7 2.4258 2.7079
40 0.6807 1.3031 1.6839 2.021 1 2.4233 2.7045
41 0.6805 1.3025 1.6829 2.0195 2.4208 2.7012
42 0.6804 1.3020 1.6820 2.0181 2.4185 2.6981
43 0.6802 1.3016 1.6811 2.0167 2.4163 2.6951
44 0.6801 1.3011 1.6802 2.0151 2.4141 2.6923
45 0.6800 1.3006 15794 2.014 1 2.4121 2.6896
*D. B. Owen, Handbook of Slatistical Tables, Reading, Mass., Addison-TVesleyPublishing Co., Inc.,
1962. (Corte& de la Atomic Energy Commission, Waslungton, D.C.)
45 8 Apéndice

4. (Contznuacidn)
TABLA

Pr{t de Student5 valor tabulado} = y


-~

f 0.75 0.90 0.95 0.975 0.99 0.995

46 0.6799 1.3002 1.6787 2.0129 2.4102 2.6870


47 0.6797 1.2998 1.6779 2.0117 2.4 083 2.6846
48 0.6796 1.2994 1.6772 2.0106 2.4066 2.6822
49 0.6795 1.299 1 1.6766 2.0096 2.4049 2.6800
50 0.6794 1.2987 1.6759 2.0086 2.4033 2.6778
51 0.6793 1.2984 1.6753 2.0076 2.4017 2.6757
52 0.6792 1.2980 1.6747 2.0066 2.4002 2.6737
53 0.6791 1.2977 1.674 1 2.0057 2.3988 2.6718
54 0.6791 1.2974 1.6736 2.0049 2.3974 2.6700
55 0.6790 1.297 1 1.6730 2.0040 2.3961 2.6682
56 0.6789 1.2969 1.6725 2.0032 2.3948 2.6665
57 0.6788 1.2966 1.6720 2.0025 2.3936 2.6649
58 0.6787 1.2963 1.6716 2.0017 2.3924 2.6633
59 0.6787 1.2961 1.6711 2.0010 2.3912 2.6618
60 0.6786 1.2958 1.6706 2.0003 2.3901 2.6603
61 0.6785 1.2956 1.6702 1.9996 2.3890 2.6589
62 0.6785 1.2954 1.G698 1.9990 2.3880 2.6575
63 0.6784 1.2951 1.6694 1.9983 2.3870 2.6561
64 0.6783 1.2949 1.6690 1.9977 2.3860 2.6549
65 0.6783 1.294 7 1.6686 1.997 1 2.3851 2.6536
66 0.6782 1.2945 1.6683 1.9966 2.3842 2.6524
67 0.6782 1.2943 1.6679 1.9960 2.3833 2.6512
68 0.6781 1.294 1 1.6676 1.9955 2.3824 2.6501
69 0.6781 1.2939 1.6672 1.9949 2.3816 2.6490
70 0.6780 1.2938 1.6669 1.9944 2.3808 2.6479
71 0.6780 1.2936 1.6666 1.9939 2.3800 2.6469
72 0.6779 1.2934 1.6663 1.9935 2.3793 2.6459
73 0.6779 1.2933 1.6660 1.9930 2.3785 2.6449
74 0.6778 1.293 1 1.6657 1.9925 2.3778 2.6439
75 0.6778 1.2929 1.6654 1.992 1 2.3771 2.6430
76 0.6777 1.2928 1.6652 1.9917 2.3764 2.642 1
77 0.6777 1.2926 1.6649 1.9913 2.3758 2.6412
78 0.6776 1.2925 1.6646 1.9908 2.3751 2.6403
79 0.6776 1.2924 1.6644 1.9905 2.3745 2.6395
80 0.6776 1.2922 1.664 1 1.990 1 2.3739 2.6387
81 0.6775 1.292 1 1.6639 1.9897 2.3733 2.6379
82 0.6775 1.2920 1.6636 1.9893 2.3727 2.6371
83 0.6775 1.2918 1.6634 1.9890 2.3721 2.6364
84 0.6774 1.2917 1.6632 1.9886 2.3716 2.6356
85 0.6774 1.2916 1.6630 1.9883 2.3710 2.6349
86 0.6774 1.2915 1.6628 1.9879 2.3705 2.6342
87 0.6773 1.2914 1.6626 1.9876 2.3700 2.6335
88 0.6773 1.2912 1.6624 1.9873 2.3695 2.6329
89 0.6773 1.2911 1.6622 1.9870 2.3690 2.6322
90 0.6772 1.2910 1.6620 1.9867 2.3685 2.6316
TABLA
5. Valores críticos para la distribución de X-cuadrada*

Pr{X2 r.v. con f grados de libertad 5 valiores tabulados} = y

f 0.005 0.01 0.025 0.05 o.1 0.25

1 - - 0.001 0.004 0.016 0.102


2 0.010 0.020 0.051 0.1103 0.211 0.575
3 0.072 0.115 0.2 16 0.352 0.584 1.213
4 0.207 0.297 0.484 0.:711 1.064 1.923
5 0.4 12 0.554 0.831 l. 1145 1.610 2.675
6 0.676 0.872 1.237 1.635 2.204 3.455
7 0.989 1.239 1.690 2.!167 2.833 4.255
8 1.344 1.646 2.180 2.7733 3.490 5.071
9 1.735 2.088 2.700 3.325 4.168 5.899
10 2.156 2.558 3.247 3.940 4.865 6.737
11 2.603 3.053 3.816 4.575 5.578 7.584
12 3.074 3.571 4.404 5.226 6.304 8.438
13 3.565 4.107 5.009 5.1392 7.042 9.299
14 4.075 4.660 5.629 6.571 7.790 10.165
15 4.601 5.229 6.262 7.261 8.547 11.037
16 5.142 5.812 6.908 7.962 9.3 12 11.912
17 5.697 6.408 7.564 8.672 10.085 12.792
18 6.265 7.015 8.231 9.390 10.865 13.675
19 6.884 7.633 8.907 10.11 17 11.651 14.562
20 7.434 8.260 9.591 10.851 12.443 15.452
21 8.034 8.897 10.283 11.591 13.240 16.344
22 8.643 9.512 10.982 12.338 14.042 17.240
23 9.260 10.196 11.689 13.091 14.848 18.137
24 9.886 10.856 12.401 13.848 15.659 19.037
25 10.520 11.524 13.120 14.611 16.473 19.939
26 11.160 12.198 13.844 15.379 17.292 20.843
27 11.808 12.879 14.573 16.1151 18.1 14 2 1.749
28 12.461 13.565 15.308 16.928 18.939 22.657
29 13.121 14.257 16.047 17.708 19.768 23.567
30 13.787 14.954 1G.791 18.493 20.599 24.478
31 14.458 15.655 17.539 19.:!81 21.431 25.390
32 15.134 16.362 18.291 20.072 22.271 26.304
33 15.815 17.074 19.047 20.867 23.1 10 27.219
34 16.501 17.789 19.806 21.664 23.952 28.136
35 17.192 18.509 20.569 22.465 24.797 29.054
36 17.887 19.233 21.336 23.269 25.643 29.973
37 18.586 19.960 22.106 24.075 26.192 30.893
38 19.289 90.691 22.878 24.884 27.343 31.815
39 19.996 21.426 23.654 25.695 28.196 32.737
40 20.707 22.16-4 2-1.433 26.509 29.051 33.660
41 21.421 22.906 25.215 27.326 29.907 34.585
42 22.138 23.650 25.999 28.1144 30.765 35.510
43 22.859 24.398 26.785 28.965 31.625 36.436
44 23.584 25.148 27.575 29.787 32.487 37.363
45 24.311 25.901 28.366 30.612 33.350 38.291
*D. B. Owen, Handbook of Statistical Tables, R e a d i p Mass., .4ddison-Wesley Publishing Co., Inc.,
1962.(Cortesía d e la Atomic Energy Commission, ashngton, D.C.)
460 Apéndice

TABLA
5. (Continuacidn)

Pr{x2 r.v. con f grados de libertad5 valores tabulados} = y

f 0.75 0.90 0.95 0.975 0.99 0.995

1 1.323 2.706 3.841 5.024 6.635 7.879


2 2.773 4.605 5.991 7.378 9.2 10 10.597
3 4.108 6.25 1 7.815 9.348 11.345 12.838
4 5.385 7.779 9.488 11.143 13.277 14.860
5 6.626 9.236 11.071 12.833 15.086 16.750
6 7.841 10.645 12.592 14.449 16.812 18.548
7 9.037 12.017 14.067 16.013 18.475 20.278
8 10.219 13.362 15.507 17.535 20.090 2 1.955
9 11.389 14.684 16.919 19.023 2 1.666 .23.589
10 12.549 15.987 18.307 20.483 23.209 25.188
11 13.701 17.275 19.675 2 1.920 24.725 26.757
12 14.845 18.549 2 1.O26 23.337 26.217 28.299
13 15.984 19.812 22.362 24.736 27.688 29.819
14 17.117 2 1.064 23.685 26.119 29.141 31.319
15 18.245 22.307 24.996 27.488 30.578 32.801
16 19.369 23.542 26.296 28.845 32.000 34.267
17 20.489 24.769 27.587 30.191 33.409 35.718
18 2 1.605 25.989 28.869 31.526 34.805 37.156
19 22.718 27.204 30.144 32.852 36.191 38.582
20 23.828 28.412 31.410 34.170 37.566 39.997
21 24.935 29.615 32.671 35.479 38.932 41.401
22 26.039 30.813 33.924 36.781 40.289 42.796
23 27.141 32.007 35.172 38.076 41.638 44.181
24 28.24 1 33.196 36.415 39.364 42.980 45.559
25 29.339 34.382 37.652 40.646 44.314 46.928
26 30.435 35.563 38.885 41.923 45.642 48.290
27 3 1.528 36.74 1 40.1 13 43.194 46.963 49.645
28 32.620 37.916 4 1.337 44.461 48.278 50.993
29 33.71 1 39.087 42.557 45.722 49.588 52.336
30 34.800 40.256 43.773 46.979 50.892 53.672
31 35.887 4 1.422 44.985 48.232 52.191 55.003
32 36.973 42.585 46.194 49.480 53.486 56.328
33 38.058 43.745 47.400 50.725 54.776 57.648
3.I 39.141 44.903 48.602 51.966 56.061 58.964
35 40.223 46.059 49.802 53.203 57.342 60.275
36 4 1.304 47.2 12 50.998 54.437 58.619 61.581
37 42.383 48.363 52.192 55.668 59.892 62.883
38 43.462 49.513 53.384 56.896 61.162 64.181
39 44.539 50.G60 54.572 58.120 62.428 65.476
4O 45.616 51.805 55.758 59.342 63.691 66.766
41 46.692 52.949 56.942 60.561 64.950 68.053
42 47.766 54.090 58.124 61.777 66.206 69.336
43 48.840 55.230 59.304 62.990 67.459 70.616
4 -4 .19.913 56.369 GOA81 64.201 68.710 71.893
45 50.985 57.505 6 1.656 65.410 69.957 73.166
Apéndice 46 1

TABLA
6. Números aleatcn-ios*
~~

07018 31172 12572 23968 55216 85366 56223 09300 94564 18172
52444 65625 97918 46794 62370 59344 213149 17596 5 1669 47429
72161 57299 8752 1 4435 1 99981 55008 9337 1 60620 66662 27036
17918 75071 91057 46829 47992 26797 64423 42379 9 1676 75127
13623 76165 43195 50205 75736 77473 07268 31330 07337 55901
27426 97534 89707 97453 90836 78967 00705 85734 21776 85764
96039 2 1338 88169 69530 53300 29895 7 1507 285 17 77761 17244
68282 98888 25545 69406 29470 46476 54562 79373 72993 98998
54262 21477 33097 48125 92982 98382 11265 25366 06636 25349
66290 27544 72780 91384 47296 54892 5’9168 8395 1 91075 04724
53348 39044 04072 622 10 01209 43999 5,4952 68699 31912 09317
34482 42758 40128 48436 30254 50029 1’9016 56837 05206 33851
99268 98715 07545 273 17 52459 75366 43688 27460 65 145 65429
95342 97178 10401 31615 95784 77026 33087 65961 10056 72834
38556 60373 77935 64608 28949 94764 45312 71171 15400 72 182
39 159 04795 51 163 84475 60722 35268 05044 56420 39214 89822
41786 18169 96649 92406 42773 23672 37333 85734 99886 81200
95627 30768 30607 89023 60730 31519 53462 90489 8 1693 17849
98738 15548 42263 79489 85 118 97073 01574 573 10 59375 544 17
75214 61575 27805 21930 94726 39454 19616 72239 93791 22610
73904 89123 19271 15792 72675 62175 48746 56084 54029 22296
33329 08896 94662 05781 59187 53284 28024 45421 37956 14252
66364 94799 62211 37539 80172 43269 91133 05562 82385 9 1760
68349 16984 86532 96 186 53891 48268 8282 1 19526 63257 14288
19193 99621 66899 12351 72438 99839 24228 32079 53517 18558
49017 23489 19172 80439 76263 98918 59330 20121 89779 58862
76941 77008 27646 82072 28048 41589 70883 72035 8 1800 50296
55430 25875 26446 25738 32962 24266 26814 O 1 194 48587 93319
33023 26895 65304 34978 43053 28951 22676 05303 39725 60054
87337 74487 83196 61939 05045 20405 69324 80823 20905 68727
81773 36773 21247 54735 68996 16937 18134 5 1873 10973 77090
74279 85087 94186 67793 18178 82224 17069 87880 54945 73489
34968 76028 54285 90845 35464 68076 15868 70063 26794 81386
99696 78454 21700 12301 88832 96796 5934 1 16136 O 1803 17537
55282 61051 97260 89829 69121 86547 62 195 72492 33536 60137
31337 83886 72886 42598 05464 88071 92209 50728 67442 47529
94 128 97990 58609 20002 76530 81981 30999 50147 9394 1 80754
06511 48241 49521 64568 69459 95079 42588 98590 12829 64366
69981 03469 56128 80405 97485 88251 76708 09558 86759 15065
23701 56612 86307 02364 88677 17192 23082 00728 78660 74196
09237 24607 12817 98120 30937 70666 76059 44446 94 188 14060
11007 4546 1 24725 02877 74667 18427 45658 400-14 59484 59966
60622 78444 39582 91930 97948 13221 99234 99629 22430 49247
79973 43668 19599 3002 1 68572 31816 63033 14597 28953 21162
71080 71367 23485 82364 30321 42982 74427 25625 74309 15855
09923 26729 74573 16583 37689 06703 21846 78329 98578 25447
63094
72826 65558 22616 33472 67515 75585 90005 19747 08865
19806 42212 41268 84923 21002 30588 40676 94961 31154 83 133
17295 74244 43088 27056 86338 4733 1 9737 83735 84058 12382
59338 27190 99302 84020 15425 14748 42380 99376 30496 845?3
*The Rand Corporation, A A~lillionR o d o m Digits wilh 100,000 h i d e s , The Free Pres, 1955.
462 Apéndice

TABLA
6. (Continuación)

96124 73355 01925 17210 81719 74603 30305 29383 69753 61156
31283 54371 20985 00299 71681 22496 71241 35347 37285 02028
49988 48558 20397 60384 21574 14852 26'4 14 10767 60334 3691 1
82790 45529 48792 31384 54649 08779 94 194 62843 11182 49766
5 1473 1382 1 75776 24401 004,15 61570 80687 39454 07628 94806
07785 02854 91971 63537 84671 035 17 28914 48762 76952 96837
16624 68335 46052 07442 4 1667 62897 40326 75 187 36639 21396
28718
92405 07123 22008 83082 28526 491 17 96627 38470 78905
33373 90330 67545 74667 20398 58239 22772 34500 34392 92989
36535
48606 11139 82646 18600 53808 70267 74970 35100 o1291
47408 62155 47467 14813 5668.4 5668 1 3 1779 3044 1 19883 17044
56129 36513 4 1292 82 142 13717 49966 35367 43255 06993 17418
35459 10460 33925 75946 26708 63004 89286 24880 38838 76022
61955 55992 36520 08005 48783 08773 45424 4,1359 25248 7588 1
85374 6979 1 18857 92948 90933 90290 97232 61348 22204 43440
15556 39555 09325 16717 74724 79343 263 13 39585 56285 22525
75454 9068 1 73339 08810 89616 99234 366 13 43440 60269 90899
27582 90856 04254 23715 00086 12164 16943 62099 32132 9303 1
89658 47708 01691 22284 50446 0545 1 G8947 34932 81628 227 16
57194 77203 26072 92538 85097 58178 46391 58980 12207 9490 1
64219 53416 03811 11439 80876 38314 77078 85171 06316 29523
53166 78592 80640 58248 68818 78915 57288 853 10 43287 89223
58112 88451 22892 29765 20908 49267 18968 39165 03332 94932
14548 36314 05831 01921 97159 55540 00867 84293 54653 81281
21251 15618 40764 99303 38995 97879 98178 0370 1 70069 80463
30953 63369 05445 20240 35362 82072 29280 72468 94845 97004
12764 79194 36992
74905 85867 18672 28716 17995 63510 6790 1
72393 71563 42596 87316 80039 75647 66121 17083 07327 39209
11031
40757 10904 22385 39813 63111 33237 95008 09057 50820
91948 69586 45045 67557 86629 67943 23405 86552 17393 2422 1
18537 07384 13059 47389 97265 11379 24426 09528 36035 0250 1
66885 11985 38553 97029 88433 78988 88864 03876 48791 726 13
96177 71237 08744
38483 16602 94343 18593 84747 57469 08334
3732 1 96867 64979 89159 33269 06367 09234 77201 92195 89547
77905 69703 77702 90176 04883 84487 88688 09360 42803 88379
53814 14560 43698 8663 1 87561 9073 1 59632 55 672 24519 1O966
16963 37320 40740 79330 04318 56078 23196 49668 801 18 73842
87558 58885 65475 25295 59946 47877 81764 85986 6 1687 04373
84269 55068 10532 43324 39407 65004 3504 1 20714 20880 19385
94907 O80 19 05159 64613 26962 30688 51677 05111 51215 53285
45735 14319 78439 18033 72250 87674 67405 94 163 16622 54994
11755 40589 83489 95820 70913 87328 04636 42466 68427 79135
5 1242 05075 80028 35144 70599 92270 62912 08859 87.405 08266
00281 25893 94848 74342 45848 10404 28635 92 136 42852 40812
12233 65661 10625 93343 2 1834 95563 15070 99901 09382 01498
88817 57827 02940 66788 76246 85094 44885 72542 3 1695 83843
75548 53699 90888 94921 04949 80725 72 120 80838 38409 72270
42860 40656 33282 45677 05003 46597 67666 70858 4 1314 71100
71208 72822 17662 50330 32576 95030 87874 25965 05261 95727
44319 22313 89649 47415 2 1065 42846 78055 64776 64003 4805 1
Apéndice 463

TABLA
7 . Desviaciones normales aleatorias
- -
O0 o1 02 03 04 05 06 07 08 09
- - - -
- - - - - - - -
__. - -
- - -
O0 .31 -.51 -1.45 -.35 .18 .o9 .o0 .ll -1.91 -1.O7
o1 .90 -.36 .33 -28 .30 -2.62 - 1.43 -1.79 -.99 -.35
O2 .22 .58 :87 -.O2 .O4 .12 -.17 .78 -1.31 .95
03 - 1.o0 .53 -1.90 -.77 .67 .56 -.94 .16 2.22 -.08
04 -.12 -.43 .69 .75 -.32 .7 1 -1.13 -.79 -26 -.86
05 .o 1 .37 -.36 .68 .44 .43 1.18 -.68 -.13 -.41
06 .16 -.83 -1.88 .89 -.39 .93 -.76 -.12 .66 2.O6
07 1.31 -.82 -.36 .36 24 -.95 .41 -37 .78 -.27
08 -.38 -.2G -1.73 .O6 -.14 1.59 .96 - 1.39 .51 -.50
o9 .38 .42 -1.39 -.22 -.28 -.O3 2.48 1.11 1.10 .40

10 1 .O7 2.26 -1.68 -.O4 .19 1.38 -1.53 -1.41 .o9 -1.91
11 -1.65 -1.29 -1.03 .O6 2.18 -.55 -.34 -1.07 .S0 1.77
12 1 .o2 -.67 -1.11 .O8 -1.92 -.97 -.70 -.40 -.72 -.47
13 .O6 1.43 -.46 -.62 -.11 .36 .64 -27 .72 .68
14 .47 - 1.84 .69 -1.07 .83 -25 -.91 -1.94 .96 .75
15 .10 1.o0 -.54 .61 -1.04 -.33 .94 .56 .62 .07
16 - 31 .O4 .63 -.26 -1.35 -1.20 1.52 .63 -1.29 1.16
17 -.94 -.94 .56 -.o9 .63 -.36 .20 -.60 -29 .94
18 .29 .62 -1.09 1.84 -.11 .19 -.45 .23 -.63 -.06
19 .57 .54 -.2 1 .o9 -.57 -.lo - 1.25 -.26 .88 -.26
20 .24 .19 -.67 3.04 1.26 -1.21 .52 -.O5 .76 -.09
21 -1.47 1.20 .70 - 1.80 -1.07 .29 1.18 .34 -.74 1.75
22 -.o1 .49 1.16 .17 -.48 .81 1.40 .17 .57 .61
23 -.63 -.26 .55 -.21 -.O7 -.37 .47 -1.69 .O5 -.96
24 .85 -.65 -.94 .12 -1.67 28 -.42 .14 -1.15 -.41
25 1.O7 -.36 1.10 .83 .37 -.20 -.75 -.50 .18 1.31
26 1.18 2.09 -.61 .44 .40 .42 -.61 -2.55 -.o9 -1.33
27 .47 .88 .7 1 .31 .41 -1.96 .34 -.17 1.73 -.33
28 .26 .90 .ll 28 .76 -.12 -1.01 1.29 -.71 2.15
29 .39 -.88 -.15 -.38 .55 -.41 -.O2 -.74 -.48 .46
30 -1.01 -.89 -1.23 .O7 -.O7 .O8 -.O8 -1.95 -.34 -.29
31 1.36 .18 .85 .55 .o0 -.43 .27 -.39 .25 .69
32 1.02 -2.49 1.79 .O4 -.O3 .85 -.29 -.77 28 -.33
33 -.53 -1.13 .75 -.39 .43 .10 -2.17 .37 -1.85 .96
34 .76 1.21 -.68 .26 .93 .99 1.12 -1.72 -.O4 -.73
35 .O7 -23 -.88 -23 .68 24 1.38 -2.10 -.79 -.27
36 .27 .61 .43 -.38 .68 -.72 .90 -.14 -1.61 -.58
37 .93 .72 -.45 2.80 -.12 .74 -1.47 .39 -.61 -2.77
38 1 .O3 -.43 .95 -1.49 -.63 .22 .79 -2.80 -.41 .61
39 -.3? 1.41 -.23 -.36 .60 -.59 .36 .63 .73 .81
40 1.41 .64 .O6 2 5 -1.75 .39 1.84 1.23 -1.27 -25
41 25 -.70 .33 .12 .o4 1.03 -.64 .O8 1.63 .34
42 -1.15 .57 .34 -.32 2.31 .74 .S5 -1.25 -.17 .14
43 .72 .o 1 .50 -1.42 .26 -.74 -.55 1.86 -.17 -.lo
44 -.92 .15 -.66 .83 .50 .? 4 -.40 1.90 .35 .69
45 -.42 .62 .24 .55 -.O6 .14 -1.09 -1.53 .30 -1.56
46 -.54 1.21 -.53 29 1.O4 -.32 -1.20 .o 1 .O5 20
47 -.13 -.70 .O7 .69 .S8 1.18 .61 -.46 -1.54 .50
48 -29 .36 1.44 -.44 .53 -.14 .66 .O 0 .33 -.36
49 1.90 -1.21 -1.87 -27 -1.86 -.49 .25 .25 .14 1.73
-
464 Apéndice

7 . (Continuación)
TABLA
- -

-
10
- -
- __
11
- - -12 13
-
-
14 15
17
-- - 16
-
18
__.
19
-
-
O0 -.73 .2 5 -2.08 .17 - 1.O4 -.23 .74 .23 .70 -.79
o1 -37 -.74 1.44 -.79 -.76 -.42 1.93 .88 .so -.53
02 1.18 .O5 .10 -.15 .O5 1.O6 .S? .90 -1.38 .51
03 -2.09 1.13 -.50 .37 -.I8 -.16 -1.85 -.go 1.32 -.83
04 -.32 1.06 1.14 -.?3 .49 1.10 -.27 -.64 .4 7 -.05
05 .90 -36 .63 -1.62 -.5? -1.55 .78 -.54 -.29 .19
06 -.16 -.22 -.17 - 31 .49 .96 .53 1.73 .14 1.21
07 .I5 -1.12 .80 -.30 -.77 -.91 .o0 .94 -1.16 .44
O8 -1.87 .72 -1.17 -.36 -1.42 -.46 -.58 .O3 2.08 1.11
o9 .a7 .95 .O5 .46 -.o1 .85 1.19 -1.61 -.lo -37
10 .52 .12 - 1.o4 -.56 -.91 -.13 .17 1.17 -1.24 .84
11 -1.39 -1.18 1.67 2.88 -2.06 .10 .O5 -.55 .74 .33
12 -.S4 -.46 "85 -.29 .54 .7 1 .90 -.4? -1.30 .50
13 -.51 .o4 -.44 -1.87 -1.06 1.18 -.39 .22 -.55 -.54
14 -1.50 -.2 1 -.89 .4 3 -1.81 -.O7 -56 -.o2 1.77 - 1.54
15 -.48 1.54 1.88 .66 -.62 .?8 -.34 2.42 -1.65 2.06
16 .S9 -.23 .57 .23 1.81 1.o2 .33 1.23 1.31 .06
17 .38 1.52 -1.32 2.13 -.14 .?8 .46 .25 .65 1.18
18 -.53 .37 .19 -2.4 1 .16 .36 .15 .14 -.I5 -.73
19 .I5 .62 -1.29 1.84 .so -.65 .72 -1.77 .O7 .46
20 -31 -.22 1.16 1.09 -.73 -.15 .S7 -.S8 .92 -.04
21 -1.61 2.5 1 -2.17 .4 9 - 1.24 1.16 .97 .I5 .37 .18
22 .26 -.48 -.43 -2.08 .75 1.59 .78 -.55 .85 -1.87
23 -.32 .75 -.35 2.10 -.70 1.29 .94 .20 -1.16 .59
24 -1.00 1.37 .68 .o0 1.S7 -.14 .77 -.12 .89 -.73
25 .66 .O4 -1.73 .25 .26 1.46 -.77 -1.67 .18 -.92
26 -.20 -1.53 .59 -.15 -.15 -.11 .68 -.14 -.42 -1.51
27 1.01 -.44 -.2 -2.05 -.27 -.50 -.27 -.45 .83 .49
28 -1.81 .45 .27 .67 -.74 -.17 -1.11 .13 -1.18 -1.41
29 -.40 1.34 1.50 .57 -1.78 .O8 .95 .69 .38 .7 1
30 -.o1 .15 -1.83 1.18 .ll .62 1.86 .42 .O3 -.14
31 -.23 -.19 -1.08 .44 -.4 1 -1.32 .14 .65 -.76 .76
32 - 1.27 .13 -.17 -.74 -.44 1.67 -.O7 -.99 .5 1 .76
33 -1.72 1.70 -.61 .18 .48 -.26 -.12 -2.83 2.35 1.25
34 .78 1.55 -.19 .43 -1.53 -.76 .83 -.46 .48 -.43
35 1.86 1.12 -2.09 1.82 -31 -1.76 -.20 -.38 .82 -1.08
36 -.50 -.93 -.68 -1.62 -.S8 .O5 -.27 .23 -.58 -24
37 1.o2 -31 -.62 1.46 -.3 1 -.37 .O8 .59 -.27 .37
38 - 1.57 .10 .ll -1.48 1.o2 2.35 27 -1.22 -1.26 2.22
39 2.27 -.61 .6 1 -.?8 -.39 -.45 .89 1.43 1.03 -.01
40 -2.17 -.69 1.33 -.26 .I5 -.lo -.78 .64 -.70 .14
41 .O5 -1.71 .2 1 .55 -.60 -.74 -.go 2.52 -.O7 -1.11
42 -.38 1.75 .93 -1.36 -.60 -1.76 -1.10 .42 1.44 -.58
43 .40 -1.50 .24 -.66 .83 .37 -.35 S16 .96 .79
44 .39 .66 .19 -2.08 .32 -.42 -.53 .92 .69 -.03
45 -.1? 1.18 -.OS .3O -.21 .45 -1.84 .26 .90 35
46 1.20 -.91 -1.08 -.99 1.76 -.SO .5 1 .25 -.11 -.58
47 -1.04 1.28 2.50 1.56 -.95 -1.02 .45 - 1.90 -.o2 -.73
48 -.32 .56 -1.03 .ll -.72 .53 -.27 -.17 1.40 1.61
49 1.O8 .56 .34 -.28 -.37 .46 .O3 -1.13 .34 -1.08
-
J
Respuestas a
Problemas
seleccionados*

WÍTULO 1

*N.del E. Considérese la siguiente relaciónde reslpues~z~s alternativas a proble-


mas incluidos en esta sección.
466 Respuestasaproblemas seleccionados

1.11. a) AUBUC b) [ A n n c n C C ] ~ [ A c n ~ n C c ] u [ n C n a c ~ ~
d) AnBnC

1.15. ) 131 4 -8
1 3 ' 13
1.16. a) 1- t b) y - z 1.17. 8

CAIJÍTULO 2

2.8. 120 2.9. 720


2.10. 455 2.11. a) 120 b ) 2970
2.12. U) '
4 b ) 4 . 37 C) 70 d ) 336
2.13. ( N - l)!/(N - n)!Nn-l

2.14. a) 360 b ) 1296 2.15. a +b


2.16. a) 2/n b ) 2(n - 1)/n2 2.18. 0.24
2.20. 120

CAPÍTULO 3

3.2. a) 8 b) b c) $ 3.3. g

Prob. 2.21 (:I: 1


-
Respuestas a problemas seleccionados 467

3.4. a) & b) 3.6. ,u) b) c)

3.7. 3 3.9. 0.362,0.406,0.232

3.12. a) b) a 3.13. 1 - (1 - p)"

3.15. -& 3.17. 'u) 0.995 b ) 0.145

3.20. a) 2p2 + 2p3 - 5p4 + 2p5 b ) p+3p2-4p3-p4+3p5-p6

, 3.23. & 3.25. a) 0.50 b ) 0.05


3.34. ,& = f + ( 2 p - 1 ) y p - 12 ) 3.35. a) 0.65 b ) 0.22
c) 8/35
3.37. p n = $$j
l + (cytP)(atPtl)n-r
P

3.39. (12 - l)p2/( 1 - 2p + np2)

CAPÍTULO 4

4.1. P ( X = O) = A,P ( X = 1) = g ,P ( X = :!) = g, P ( x = 3) =


9 27
6;i
~.
..

4.3. a) ; b) c) + 4.9. ;
4.10. a = ebb

4.11. P ( X > blX < b/2) = -7b3/(b3 + 8)


4.13. U) U = (2/b)- b 4.14. a) F ( t ) = 5t4 - 4t5
4.15. a) a =f c) 4.16. b ) F ( z ) = 3x2 - 2x3

4.17. U) 1 O <x <5


f ( z ) = 5, b ) f ( x ) = ( l / r ) ( x - x2)-1/2, O < z < 1
c) f(x) = 3e3x, x < O
4.20. U ) cy =3 C) cr =

4.23. 6) P ( X = k ) = ( y )(0.09)k(0.91)10-k
Prob. 4.9

- .
-
"
A
. , i.. I ' . ..
468 Respuestas a problemas seleccionados

4.25. a ) $ 4.28. p
4.29. a) 6 =p b) T =1 4.30. -8 525

CAPfTULO 5

@
.tg(y) = 3(4 - y ) - q 3 < y < 4
.

a) g(y) = 8 , 7 < y <'13 b ) h ( z ) = 1/2z, e < z < e3

f)5 3 a) g(y) = 3Y Y>O


1 -2/3e-y1/3,

5.6.; a ) g(y) = (l/í?)(l- y 2 ) -1/2 , -1 < y < 1


b ) h ( z ) = (2/7r)(l- 2)-1/2, o < z < 1 c) f ( w ) = 1, o <w<1
~ /O~< v < 4 ~ / 3
5.7. a ) g(v) = ( 3 / 2 ~ ) [ ( 3 ~ / 4 ~ -) -11,
b ) h ( s ) = (3/4n)[l - (s/~T)'/'], O < S < 4x
5.8. g(p) = i(2/p)'i2, 162 < p < 242
5.10. a) g(0) = 1; g(y) = O , y # O
b ) g(0) = a / k ; g(y) = ( 3 0 - a ) / h / o , 0 < Y < YoKk - a ) / ( z o - .>I
c) g(0) = a / k ; g(y) = (x0 - a)/kyo, 0 < Y < ?/o; d Y 0 ) = 1 - zo/k

5.13.0.71

CAPfTULO 6

6 2 "-1
- a )k = 6) h(x)= x3/4, O < X < 2

{9 +
_
.."

y/4 y3/48, O < x < 2


c) d Y ) = -
5 - Y/4 +
(5/48)Y3, -2 I y I o
@732a)
.... b) & c) 6.5. k = 1/(1 - e-')2
3
\

6.6. U) k= 6) h ( z ) = 1 - 1x1, -1 <x < 1


4 g(Y) = 1 - Iyl, -1 < y < 1
6.8. h ( t ) = 1/2z2, L 2 1
= 1/2, o <z <1
6.11. g(h) = (1600 - 9 h 2 ) / 8 0 h 2 , 8 < h <y
-
- - 1j . ,203 < h < 8

= (5h2 - 80)/1Gh2, 4 5 h 5 9
Respuestasaproblemas seleccionados 469

WÍTULO 7
1,

7.3. 3.4

7.6. $0.03

7.9. $50 7.10. a) G = 8 b) E(D)= 9


7.12. b ) E(2)= 7.13. (b) E ( W ) = 4
7.14. 154
7.15. E ( Y ) = 10, V ( Y )= 3, E ( 2 ) = (e/2)(e2 - l), V ( Z ) = (e2/2)(e2 - 1)
7.18. E ( Y ) = O, V ( Y ) = i,E ( 2 ) = 2/7r, V ( Z ) = (r2- S ) / 2 r 2 , E ( W ) =
1
= &?
~v-
2, V ( W

7.20. C a s o 2 : E ( Y ) = (yo/2L)(3:0 - a), V(y) = [i y] -

1
7.24. a = 5 ,b =2 7.25. a ) E(V)= 4
ii) E ( P ) = 4
470 Respuestas a problemas seleccionados

7.32. E ( Z ) N V(Z) N & 7.35. i;o


7.46. 7.48. P ( X ; = 1) = p ( r / n ) + q[(n-
r)/nl

CAPÍTULO 8

8.1. 0.219
8.3. U) 0.145 b) 4 C) 2 d ) 1o 2 e ) 1.785 f) 0.215

8.4. 0.3758 (binomial), 0.4060 (de Poisson)

8.5. 0.067 8.6. P ( X = O) = 0.264


8.7. E ( P ) = $32.64 8.9. b ) 0.027

8.10. 0.215 8.12. a) (0.735)7


b ) 1 - (0.265)7
8.16. U) (1 - pl)(l -p2)(1 - P s ) ( ~ - P 4 ) C) 0.0964

8.17. a) 0.064 8.20. (2-ln 3)/3 8.24. $19.125

9.1. a) 0.2266 b ) 0.2902 9.2. 0.3085


9.3. 0.21 9.5. U) 0 2 b) 0 2
9.6. E(17)= (2~)'/', V ( Y ) = ( T - 2)/T

9.10. C = 0 . 4 3 3 ~= p 9.11. 0.5090

Prob. 7.32 E(Z)N V(Z) N &


Prob.
8.3 e ) 1.35 f)0.65
Prob.
8.7 $27.24
Prob. 9.11 0.7745
Respuestasa lbroblemas seleccionados 471

9.12. E ( L ) = $0.528

9.13. a) i;0.0456 b) 0.069 c) $; 0.049

9.15. $23.40 9.17. a ) $0.077


9.24. 0.10,0.80

9.25. E ( Y )N l n p - (1/2p2)a2; V ( Y )N (1/p2)a2

9.28. b ) E ( X ) = np[(l - p"-')/(l - p")]


9.32. 0.15

CAPfTULO 10

) ( 2 / t 2 > [ e t (-
10.1. a) ~ , y ( t = t 1) + 11 b ) .G(x) = 8, V ( X ) =
10.3. U) Mx(t)= k t a / ( A - t ) 6) E ( X ) = (ax + l)/A, V ( X )= 1 / X 2
10.4. a) M,y(t) = ;(et + e2t + e3t + e4t + e5t + e6t)
10.6. a) (1 - t')" 10.8. b ) E ( X ) = 3.2
10.9. a ) 0.8686 10.12. 0.30
10.13. 0.75 10.14. 0.579
10.18. 3 10.19. (e3' - 1)/3tet

11.1. 83.55 horas, 81.77 horas, 78.35 horas

11.2. 48.6 horas


11.3. f ( t ) = C = Oexp[-Cot], O 5 t 5 to
= C1 exp[-Coto + G ( t o - t l ) ] ,t > t o
11.4. a) f(t) = Ce-C(t-A), t >
-A 11.5. b ) R(t) = [A/(A + t)]'+'
11.7. a) Aproximadamente (0.5)6 11.9. 0.007
11.10. ~ ( t=)2e-OJ33 - e"O.Ogt 11.11. a) 0.014
11.12. a) m = ln(Jz) 6) m = 0.01 c) toc)
472 Respuestas a problemas seleccionados

CAP~TULO 12

12.1. U) n = 392 b) R. = 5000 12.2. U) 0.083

12.3. a) 0.9662 b ) n = 24 12.4. 0.1814


12.5. U) 0.1802 b) R. = 374 12.6. a) 0.1112 b ) 0.1915
12.7. g ( r ) = (15,000)-'(r3 - 60r2 + 600r), O 5 T 5 10
= (15, OOO)-l(-r3 + 60r2 - 1200r + 8000), 10 5 r 5 20
12.9. a) g(s) = 50[1 - e-o.2(s+o.01)], si - 0.01 5 S 5 0.01
- 50[~-0.2(~-0.01) - ,-O.2(s+O.O1)], si > 0.01

12.12. f(s) = - [ -
2 @ (S,,,> (3E)]

Prob.12.2 a ) 0.83

Prob.12.5 b ) n = 443
Prob.12.13 b ) 0.043
Respuestas a problemasseleccionados 473

CAPfTULO 13

13.3. P ( M = m ) = [l - (1 -p)"In - [ l - (1 - p)""]"

13.4. a) 0.13 b ) 0.58 13.5. a) 0.018 b ) 0.77

13.6. 0.89 13.8. U) (1 - 2t)"

CAPÍTULO 14

14.2. C = 1/2(n - 1)

14.3. 16.1
14.6. U) l/(T" t o )

14.9. a) k/ x;"=,
ni 14.13. 0.031

14.14. -0.52 14.15. r / x


14.16. n/ X:
14.29. Distribucih F con ( 1 , l ) grados de liberlad

14.31. (-4/5) 14.32. 88.6

CAPfTULO 15

15.1. a) l - @ ( % f i ) b ) C=-2.33-&+po

15.2. U) Q, [wfi]- @ [ -c+T-"fi] b) C = 2.575unv1i2

Prob.
13.5 b ) 0.735
Prob.
14.7 a)
o "to
In

Prob. 14.13 0.03G


Prob.
14.32 10.2
474 Respuestasaproblemas seleccionados

15.8. 15 15.12. a ) sencu/sen ( $ a )

15.9. a) ( b - 1) b ) Igud
Índice de materias
aproximación de DeMoivre- subconjunto, 5
Laplace para la distribución unió:n de, 5
binomial, 329 universal, 5
&-bol, diagrama de, 52 vacíol, 5
convergencia en
bondad de ajuste d e probabilidad, 325
pruebas, 434 covarianza, 1S9
prueba de ajuste
d e distribuciones desiguaddad d e Boole, 25
asintóticas, 436 desigua.ldad d e Chebyshev, 186,
prueba de una distribución 187,188
específica, 438, 439 desviac.ión e s t h d a r d e variable
aleatoria,176
coeficiente binomial, 35 diagrannas d e Venn, 6
coeficiente de confianza, 401 distribución binomial, S 1
coeficiente d e correlación, 189 apro:uimación normal
ejemplo de, 399 a l,a, 327
evaluación de, 189 distribución de Pascal, y, 230
interpretación de, 190, 191, propiedades de, 99
192,193, 194 valor esperado de, 155, 173
propiedades de, 189 varianza de, 180
comparación entre varias distribución binomial
distribuciones, 260 negativa, 228
confiabilidad, 298 distribución d e Cauchy, 270
d e los sistemas, 31 1 distribución d e Maxwell, 290
y la función d e distribución distribución d e Pascal, 228
acumulativa, 298 esperanza de, 229
y la longitud d e vida varianza de, 229
esperada, 303 y la distribución binomial, 230
y la tasa de falla, 298 distribución d e Poisson, 209
conjunto, 4 propiedad reproductiva
complemento de, 6 de, 288
identidad de, 7 valor esperado de, 210
intersección de, 6 varianza de, 2 1O
número de elementos, S y la distribución binomial, 21 1
476 Índice dematerias

y la distribución bivariada, 261


multinomial, 294 estandarizada, 243
distribución d e Rayleigh, 290 función lineal de, 243
distribución d e Weibull, 309 propiedad reproductiva
aplicación de, 3 11 de, 255
esperanza de, 310 suma d e variables aleatorias
varianza de, 3 10 independientes, 255
distribución exponencial, 249 tabulación, 244
propiedades de, 250 truncada, 263
valor esperado de, 252 valor esperado de, 242
y la distribución exponencial varianza de, 242
con dos parcimetros, 292 distribución normal
y la distribución gama, 291 bivariada, 26 I , 263
y varianza de, 250 distribución t de Student, 403
distribución I; de Snedecor, 4 15 propiedades de, 403
distribuci6n gama, 255, 29 1 distribución truncada, 263
valor esperado de, 256, 257 distribución uniforme, 96
varianza de, 256, 257 bidimensional,130
y la distril)ución de unidimcnsional, 96, 97
Poisson, 256 valor esperado de, 155
y la dis~ribución exponencial, varianza de, 1 S2
255, 291 distribución x 2 , 25s
distribución geomktrica, 224 distribución gama, y la, 255
propiedades de, 22G distribución normal,
valor csperado dc, 225 y la, 2G1, 255
varianza de, 225 grandes grados de libertad,
distribución hipergeométrica, 35, para, 262
23 1 propiedad reproductivn,
valor esperado de, 232 de, 255
varianza de, 232 valor esperado de, 255
y la distribución binomial, 232 varianza de, 260
distribución log-normal, 270 distribuciones binomiales, 51
distribucicin multinomial, 233 bivariadas normales, 261, 263
valor esperado de, 233 d e Maxwell, 290
varianza de, 233 de Pascal, 228
y la distribución de de Poisson, 209
Poisson, 294 de Rayleigh, 290
distribución normal, 239 de It'cibull, 309
aproximación a la distribución exponenciales, 249
binomial, 327, 329 F . de Snedecor, 4 15
gama, 255 por el parámetro de una
geométricas, 224 distribución normal, 38s
hipergeométricas, 38, 23 1 por el parámetro de una
log-normales, 270 distribución uniforme, 38S,
multinomiales, 233 389
normales, 239 por la ecuaci6n d e
t de Student, 403 probabilidad, 387, 388
uniformes, 96, 130 propiedades, 386
distribuciones mixtas, 94 propiedades asintóticas, 393
estimado de parámetros, 375
elección a l azar de un estimado consistente, 376
objeto, 30, 38, 50. estinlado insesgado, 375
elección a l azar de un punto en estimado de máxima
un intervalo, 96 probabilidad, 384, 355
enumeración, métodos de, 31 estimado de mínimos
adición, principio de, 32 cuadrados, 396
combinaciones, 34 estimado inexistente o
multiplicación, principio insesgado, 4 15
de, 31 estirnado insesgado d e
permutaciones, 33, 39 varianza mínima, 375
errores del tipo 1 y del mejolr estimado lineal, 378
tipo 2, 419 estimado, 375
espacio muestral, 71 insesgado, 375
espacio muestral, el, 10 eventos,13
ejemplos de, 11 complementarios, 14
finito, 27 inde~pendientes, 54
partición de, 49 mutuamente excluyentes, 14
espacio muestral finito, el, 27 eventos' equivalentes, 73, 106
y resultados igualmente eventos independientes, 54, 55
probables, 28 eventos mutuamente
esperanza condicional, 194 excluyentes,14
estadístico, 354 eVelltOS mutuamente
estimado, 375 independientes, 58
estimado de máxima experimento aleatorio, 9
verosimilitud, 384, 356 experimento no dcterminista, S
por el parámetro de una experimentos de Bernoulli, S1
distribución exponencial,
387, 391 factorial, 33
por el parámetro de una falla, tasa de, 298
distribución gama, 392 falla, ley exponencial de, 303
478 índicedematerias

y la distribución d e función d e distribución


Poisson, 307 acumulativa conjunta, 128
falla, ley gama de, 309 función d e operación
falla, ley normal de, 301 característica, 420
fórmula d c Stirling, 328 para probar cl parámetro
frecuencia relativa, 15 P de una variable
función de densidad d e aleatoria con distribución
probabilidades, 86 binomial, 43 1
del cociente d e para probar la media de una
variables aleatorias distribución normal con
independientes, 142 varianza conocida, 424
conjuntas,123 para probar la media de una
marginal,128 distribución normal con
d e la suma de varianza desconocida, 433
variables aleatorias y elección del tamaño de la
independientes, 340 muestra, 427
del intervalo de función de regresión, 197
la muestra, 362 aproximación d e los mínimos
del máximo de cuadrados, 20 1
la muestra, 358 lincal,199
del mínimo de función de riesgo, 298
la muestra, 358 función gama, 254
del producto de función generadora de
variables aleatorias momentos, 276
independientes, 142 dc una distribución
función de densidad de binomial, 278
probabilidad condicional, 132 de una distribución x 2 , 280
función de densidad de de una distribución de
probabilidad conjunta, 123 Poisson, 278
función d e densidad d e de una distribución
probabilidad marginal, 128 exponencial, 279
función d e distribución, 94 de una distribución gama, 2SO
función d e distribución de una distribucidn
acumulativa, 90, 112 geométrica, 2S4
características de, 9 1 de una distribución normal,
función d e densidad d e 279
probabilidad, y la, 93, de una distribución uniforme,
94, 123 278
gráfica dc, 9 1, 92 de una función lineal de una
propiedades de, 93 variable aleatoria, 285
Indicede materias 479

d e series d e variables jacobiano de una


aleatorias, 29 1 transformación, 139,140
d e sumas variables aleatorias
independientes, 286 máximo d e la muestra, 391
de propiedad de mecánica, analogía con, 77, SS,
unicidad, 285 159, 177, 180
y momento, 282 mínirncb d e la muestra, 355, 358
funciones d e variables y la distribución
aleatorias,106 exponencial, 360
caso bidimensional, 137 modelos matemáticos, 1
momento de una variable
caso continuo, 11 1, 112
aleatoria respecto de su
caso discreto, 108
esperanza,179
función monótona, 114 muestra, tamaño de, 421
valor esperado de, 161, 168 muestra aleatoria de una
variable aleatoria, 35 1
grandes nilmcros, ley d c los, 324 gene~:ación de una muestra
aleatoria, 365, 368
hipótesis alternativa, 418 muestras, 349
hipótesis, prueba de, 418 coeficiente d e correlación, 400
para la media de una variable máxi~mo de, 355
aleatoria con distribución media de, 355
normal, 424 mínimo de, 355
nivel d e significación, 425 varia:nza de, 355, 363
región crítica, 428
hipótesis nula 418 números aleatorios, 364

orden estadístico, 355


integral de convolución, 340
intervalo d e confianza, 401 parámctro de una distribución,
para el parámetro de una 153
distribución binomial, 407 probabilidad,17
para la media de una axioma para, 18
distribución normal condicional, 46
(varianza conocida), 40 1 inducida, 75, 124
para la media de una teoremas básicos, 18, 19, 20
distribución normal probabilidad condicional, 43
(varianza desconocida), 404 probabilidad inducida, 75, 109
para la varianza de una probabilidad no condicional, 46
distribución normal, 408 proceso d e Poisson, 218, 222
480 Indice de materias

aplicaciones de, 222 del producto de


supuestos de, 219 variables aleatorias
producto cartesiano, 7 independientes, 17 1
promedio muestral, 356 del valor condicional
propiedades reproductivas, 286 esperado,194
d e la distribución x 2 , 2SS propiedades del valor
d e la distribución normal, 258 esperado, 169
d e la distribución de valor medio de una variable
Poisson, 2SS aleatoria,153
punto mucstral, 355 variable aleatoria, 69
recorrido de la muestra, 362 continua, S5
regularidad estadística, 17 discreta, 76
resuItados igualmente distribución d e
probables, 28 probabilidad, 77
espacio muestral de, 71
series geométricas, 79 no correlacionada, 190
suma de variables aleatorias sucesiones de, 291
independientes, 339, 345 variable aleatoria
bidimensional, 121
teorcma dc Bayes, 51
continua, 122
teorema de multiplicación de
discreta, 122
probabilidades, 47
normal, 26 1
generalización de, 66
tcorema de binomio, 35 variable aleatoria continua, S5
forma generalizada, 36 variables aleatorias
teorema del límite central, 331, independientes, 134
332, 333, 335 criterio de, 135
teorema Gauss-MarkoK, 399 variables aleatorias n-
transforlnación integral, 363, dimensionales, 145
364 varianza de una variable
aleatoria,175
valor esperado de una variable aproximaci6n a, 182
aleatoria, 153, 155, 158 evaluación de, 177
aproximación para, 1 S2 propiedades de, 179
d e la suma de variables d e la suma de
aleatorias,169 variables aleatorias
de una función de una independientes, lS0
variable aleatoria, 16 1, 169 varianza muestral, 349
de una función lineal, 170 Venn, diagrama de, 6

Das könnte Ihnen auch gefallen