Beruflich Dokumente
Kultur Dokumente
19 de diciembre de 2013
Índice general
2. Esperanza e Independencia 19
1. Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . 31
3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Procesos de Poisson 49
1. Procesos de recuento de llegadas . . . . . . . . . . . . . . . . . 49
5. Cadenas de Markov 51
1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Visitas a un estado fijo . . . . . . . . . . . . . . . . . . . . . . . 53
Bibliografı́a 55
Índice alfabético 56
ii Índice general
1
Espacios de Probabilidad y Variables
Aleatorias
1. Espacios de Probabilidad
La noción básica en teorı́a de la probabilidad es que de un experimento
aleatorio: un experimento cuyos resultados no pueden ser determinados con
anticipación. El conjunto de todos los posibles resultados de un experimento
es llamado el espacio muestral es un experimento.
Un evento es un subconjunto de un espacio muestral. Un evento A se
dice que ocurre si y sólo si los resultados observados ω del experimento es
un elemento del conjunto A.
Ac = {ω ∈ Ω : ω ∈
/ A} . (1.2)
A ∪ B = {ω ∈ Ω : ω ∈ A o ω ∈ B} . (1.3)
2 CAP. 1: ESPACIOS DE PROBABILIDAD Y VARIABLES ALEATORIAS
A ∩ B = {ω ∈ Ω : ω ∈ A y ω ∈ B} . (1.4)
A∩B =∅.
∞
[
Ai
i=1
DEFINICIÓN 1.6.
Sea Ω un espacio muestral y P una función que asocia un número
a cada evento. Entonces P es llamado una medida de probabilidad
siempre que
(b) P(Ω) = 1;
TEOREMA 1.10.
Si B1 , B2, . . . son eventos disjuntos con ∪∞
i=1 Bi = Ω, entonces para
cualquier evento A,
∞
X
P(A) = P(A ∩ Bi ) .
i=1
COROLARIO 1.12.
Sea A1 , A2, . . . una sucesión de ventos tales que A1 ⊃ A2 ⊃ A3 ⊃ · · · ,
y ponga A = ∩∞ i=1Ai . Entonces
DEFINICIÓN 2.1.
Una variable aleatoria X con valores en el conjunto E es una función
que asigna un valor X(ω) en E a cada resultado ω en Ω.
El ejemplo más usual de E son los conjuntos de enteros no negativos N = {0, 1, 2, . . .},
el conjunto de todos los enteros {. . . , −1, 0, 1, . . .}, el conjunto de todos los
números reales R = (−∞, ∞), y el conjunto de todos los números reales no
negativos R+ = [0, ∞). En los primeros dos casos y, más generalmente, cuan-
do E es finito o infinito numerable, X se dice que es una variable aleatoria
discreta.
EJEMPLO 2.2 Considere el experimento de lanzar una moneda una vez. Los
dos posibles resultados son “caras” y “sellos”, es decir, Ω = {C, S}. Supon-
gamos que X es definido poniendo X(C) = 1, X(S) = −1, Entonces X es
SEC. 2: VARIABLES ALEATORIAS Y PROCESOS ESTOCÁSTICOS 5
Xt (ω) = ω(t) ,
Z t
Yt (ω) = ω(s) ,
0
Z t Z tZ u
Zt (ω) = Yu (ω)du = ω(s)dsdu ,
0 0 0
5
4
3
2
1
0 2 4 6 8 10 t
Notando que
[X ≤ a] ∪ [a < X ≤ b] = [X ≤ b]
y que los eventos [X ≤ a] y [a < X ≤ b] son disjuntos, obtenemos, por (1.7),
ϕ(b)
1,0
b
0
Ω =] − ∞, +∞[
P(] − ∞, b]) = ϕ(b), −∞ < b < +∞ ,
y dejando
X(ω) = ω , ω∈Ω,
Vemos que X es un variable aleatoria con la función de distribución ϕ. Por
lo tanto, para cualquier función ϕ, existe una variable aleatoria X que tiene
ϕ como su función de distribución.
A continuación, sea X una variable aleatoria tomando valores en el con-
junto E(enumerable). Entonces para cualquier a ∈ E,
Entonces
0 b < −1 ,
ϕ(b) = P[X ≤ b] = 0.6 −1 ≤ b < 1 ,
1 1≤b.
⊳
1
ϕ(t) ϕ
Ω ω
0 t
X(ω)
R
DEFINICIÓN 2.19.
Las variables aleatorias discretas X1 , . . . , Xn se dicen que son inde-
pendientes si
Ya que
P[X = m, Y = n] = P[X = m]P[Y = n]
para todo m y n, X e Y son independientes. ⊳
EJEMPLO 2.23 Sea X e Y dos variables aleatorias discretas tomando valores
en N = {0, 1, 2, . . .} y con la distribución conjunta
−7 m n−m
e 4 3
si m = 0, 1, . . . , n; n ∈ N;
P[X = m, Y = n] = m!(n − m)!
0 en otro caso.
e−7 4m3k
P[X = m, Y − X = k] = P[X = m, Y = m + k] =
m!k!
para todo m, k ∈ N y que
∞
X e−33k
P[Y − X = k] = P[X = i, Y − X = k] =
i=0
k!
3. Probabilidad Condicional
Sea Ω un espacio muestral y P una medida de probabilidad sobre este.
DEFINICIÓN 3.1.
Sean A y B eventos. La probabilidad condicional de A dado B, escrito
como P[A|B], es un número que satisface
(a) 0 ≤ P[A|B] ≤ 1 ,
Si P[B] > 0, entonces P[A|B] es únicamente definido por (3.1b). De otra ma-
nera, si P[B] = 0, P[A|B] puede tomar a ser cualquier número en [0, 1].
Para un B fijado con P[B] > 0, considerado como una función de A, la
P[A|B] satisface las condiciones (1.6) para una medida de probabilidad. Es
decir,
TEOREMA 3.3.
Si B1 , B2, . . . son eventos disjuntos con ∪∞
i=1 Bi = Ω, entonces para
cualquier evento A,
∞
X
P[A] = P[A|Bi]P[Bi] .
i=1
COROLARIO 3.4.
Si B1, B2, . . . son eventos disjunto scon unión Ω, entonces para cual-
quier evento A con P[A] > 0, y cualquier j,
P[A|Bj ]P[Bj ]
P[Bj |A] = ∞ .
X
P[A|Bi]P[Bi]
i=1
EJEMPLO 3.5 Una moneda es lanzada hasta que aparezca dos veces cara.
Sean X e Y , los números de los lanzamientos en que aparecen la primera y la
segunda cara respectivamente. Si p es la probabilidad de que aparezca cara
en cualquiera de los lanzamientos, entonces
2 n−2
pq si m = 1, . . . , n − 1; n = 2, 3, . . . ;
P[X = m, Y = n] =
0 en otro caso;
4. Ejercicios
4.1 Un experimento consiste en sacar tres bulbos de flash de un lote y cla-
sificar cada una como defectuosa (D) o no defectuosa (N ). Una elección,
entonces, puede ser descrita como una terna; por ejemplo, (N, N, D) re-
presentando los resultados donde el primer y segundo bulbo han si-
do encontrado no defectuosos y el tercero defectuoso. Denote por A el
evento “el primer bulbo sacado fue defectuoso”, B el evento “el segun-
do bulbo sacado fue defectuoso” y C el evento “el tercer bulbo sacado
fue defectuoso”.
(a) Describir el espacio muestral haciendo una lista de todos los resulta-
dos posibles.
(b) Listar todos los resultados en A, B, B ∪ C, A ∪ C, A ∪ B ∪ C, A ∩ B,
Ac ∩ B c ∩ C, A ∩ B c ∩ C, (A ∪ B c ) ∩ C, (A ∩ C) ∪ (B c ∩ C).
4.2 Describir en detalle los espacios muestrales para los siguientes experi-
mentos:
Z−∞ Z−∞
1 1 2
P({ω : ω1 ≤ a, ω2 ≤ b}) = exp − (x + y 2 ) dxdy .
2π 2
a b
Considere un gran pedazo de tierra cuya área tomamos como una uni-
dad. La tierra es dividida en n lotes los cuales, para propósitos de compra y
venta, son indivisibles. Sea Ω denota toda la tierra y P(A) el area de la región
A. Sea X(ω) denota el precio por unidad de área del lote que contiene el pun-
to ω. Entonces X toma sólo n valores, digamos b1 , b2, . . . , bn . La región sobre
el cual X es igual a bk tiene área P[X = bk ], y por lo tanto, el valor de la tierra
total es
Xn
E[X] = bk P[X = bk ] .
k=1
1. Valor Esperado
Sea Ω un espacio muestral, P una medida de probabilidad y X una va-
riable aleatoria discreta definida sobre Ω. Sean b0 , b1, b2 . . . ∈ R+ = [0, ∞[ los
valores que toma X, y poner Bn = {ω | X(ω) = bn }. Entonces B0 , B1, . . . son
disjuntos y su unión es Ω. La función X es igual a bn sobre el conjunto Bn
cuya medida es P[Bn ]. Por lo tanto la integral de la función X con respecto
de la medida P es
E[X] = b0 P[B0] + b1P[B1] + b2 P[B2] + · · · (1.1)
(permitimos que sea +∞). (Ver Figura 2.1.1). Notar que el lado derecho divi-
dido por 1 = P[Ω] puede también ser considerado como el promedio ponde-
rado de la
DEFINICIÓN 1.2.
El valor esperado de una variable aleatoria discreta X tomando valores
en el conjunto E ⊂ R+ es
X
E[X] = aP[X = a] .
a∈E
para todo ω. Ya que cada Xn es discreta, su valor esperado E[Xn] está bien
definido por (1.2). Por nuestra interpretación de E[Xn] como un integral es
fácil ver que
E[X1] ≤ E[X2] ≤ · · · ,
y parece razonable hacer lo siguiente
DEFINICIÓN 1.5.
Sea X una variable aleatoria no negativa, y sean X1 , X2, . . . variablea
aleatorias discretas satisfaciendo (1.3) y (1.4). Entonces definimos el
valor esperado de X como
DEFINICIÓN 1.8.
Sea X una variable aleatoria arbitraria con valores en R, sean Y y Z
definidos por (1.6) y (1.7). Entonces
siempre que al menos uno de los números E[Y ] y E[Z] sea finito. Si
E[Y ] = E[Z] = +∞, entonces se dirá que X no tiene valor esperado.
22 CAP. 2: ESPERANZA E INDEPENDENCIA
Las definiciones (1.2) y (1.8) son bastante viables, pero (1.5) no lo es. De he-
cho, aún no hemos resuelto la cuestión de no ambuigüedad. Si {Xn } es una
sucesión creciente de variables aleatorias discretas a X y si {Yn } es otra su-
cesión de variables aleatorias discretas creciente a X, entonces la Definición
(1.5) pondrı́a E[X] = lı́mn E[Xn ] y E[X] = lı́mn E[Yn]. ¿Cómo sabemos que
estos dos números son los mismos? En efecto, ellos son los mismos, como la
demostración del siguiente teorema lo muestra. Como subproducto se obtie-
ne una buena fórmula de cálculo.
TEOREMA 1.9.
Para cualquier variable aleatoria no negativa X,
Z ∞
E[X] = P[X ≥ t]dt (1.10)
0
P[X ≤ t]
P[X = c]
P[X = b]
P[X = a]
a b c t
X
E[X] = aP[X = a]
a∈E
XZ a
= dtP[X = a] (1.11)
0
Ra∈E
∞ P R∞
= 0 dt a>t P[X = a] = 0 P[X > t]dt .
COROLARIO 1.14.
Si X es una variable aleatoria tomando valores en N = {0, 1, 2, . . .},
entonces
∞
X
E[X] = P[X > n] .
n=0
COROLARIO 1.15.
Para cualquier variable aleatoria X,
Z∞ Z0
E[X] = P[X > t]dt − P[X ≤ t]dt ,
0 −∞
COROLARIO 1.16.
Para cualquier variable aleatoria real valuada X con función de dis-
tribución ϕ,
Z∞
E[X] = tdϕ(t) ,
−∞
EJEMPLO 1.19 La intensidad X de la luz que cae sobre cierta superficie tiene
una distribución ϕ dada por
1 1 2
dϕ(t) = p exp − 2 (t − α) dt , −∞ < t < ∞ .
2πβ 2 2β
EJEMPLO 1.21 Una pieza de equipo tiene dos componentes cuyos tiempo
de vida X e Y son variables aleatorias independientes con distribuciones
P[X ≤ t] = 1 − e−2t , P[Y ≤ t] = 1 − e−3t , t≥0.
El equipo falla si uno de los dos componentes lo hace, es decir, la vida útil
del equipo es Z = mı́n(X, Y ). Para calcular E[Z] usaremos el Teorema (1.9).
Ahora, Z > t si y sólo si ambos X > t e Y > t. Ası́
P[Z > t] = P[X > t, Y > t]
= P[X > t]P[Y > t] = e−2t e−3t = e−5t ,
donde la segunda desigualdad sigue de la independencia de X e Y (ver la
Definición(1.2.21) ). Ası́
Z ∞
1
E[Z] = e−5t dt = .
0 5
⊳
TEOREMA 1.24.
Sea X1 , . . . , Xn variables aleatorias tomando valores en E y sea f una
función de E × · · · × E = E n hacia R+ . Entonces
Z
E[f (X1, . . . , Xn)] = f (t1, . . . , tn )dϕ(t1, . . . , tn )
En
COROLARIO 1.25.
E[g(X)h(Y )] = E[g(X)]E[h(Y )] .
28 CAP. 2: ESPERANZA E INDEPENDENCIA
El supuesto de independencia en esta proposición: si X e Y son no indepen-
dientes, entonces E[g(X)h(Y )] debe diferir de E[g(X)]E[h(Y )].
Para ciertas funciones especiales f , E[f (X)] se da ciertos nombres espe-
ciales. En particular, si f (b) = bn entonces E[f (X)] = E[X n ] es llamado el nth
momento de X sobre el origen. Si f (b) = (b − µ)2, donde µ = E[X], entonces
E[f (X)] = E[(X −µ)2 ] es llamado la varianza de X y es denotado por Var(X).
Si X es una variable aleatoria de valores enteros y no negativa, y si f (b) = αb
para algún α ∈ [0, 1], entonces E[f (X)] = E[αX ] es un número entre 0 y 1.
Considerado como una función de α ∈ [0, 1], G(α) = E[αX ] es llamada la
función generadora de X. Si X es una variable una variable aleatoria no nega-
tiva, y si f (b) = e−αb para algún α > 0, entonces E[f (X)] es nuevamente un
número entre 0 y 1. Considerado como una función de α, F (α) = E[e−αX ] es
llamada la transformada de Laplace de X.
El valor esperado de X es una guı́a aproximada de el valor de X es pro-
bable que sea cerca. La varianza de X mide la desviación de X desde este
valor probable E[X]. Si la varianza es pequeña, entonces X es más probable
de esta cerca de E[X]. Lo siguiente es una estimación que puede ser usada
cuando la distribución de X no es conocido. Esta es llamada la desigualdad de
Chebishev
Proposición 1.27 Sea X una variable aleatoria con esperanza a y varianza b2.
Entonces para cualquier ε > 0,
b2
P[|X − a| > ε] ≤ .
ε2
SEC. 1: VALOR ESPERADO 29
Por lo tanto,
E[X 2] = 64 + 8 ,
y
Var(X) = E[X 2 ] − (E[X])2 = 8 .
A continuación su función generadora. Tenemos
G(α) = E[αX ]
∞
X e−88n
= αn = e−8 e8α = e−8(1−α) ,
n=0
n!
y la tercera derivada es
⊳
EJEMPLO 1.30 Considerar el tiempo de vida X del elemento discutido en el
Ejemplo (1.18). Su esperanza era de E[X] = 50. Ahora,
Z ∞
E[X 2] = t2 dϕ(t)
Z0 ∞
= t2 0,02e−0,02tdt
Z0 ∞
= 2te−0,02tdt
0 Z ∞
2
= t0,02e−0,02t dt = 2(E[X])2 ,
0,02 0
y por lo tanto
TEOREMA 1.34.
Si X1 , X2, . . . es una sucesión creciente de variables aleatorias
no negativas a la variable aleatoria X, entonces las esperanzas
E[X1], E[X2], . . . son crecientes hacia E[x].
TEOREMA 1.35.
Sean X1 , X2 , . . . una sucesión de variables aleatorias que son acotadas
en valor absoluto por una variable aleatoria Y tal que E[Y ] < ∞. Si
2. Esperanza condicional
Sea Y una variable aleatoria discreta tomando valores en R+ , y sea A un
evento con P[A] > 0. Entonces la probabilidad condicional de que Y = b
32 CAP. 2: ESPERANZA E INDEPENDENCIA
DEFINICIÓN 2.6.
Sean X1 , . . . , Xn variables aleatorias discretas tomando valores en E,
y sea Y una variable aleatoria discreta con valores en R+ . Entonces la
esperanza condicional de Y dado X1 , . . . , Xn es
donde
Z ∞
f (a1, . . . , an ) = P[Y > t|X1 = a1 , . . . , Xn = an ]dt (2.8)
0
para todo a1 , . . . , an ∈ E.
Para cualquier evento A, su función indicador IA (que es tal que IA (ω) = 1
o 0 de acuerdo si ω ∈ A o no) es una variable aleatoria. Entonces definimos
la probabilidad condicional de A dado X1 , . . . , Xn como
E[g(Y1, . . . , Yn)|X1 , . . . , Xn ]
X
= g(b1, . . . , bm)P[Y1 = b1 , . . . , Ym = bm |X1 , . . . , Xn] .
b
COROLARIO 2.12.
Si Y1 , . . . , Ym toma valores en R+ y c1 , . . . , cm son constantes, entonces
Ası́,
E[Y |X] = f (X) = (0,4)2X + (0,6)3X .
⊳
EJEMPLO 2.14 Considerar las tres variables aleatorias X, Y y Z con distri-
bución conjunta
P[X = k, Y = m, Z = n] = p3q n−3
para k = 1, . . . , m−1; m = 2, . . . , n−1; n = 3, 4, . . ., donde 0 < p < 1, p+q = 1.
Entonces para k = 1, . . . , m − 1; m = 2, 3, . . .;
∞
X
P[X = k, Y = m] = p3 q i−3 = p2q m−2 .
i=m+1
Ası́,
1
E[Z|X, Y ] = Y + .
p
Notar que para cualquier función acotada g,
∞
X
E[g(Z)|X = k, Y = m] = g(i + m)pq j−1 ,
j=1
tal que
∞
X
E[g(Z)|X, Y ] = g(Y + j)pq j−1 .
j=1
El siguiente resultado es muy importante en la teorı́a de procesos estocásti-
cos. Este muestra como obtener la esperanza condicional de Y dado X1 , . . . , Xn
cuando es fácil de obtener lo mismo dado X1 , . . . , Xn más alguna informa-
ción extra contenida en Xn+1, . . . , Xn+m.
TEOREMA 2.19.
Para cualquier n, m ≥ 1
Tenemos
y X
f (a1, a2, a3 ) = bP[Y = b|X1 = a1 , X2 = a2 , X3 = a3 ] .
b
ya que
X
P[Y = b|X1 = a1 , X2 = a2 , X3 = a3 ]P[X3 = a3 |X1 = a1 , X2 = a2 ]
a3
X
= P[Y = b, X3 = a3 |X1 = a1 , X2 = a2 ]
a3
= P[Y = b|X1 = a1 , X2 = a3 ]
por (1.3.1) y (1.3.2). Notar que (2.21) es lo mismo que (2.20) lo que completa
la demostración.
SEC. 2: ESPERANZA CONDICIONAL 37
COROLARIO 2.22.
Si
E[Y |X1 , . . . , Xn , . . . , Xn+m] = g(X1, . . . , Xn ) ,
entonces
E[Y |X1 , . . . , Xn] = g(X1 , . . . , Xn) .
DEFINICIÓN 2.24.
El conjunto de variables aleatorias {Y1 , . . . , Ym } se dice que son inde-
pendientes de {X1 , . . . , Xn } si
DEFINICIÓN 2.25.
{Y1 , . . . , Ym } se dice que es condicionalmente independiente de
{Z1 , . . . , Zk } dado {X1, . . . , Xn } siempre que
EJEMPLO 2.27 Sean X1 , X2, . . . una sucesión de variables aleatorias con E[Xi] = µ
para todo i. Sea N una variable aleatoria entero valuada y no negativa inde-
pendiente de X1 , X2, . . . con E[N ] = λ. Para cada ω ∈ Ω, sea
0 si N (ω) = 0
Y (ω) =
X1(ω) + · · · + Xn (ω) si N (ω) = n .
Nos gustarı́a calcular E[Y ]. Podemos pensar en X1 , X2, . . . como las canti-
dades gastadas por los clientes 1, 2, . . . y de N como el número de llegadas
dentro de la primera hora. Entonces Y es total de ingresos dentro de esta
hora.
Por la proposición(2.16),
E[Y |N = n] = E[X1 + · · · + Xn |N = n]
= E[X1 + · · · + Xn ]
= E[X1] + · · · + E[Xn ] = nµ .
Por lo tanto
E[Y |N ] = N µ ,
y por (2.28)
E[Y ] = E[µN ] = µE[N ] = λµ .
⊳
3. Ejercicios
3.1 Encontrar el valor esperado de una variable aleatoria X tomando los va-
lores −5, 1, 4, 8, 10 con probabilidades 0.3, 0.2, 0.2, 0.1, 0.2 respectivamen-
te.
40 CAP. 2: ESPERANZA E INDEPENDENCIA
3.2 Considere la variable aleatoria X tomando los valores −2, 0, 2 con proba-
bilidades 0.4, 0.3, 0.3 respectivamente. Calcular los valores esperados de
X, X 2 , 3x2 + 5
3.4 Una variable aleatoria X se dice que tiene la distribución uniforme sobre
[a, b] si
t−a
P[X ≤ t] = , a≤t≤b.
b−a
(a) Calcular E[X], Var(X), E[(X − a)/(b − a)].
(b) Encontrar la distribución de Y = (X − a)/(b − a).
Var(aX + b) = a2 Var(X)
E[Xn ] = a , Var(Xn) = b2 .
E[N ] = c , Var(N ) = d2 .
Sea S0 = 0, S1 = X1 , S2 = X1 + X2, . . ., y se Y = SN .
donde
1. Proceso de Bernoulli
Sea Ω un espacio muestral y P una medida de probabilidad sobre Ω. Sea
{Xn ; n = 1, 2, . . .} una sucesión de variables aleatorias definidas sobre Ω y
tomando solo los valores de 0 y 1.
DEFINICIÓN 1.1.
El proceso estocástico {Xn : n = 1, 2, . . .} es llamado proceso de Ber-
noulli con probabilidad de éxito p siempre que
2. Ejercicios
(5.1) Considerar una posible realización ω = (E, F, F, F, E, E, F, E, . . .) de
una sucesión de ensayos independientes con dos posibles resultados,
E y F . Para este particular ω, cuales son las valores de las variables
aleatorias
(a) X1, X2 , . . . , X8 ;
(b) N0, N1, . . . , N8;
(c) T0, T1, T2, T3, T4?
(a) P[N1 = 0, N2 = 0, N3 = 1, N4 = 1]
(b) P[N1 = 1, N3 = 2, N4 = 2]
(c) P[N8 = 6, N15 = 12]
(5.7) Generalizar el resultado del Ejemplo (2.16) mostrando que para cual-
quier n, m ∈ N,
E[Nn+m|Nn ] = Nn + mp .
46CAP. 3: PROCESOS DE BERNOULLI Y SUMAS DE VARIABLES ALEATORIAS INDEPENDIENTES
(5.8) Repetir los pasos de la demostración del Teorema (2.14) para mostrar la
veracidad del siguiente resultado particular
(5.10) En el Ejemplo (1.2), suponer que los artı́culos son empacados en cajas
de 100 cada uno. Un plan de inspección de muestreo da el aviso para
rechazar un caja de una muestra de 5 muestra que la caja contiene una
o más defectos. ¿Cuál es la probabilidad de que una caja que contenga
exactamente 4 defectos sea rechazada?
1. Introducción
Sea Ω un espacio muestral y P una medida de probabilidad sobre este.
Considere un proceso estocástico X = {Xn : n ∈ N} con un espacio de
estados contable E; es decir, para cada n ∈ N = {0, 1, . . .} y ω ∈ Ω, Xn (ω)
es un elemento del conjunto contable E. Es costumbre decir que “el proceso
está en el estado j del tiempo n”, esto representa Xn = j. Ası́, Xn se refiere
al estado del proceso X en el tiempo n, y el conjunto E es llamado el espacio
de estados del proceso X.
DEFINICIÓN 1.1.
El proceso estocástico X = {Xn : x ∈ N} es llamado una cadena de
Markov siempre que
para todo j ∈ E y n ∈ N.
NOTACIONES 1.3 Si los M(i, j) son números reales definidos para todo
i, j en algún conjunto contable E, entonces por M denotamos la matriz cu-
yos (i, j)-entrada es M(i, j). Contrariamente, si M es una matriz, por M(i, j)
significa le (i, j)-entrada de M. Denotaremos los vectores columnas con le-
tras minúsculas tales como f, g, h, . . . y los vectores filas por letras griegas
minúsculas tales como π, ν, . . .. Si f es un vector columna, f (i) es la i-entrada;
si π es un vector fila, π(j) es su j-entrada. Los vectores columna serán con-
siderados como funciones definidas sobre E, y cuando quede claro que esta-
mos hablando de una función f nos tomaremos la libertad de mostrar esta
como f = (a, b, . . .) esto por facilidad tipográfica, a pesar de que todavı́a
estamos pensando en ello como un vector columna.
La matriz identidad siempre será denotada por I; además I(i, j) = 1 o 0
de acuerdo con i = j o i 6= j. Cualquier vector o matriz en el que cada entrad
es cero será denotado por 0. El vector columna de unos será denotado por
1; por lo tanto 1(i) = 1 para todo i. Para cualquier j, escribiremos 1j para el
vector columna en el que cada entrada es cero excepto la j-entrada, que es
uno; por lo tanto 1j (i) = I[j] (i) = 1 o 0 de acuerdo con i = j o i 6= j.
Igualdades y desigualdades entre vectores (o entre matrices) son siempre
término a término. Por mo tanto M ≥ 0 significa M(i, j) ≥ 0 para todo i, j;
f ≤ g significa f (i) ≤ g(i) para todo i
DEFINICIÓN 1.4.
Sea P una matriz cuadrad de entradas P (i, j) definido para todo
i, j ∈ E. Entonces P es llamada una matriz de Markov sobre E siem-
pre que
[5] E.L. Lima, Análisis Real, Vol.2, Colección Matemática Universitaria, IM-
PA, 2004.
Índice alfabético
Casi
seguramente, 3
todo, 3
Espacio muestral, 1
Evento, 1
cierto, 2
vacı́o, 2
Eventos
disjuntos, 2
Experimento aleatorio, 1
Función
de distribución, 7
indicador, 5
Medida de probabilidad, 3
Parámetro
continuo, 6
discreto, 6
Probabilidad
condicional, 12
Variable
aleatoria, 4
56