Beruflich Dokumente
Kultur Dokumente
Universit de Montral
Avant-propos
Ces notes sont utilises pour un premier cours sur les processus stochastiques (MAT2717) oert aux tudiants du premier cycle en mathmatiques et
statistique de l'Universit de Montral, ce qui comprend les tudiants en actuariat. Ce cours est galement suivi l'occasion par des tudiants de cycles
suprieurs, notamment en nance mathmatique et computationnelle ou en
recherche oprationnelle. Il s'agit en fait d'un deuxime cours en thorie des
probabilits qui a comme pralable la connaissance des notions de probabilit
et de variable alatoire et des principaux rsultats sur les suites de variables
alatoires indpendantes, soit la loi des grands nombres et le thorme limite central. Il demande galement de la part des tudiants un large ventail
de connaissances mathmatiques, que ce soit en algbre linaire, quations
direntielles, calcul avanc ou analyse. En somme, bien qu'il ne fasse pas
appel la thorie de la mesure qui est la base d'une approche rigoureuse
aux processus stochastiques, le cours requiert de la maturit mathmatique.
Le contenu du cours porte principalement sur les chanes de Markov, autant temps discret (chapitre 1) qu' temps continu (chapitre 2). Le point
culminant en est le thorme ergodique qui permet de dcrire le comportement asymptotique de la chane l'aide de probabilits d'absorption et de
distributions stationnaires. Suivent les principaux rsultats sur les processus semi-markoviens, dont le processus de renouvellement (chapitre 3), pour
prendre en compte des temps de sjour aux dirents tats de loi quelconque.
Le tout se termine par une initiation aux martingales, principalement par
les jeux de hasard (chapitre 4), et une introduction au mouvement brownien
avec des applications la nance (chapitre 5). Le cours aide prparer en
partie les examens 3L et MLC des socits d'actuaires nord-amricaines.
Le contenu des notes a t grandement inuenc par les intrts de recherche de l'auteur en gntique des populations, domaine qui a eu et qui
continue d'avoir une grande inuence sur les probabilits. Ainsi, il ne faut
pas se surprendre de trouver en vidence non seulement le processus de branchement de Galton-Watson, le modle de population de Wright-Fisher et le
processus de naissance et de mort linaire avec immigration, ce qui inclut
le processus de Yule, mais aussi le processus de coalescence qui est tant
utilis dans la recherche actuelle. D'autres exemples phares de processus stochastiques ne sont pas en reste, qu'il s'agisse de la ruine du joueur pour
ii
Avant-propos
les marches alatoires sur les entiers, du processus de Poisson pour l'arrive d'vnements au hasard, du systme de bonus-malus pour la xation de
primes d'assurance, de modles de diusion pour la distribution ou le mouvement de particules, de systmes d'attente ou de modles de abilit pour
l'optimisation en recherche oprationnelle.
L'emphase est mise sur la modlisation et l'interprtation des rsultats.
Les preuves de la plupart des armations, dont une dmonstration complte
du thorme ergodique, sont cependant incluses pour satisfaire les plus exigeants, tout en vitant le formalisme de la thorie de la mesure. Les preuves
les plus techniques et les sections d'importance secondaire, qui apparaissent
souvent en n de chapitre et qui sont marques d'un astrisque (*), peuvent
tre survoles ou laisses de ct lors d'une premire lecture. Cela permet de
couvrir l'ensemble de la matire l'intrieur d'un cours de 45 heures.
Les notes ont t fortement inspires l'origine du livre An Introduction
to Stochastic Modeling, par H.M. Taylor et S. Karlin, que Samuel Karlin
appelait aectueusement son "baby book". Pour les dmonstrations, le livre
plus complet des mmes auteurs, A First Course in Stochastic Processes,
ainsi que le livre Probability and Random Processes, par G.R. Grimmett
et D.R. Stirzaker, ont t des sources d'information importantes. Pour la
thorie et les applications des martingales et du mouvement brownien, des
ouvrages plus rcents, principalement Essentials of Stochastic Processes, par
R. Durrett, et Processus stochastiques, par D. Foata et A. Fuchs, ont t
particulirement utiles. Les notes ont subi l'inuence de beaucoup d'autres
ouvrages du mme niveau ou de niveau lgrement infrieur, notamment
Introduction to Probability Models, par S. Ross, et Processus stochastiques,
par A. Ruegg, mais aussi d'ouvrages de niveau suprieur, comme A First
Look at Rigorous Probability Theory, par J.S. Rosenthal, Probability with
Martingales, par D. Williams, et Markov Chains, par D. Freedman.
Le contenu de ces notes a beaucoup volu au cours des annes. Des aspects de nature essentiellement mathmatique ont laiss la place des sujets
qui ont un intrt en biologie, recherche oprationnelle, nance ou actuariat. Des gnrations d'tudiants, de stagiaires postdoctoraux et de chargs
de travaux pratiques sur une priode de presque trente ans ont grandement
contribu bonier ce contenu par leurs questions, commentaires et suggestions. J'aimerais mentionner M. Augustyniak, M. Banville, V. Carrier, A.M.
Castilloux, J. Courteau, D. Kroumi, V. Ladret, P. Lahaie, F. Larribe, S.
Langevin, D. Lasalle-Ialongo, M. Lemire, S. Mahdi, G. Martin, E. Monga,
D. Pouliot, G. Rocheleau, L. Saidi, C. Sguin, C. Soares, Y. Tao, P. Turbis, L. Villandr, sans oublier G. Elgbeili qui a rdig la premire version
lectronique des notes. La plupart continuent d'exercer leur curiosit et leur
iii
Sabin Lessard
iv
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 *Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Modle de diusion d'Ehrenfest en mcanique statistique
1.2.2 Modle de Wright-Fisher en gntique des populations
1.2.3 Systme de bonus-malus en assurance automobile . . .
1.2.4 Modle d'entretien en thorie de la abilit . . . . . .
1.3 Dnitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Chane de Markov temps discret . . . . . . . . . . .
1.3.2 Matrice de transition en n pas . . . . . . . . . . . . .
1.3.3 Exemple : Le temps d'un jour au suivant . . . . . . . .
1.3.4 Exemple : Le temps sur deux jours conscutifs . . . .
1.3.5 Chane de Markov sur deux tats . . . . . . . . . . . .
1.4 Mthode de conditionnement sur la premire transition . . . .
1.4.1 Exemple : Promenade alatoire dans un labyrinthe . .
1.4.2 Exemple : Jeu de pile ou face . . . . . . . . . . . . . .
1.4.3 Ruine du joueur . . . . . . . . . . . . . . . . . . . . .
1.5 Processus de branchement . . . . . . . . . . . . . . . . . . . .
1.5.1 Probabilit d'extinction ventuelle . . . . . . . . . . .
1.5.2 Distribution asymptotique de la taille de la population
1.5.3 Ruine du joueur contre un adversaire inniment riche
1.6 Classication des tats . . . . . . . . . . . . . . . . . . . . . .
1.6.1 Dnitions . . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3 Critres de classication . . . . . . . . . . . . . . . . .
1.6.4 Partition des tats . . . . . . . . . . . . . . . . . . . .
1.6.5 Exemple de partition des tats . . . . . . . . . . . . .
1.7 Thorme ergodique et distribution stationnaire . . . . . . . .
1.7.1 Thorme ergodique . . . . . . . . . . . . . . . . . . .
1.7.2 Distribution stationnaire . . . . . . . . . . . . . . . . .
1.7.3 Matrice de transition doublement stochastique . . . .
1.7.4 Thorme sur la distribution stationnaire . . . . . . .
1.7.5 Chane irrductible apriodique espace d'tats ni .
1.7.6 Exemple : Retour sur le temps d'un jour au suivant . .
1.7.7 Exemple : Modle de rparation . . . . . . . . . . . . .
1.7.8 Exemple : Bonus-malus pour l'assurance-automobile .
1.7.9 Exemple : Marche alatoire sur les entiers . . . . . . .
1
2
2
5
6
7
8
8
8
10
12
13
15
15
17
19
22
22
28
30
33
33
34
36
37
39
40
40
41
42
42
43
43
44
45
47
1.8
1.9
1.10
1.11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
51
53
53
55
56
58
58
61
66
68
68
68
69
71
78
85
85
85
87
89
91
91
93
94
95
95
98
101
101
101
104
104
105
106
107
107
107
vi
2.5
2.6
2.7
2.8
2.9
3 Processus de renouvellement
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
108
110
114
114
115
115
117
118
120
122
123
123
124
125
127
129
131
132
132
132
133
136
138
143
149
.
.
.
.
.
.
.
.
.
.
.
.
.
149
150
150
150
150
152
152
155
155
156
156
156
159
3.4
3.5
3.6
3.7
3.8
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
162
162
163
163
164
165
166
166
170
170
172
174
174
176
178
. 179
. 180
. 183
187
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
187
187
188
188
189
189
190
191
192
192
192
192
194
196
198
200
200
viii
Bibliographie
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
202
.
.
.
.
.
.
.
.
.
.
.
202
202
202
204
205
207
207
208
209
211
211
212
1.1 Introduction
Un processus stochastique est une suite de variables alatoires indices
par le temps. Le cas le plus simple est celui d'une suite de variables alatoires
indpendantes. Ce sont des variables alatoires qui n'ont aucune inuence
les unes sur les autres. C'est le sujet qu'on tudie dans un premier cours
de probabilits aprs avoir introduit les notions fondamentales d'vnement,
de probabilit, d'indpendance, de variable alatoire et d'esprance. Le tout
culmine avec la loi des grands nombres, qui permet d'interprter l'esprance
comme la moyenne de valeurs observes long terme, indpendamment dans
les mmes conditions, et le thorme limite central, qui garantit que cette
moyenne est la valeur prise par une variable alatoire dont la distribution
de probabilit s'approche de plus en plus d'une loi normale. Ainsi, si on
lance une pice de monnaie bien balance un grand nombre de fois n indpendamment dans les mmes conditions, on s'attend ce que la proportion
de fois qu'on obtienne face soit prs de 1/2 et que cette proportion suive
approximativement une loi normale d'esprance 1/2 et de variance (2n)2 .
Le cas le plus simple d'une suite de variables alatoires dpendantes est
celui o les valeurs prises par les variables qui suivent n'importe quelle variable en particulier, tant donn la valeur prise par cette variable, sont
indpendantes des valeurs prises par les variables qui prcdent. Autrement
dit, le futur tant donn le prsent est indpendant du pass. Le processus est
alors dit markovien, du nom du mathmaticien russe Andre Markov (18561922). Lorsque l'espace d'tats est ni ou inni dnombrable, on a aaire
une chane de Markov, qui peut tre temps discret ou temps continu.
Le rsultat le plus important sur les chanes de Markov est le thorme
ergodique. Il dcrit en gnral ce qui se passe long terme, c'est--dire la
distribution de probabilit limite de la chane sur les dirents tats lorsque
celle-ci existe, et la proportion de temps moyenne limite que la chane passe
dans chaque tat, et ce selon l'tat initial. Il permet de comprendre le comportement de la chane sur une longue priode de temps. C'est l'objectif
principal de ce chapitre qui porte sur les chanes temps discret.
Ainsi, la marche alatoire dcrite en faisant un pas gauche ou droite
chaque fois qu'on obtient pile ou face, respectivement, en lanant une pice
1.2 *Exemples
de monnaie un grand nombre de fois indpendamment dans les mmes conditions, est une chane de Markov temps discret. Cette marche alatoire reste
une chane de Markov dans le cas o un pas est annul si on frappe un obstacle, un mur par exemple. Dans un tel contexte, il est intressant de savoir
quelle est la probabilit d'tre une position donne aprs un trs long
moment, ou encore quelle proportion de temps est passe cette position
sur une longue priode de temps. C'est le type de questions qu'on se pose
lorsqu'on est en prsence d'une chane de Markov.
De nombreuses situations relles sont modlises par des chanes de Markov, que ce soit en biologie, physique, conomie ou recherche oprationnelle.
Ce chapitre commence donc par des exemples pour illustrer les principaux
concepts et rsultats qui sont dvelopps par la suite.
1.2 *Exemples
1.2.1 Modle de diusion d'Ehrenfest en mcanique statistique
On considre un systme hermtiquement ferm constitu de deux compartiments, reprsents par A et B , contenant ensemble un nombre m de
particules d'un gaz. Les particules l'intrieur du systme ne peuvent pas
en sortir et aucune autre particule ne peut y entrer. La cloison sparant les
deux compartiments n'est cependant pas parfaitement tanche et les particules, qui sont en mouvement permanent, peuvent passer d'un compartiment
un autre. Cela peut tre reprsent par une ouverture dans la cloison de
dimension du mme ordre de grandeur que celle d'une particule. Ce systme
est illustr dans la Figure 1.
On fait les hypothses suivantes sur le passage des particules d'un compartiment l'autre :
Un seul passage la fois peut survenir.
Les particules ont des chances gales de changer de compartiment.
Le temps est calcul en nombre de passages. L'tat du systme aprs n
passages, pour n 0, est dcrit par le nombre de particules dans le compartiment A, reprsent pat Xn . Ce nombre peut prendre n'importe quelle
valeur i = 0, 1, . . . , m.
La probabilit de transition pour que Xn+1 = j tant donn que Xn = i
est dnote par Pij , c'est--dire
Pij = P r(Xn+1 = j|Xn = i).
3
B
Pij =
i
m
mi
si j = i 1 pour 1 i m,
si j = i + 1 pour 0 i m 1,
autrement.
m
j
1
2
1.2 *Exemples
long terme une probabilit 1/2 d'tre dans A plutt que dans B , et ce
indpendamment de la position des autres particules. On est alors dans le
contexte de m preuves indpendantes de Bernoulli avec 1/2 comme probabilit de succs chaque preuve. Le nombre total de succs suit en consquence une loi binomiale. Il est noter que la limite prdite ne dpend pas
de i, l'tat initial du systme.
0 si n est impair,
1 si n est pair.
n1
lim
k=0
1
P r (Xk = 1|X0 = 1) = .
2
Il est noter que cette limite est celle prdite par la loi binomiale.
n1
P r (Xk = j|X0 = i) =
lim
k=0
m
j
1
2
1{Xk =j} =
1 si Xk = j,
0 sinon.
n1
P r (Xk = j|X0 = i) = E
k=0
Nj (n)
X0 = i ,
n
n1
Nj (n) =
1{Xk =j}
k=0
P r (Xn+1 = k|Xn = i) =
i
N
i
1
N
N k
pour k = 0, 1, . . . , N .
Voici quelques questions qui se posent au sujet de cette chane de Markov
temps discret.
E (Xn+1 |Xn = i) =
k=0
N
k
i
N
i
N
N k
=N
i
N
= i.
1.2 *Exemples
i
.
N
k
e ,
k!
pour k 1 et i 0, mais
P r (Xn+1 = i 1|Xn = i) = P r (Xn+1 = 0|Xn = 0) = e ,
1.3 Dnitions
1.3 Dnitions
1.3.1 Chane de Markov temps discret
Une chane de Markov temps discret est une suite de variables alatoires
{Xn }n0 valeurs dans un espace d'tats (ni ou inni) dnombrable (habituellement dnots par 0, 1, 2, . . . ) telle que
P r (Xn+1 = j|Xn = i, Xn1 = in1 , . . . , X0 = i0 ) = P r (Xn+1 = j|Xn = i)
9
in
i1
i2
i0
in1
i3
n1
Proprit 1.
Proprit 2.
Proprit 3.
avec
(n)
Pij =
(k)
(nk)
Pil Plj
(0)
Pij =
Proprit 4.
(n)
Les proprits 1 et 2 sont immdiates, car Pij est une probabilit et la
somme sur j pour tout i xe donne la probabilit de l'ensemble de toutes
les transitions possibles partir de i. Ces deux proprits signient que la
matrice de transition en n pas est une matrice stochastique.
La proprit 3, appele l'quation de Chapman-Kolmogorov, est obtenue
en conditionnant sur l'tat un instant intermdiaire k entre 0 et n et en
1.3 Dnitions
10
utilisant la stationnarit. Cela donne
P r (Xn = j|X0 = i) =
P r (Xn = j, Xk = l|X0 = i)
l
l
j
i
0
11
P r (Sn+1 |Sn ) = 0, 2;
P r (Sn+1 |Nn ) = 0, 4.
On a alors
P r (Nn+1 |Sn ) = 1 P r (Sn+1 |Sn ) = 0, 8;
P r (Nn+1 |Nn ) = 1 P r (Sn+1 |Nn ) = 0, 6.
0, 2 0, 8
0, 4 0, 6
Supposons maintenant qu'on est lundi et que c'est ensoleill. On veut connatre
la probabilit que le vendredi suivant soit ensoleill. Puisque vendredi est
dans quatre jours, on doit calculer
(4)
0, 2 0, 8
0, 4 0, 6
0, 36 0, 64
0, 32 0, 68
0, 3344 0, 6656
0, 3328 0, 6672
(4)
Nous concluons que P00 = 0, 3344. Remarquons que cette probabilit est
(4)
trs prs de P10 = 0, 3328. En fait les deux lignes de la matrice de transition
en 4 pas sont pratiquement identiques, ce qui signie que l'tat de dpart ne
fait pratiquement plus de dirence aprs seulement 4 pas. Ceci n'est pas un
hasard comme nous le verrons plus loin.
1.3 Dnitions
12
La suite {Xn }n0 n'est plus une chane de Markov, car les deux premires
probabilits conditionnelles ci-dessus, par exemple, signient que
P r (Xn+1 = 0|Xn = 0, Xn1 = 0) = P r (Xn+1 = 0|Xn = 0, Xn1 = 1) .
0, 1 0 0, 9 0
0, 3 0 0, 7 0
P =
0 0, 3 0 0, 7 .
0 0, 5 0 0, 5
On a, par exemple,
P r (Yn+1 = (1, 0)|Yn = (0, 1)) = P r (Nn+1 , Sn |Sn , Nn1 )
= P r (Nn+1 |Sn , Nn1 )
= 1 P r (Sn+1 |Sn , Nn1 )
= 1 0, 3 = 0, 7.
13
P =
o
=
1 0
0 2
est la matrice diagonale des valeurs propres, Q est une matrice dont les colonnes sont des vecteurs propres droite correspondants et Q1 une matrice
dont les ranges sont des vecteurs propres gauche correspondants. Cela
dcoule des quations P Q = Q et Q1 P = Q1 , respectivement. Nous
obtenons alors que
P n = Qn Q1 ,
pour tout n 1. En eet, cette quation est vraie pour n = 1 et, si elle est
vraie pour n 1, alors
P n = P P n1 = QQ1 Qn1 Q1 = Qn1 Q1 = Qn Q1 ,
du fait que Q1 Q = I .
Les valeurs propres sont obtenues en solutionnant l'quation
det(P I) = (1 a ) (1 b ) ab = 0,
(2 a b) +
(2 a b)2 4(1 a b)
=1
2
1.3 Dnitions
14
et
2 =
(2 a b)2 4(1 a b)
= 1 a b.
2
(2 a b)
x1
x2
donc
(1 a) x1 + ax2 = x1 ,
x1 ( + a 1)
.
a
1 1
b
1 a
P =
1 1
b
1 a
1 1
b
1 a
1
0
0 1ab
d'o
b
a+b
a
a+b
1
0
0 1ab
a
a+b
a
a+b
1 1
b
1 a
b
a+b
a
a+b
1
0
0 (1 a b)n
a
a+b
a
a+b
b
a+b
b
a+b
a
a+b
a
a+b
15
Les calculs eectus dans cet exemple montrent que cette limite est dj
pratiquement atteinte lorsque n = 4.
0
souris
fromage
choc
16
P =
0 1/2 1/2 0
0
0
0
0
0
1/3 0
0 1/3 0
0
0 1/3 0
1/3 0
0 1/3 0
0
0
0 1/3
0
0
0 1/3 0
0 1/3 1/3 0 .
0
0
0 1/3 0
0 1/3 0 1/3
0
0
0
0 1/2 1/2 0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
1
17
1
u2 ,
2
1
u3 +
3
1
u3 +
3
1
u2 +
4
1
u6 +
3
1
u6 +
3
1
u5 ,
2
1
u7 ,
3
1
u8 ,
3
1
1
u4 + u5 ,
4
4
1
u7 ,
3
1
u8 ,
3
1 1 1 1
+ + 1=
2 3 2 3
1 1 1 1
+ + 0=
2 3 2 3
2
,
3
1
.
3
18
1/2 1/2 0
0
1/2 0 1/2 0
.
P =
1/2 0
0 1/2
0
0
0
1
1
0 + 1,
2
1
0 + 1,
2
1
0 + 1.
2
En eet si le rsultat du premier lancer supplmentaire est F , ce qui a probabilit 1/2, le nombre de faces conscutives avant le prochain lancer augmente
de 1, sinon il tombe 0. Le premier lancer supplmentaire doit cependant
tre ajout la nouvelle esprance dans tous les cas.
La solution de ce systme est donne par 0 = 14, 1 = 12 et 2 = 8.
Finalement, en conditionnant sur les rsultats des trois premiers lancers, le
nombre espr de lancers avant la n du jeu est donne par
1
1
1
1
3 + 3 + 2 + 1 + 0 = 14.
8
8
4
2
Remarquons que cela correspond au nombre espr de lancers supplmentaires avant la n du jeu partir d'une pile, c'est--dire 0 .
On considre maintenant
i = E(nombre de faces supplmentaires avant l'tat 3 | tat i),
19
1
0 ,
2
1
0 ,
2
1
0 .
2
1 +
3
2
1
+ (0 + 1) = 7.
2
20
Figure 5.)
N : Ruine de B
i + 1 probabilit p (0 < p < 1)
Avoir de A
i
i 1 probabilit q = 1 p
Partie
0 : Ruine de A
n+1
c'est--dire
(ui+1 ui ) =
q
(ui ui1 ) .
p
q
p
(u1 u0 ) .
On a donc que
k1
k1
(ui+1 ui ) + u0 =
uk =
i=0
i=0
q
p
(u1 u0 ) + u0 ,
21
pour k = 0, 1, . . . , N , avec
N 1
0 = uN =
i=0
q
p
(u1 u0 ) + u0 .
1
N 1
i=0
q
p
d'o
uk = 1
k1
i=0
q
p
N 1
i=0
q
p
i
i
si p = q = 1/2,
k
n
1
q
p
q
p
k
N
si p = q,
ri =
i=0
k
1rk
1r
si r = 1,
si r = 1.
q
p
si p q , c'est--dire p 1/2,
k
Ceci suggre que, dans le cas o l'avoir du joueur B est inni, la ruine
ventuelle du joueur A est certaine si et seulement si sa probabilit de gagner
chaque partie est infrieure ou gale 1/2.
On considre maintenant l'esprance du nombre de parties jusqu' la
ruine de l'un des deux joueurs dans le cas de joueurs de force gale, c'est-dire p = q = 1/2, ayant un avoir total gal N . On dnit
i = E (dure du jeu | avoir initial i pour A) .
22
c'est--dire
(i+1 i ) = (i i1 ) 2.
(i+1 i ) + 0
k =
i=0
k1
(1 2i)
=
i=0
= k1 k(k 1),
pour k = 0, 1, . . . , N , avec
0 = N = N 1 N (N 1),
23
kpk .
k0
Z1 = 3
Extinction ou non
Z0 = 1
Z2 = 3
Zn = 0 ou > 0
24
un =
k0
pk sk ,
(s) =
k0
pour 0 s 1, reprsente la fonction gnratrice pour le nombre de descendants de premire gnration d'un individu. En procdant l'itration de
l'quation de rcurrence n fois, on obtient l'expression
un = (n) (u0 ) ,
pour n 0, avec u0 = 0.
Dans ce qui suit, on fait les hypothses suivantes :
Hypothse 1 : 0 < p0 < 1.
Hypothse 2 : 0 < p0 + p1 < 1.
Ces hypothses garantissent que la fonction gnratrice (s) est strictement
croissante et strictement convexe pour 0 < s < 1. En eet, on a alors
(s) =
d
(s) =
ds
et
(s) =
d2
(s) =
ds2
25
La courbe de (s) tant strictement croissante et de pente strictement croissante sur l'intervalle [0, 1] avec une valeur positive s = 0 et une valeur 1
s = 1, elle ne peut satisfaire (s) = s qu'en un seul autre point s = 1 dans
cet intervalle. La trajectoire des points obtenus par itration de (s) partir
de s = 0 dpend de la position de ce point initial par rapport 1. Celle-ci
dpend de la pente s = 1, qui est donne par
kpk = m.
(1) =
k1
Cas m > 1.
La Figure 7 illustre cette situation. Il existe un point unique 0 < u < 1
tel que (u) = u. Puisque
0 = u0 < p0 = u1 < u,
c'est--dire
u1 < u2 = (u1 ) < u.
pour tout n 0. La suite {un }n0 tant croissante et borne, elle converge.
Soit
u = lim un .
n
26
(s)
p0
0 = u0
u1
u2
u3 <
< u = (u)
27
(s)
p0
0 = u0
u1
u2
u3
<
< u=1 s
28
teintes pour que la population soit teinte.
o X1 , X2 , . . . sont des variables alatoires indpendantes identiquement distribues valeurs entires non ngatives et de fonction gnratrice (s),
indpendantes de la variable alatoire Y galement valeurs entires non
ngatives mais de fonction gnratrice (s), est donne par
E(sZ ) =
sXi
P r(Y = k)
i=1
k0
k
E(sXi ) P r(Y = k)
=
k0
i=1
(s)k P r(Y = k)
=
k0
= ((s)),
29
o X1 , X2 , . . . reprsentent les nombres de descendants de premire gnration des individus de la gnration n 1, tous de fonction gnratrice (s),
et Zn1 est le nombre total d'individus de la gnration n 1, de fonction
gnratrice (s) = n1 (s).
L'esprance d'une variable alatoire correspond la drive de sa fonction
gnratrice value au point 1. Pour Zn tant donn que Z0 = 1, cela donne
E (Zn |Z0 = 1) = n (1)
=
(n1) (1)
= (1)
(n2) (1)
(1) (1)
= mn .
Asymptotiquement, on a donc
0 si m < 1,
si m > 1.
Or
lim (n) (s) = u,
pour 0 s < 1, o u est la probabilit d'extinction ventuelle de la population. Pour 0 s < u, la suite crot vers u comme pour un = (n) (0). Pour
u < s < 1, on a de faon analogue une suite qui dcrot vers u (voir la Figure
9). Enn pour s = u, on a (n) (u) = u pour tout n 0. Finalement on
obtient que
0 lim sk P r (Zn = k|Z0 = 1) lim
n
sj P (Zn = j|Z0 = 1) = 0,
j1
30
(s)
u = (u)
31
ginant que le joueur A mise tour de rle les i units de son avoir initial,
qu'il multiplie chacune par 2 avec probabilit p ou 0 avec probabilit 1 p,
puis qu'il recommence avec son nouvel avoir la n de la ronde. Une ronde
correspond une gnration de la population, une unit de mise un individu qui peut en produire 2 avec probabilit p ou aucun avec probabilit
q = 1 p, et l'avoir de A aprs la n-ime ronde au nombre d'individus la
gnration n, reprsent par Zn . Cela est illustr dans les Figures 10 et 11.
Avoir
de A
i + 1 probabilit p
Z0 = i
Z1
i 1 probabilit q
Partie
0 : Ruine de A
0
Figure
o
u = (u) = (1 p) + pu2 .
1 4p(1 p)
1 (1 2p)
=
.
2p
2p
On conclut que
u=
1p
p
si p > 1/2,
si p 1/2.
32
Avoir
Ronde
Z0 = i
2 probabilit p
2 probabilit p
0 probabilit q
0 probabilit q
Z1 au total
Zn = 0 ou > 0
On a alors
wi = E
Zn Z0 = i
n0
E (Zn |Z0 = i)
=
n0
iE (Zn |Z0 = 1)
=
n0
mn ,
=i
n0
o
m = 0 (1 p) + 2 p = 2p.
33
i
12p
si p < 1/2,
si p = 1/2.
1.6.1 Dnitions
(a) Un tat i est rcurrent si
fii = P r(retour i | dpart de i) = 1.
Sinon (i < ), alors l'tat est rcurent positif. Ici le temps est mesur
en nombre de transitions.
(c) La priode d(i) d'un tat i est dnie par
d(i) = p.g.c.d.{n 1 : Pii
(n)
> 0}.
(n)
dans l'appendice (section 1.9.3) que d(i) = 1 si et seulement si Pii > 0
pour tout n N (i) pour un certain entier N (i) 1.
(d) Un tat rcurrent positif apriodique est dit ergodique.
34
1.6.2 Exemples
Dans les exemples ci-dessous les tats sont reprsents par des cercles
numrots et les transitions de probabilit positive par des ches.
1
0
1/2
1
1/2
1/2
1/2
2
1/2
3
1/2
1
1 1
1 1 = 0.
2 2
2
En eet pour ne plus retourner 2 partir de 2, deux situations sont possibles : soit on va 1 (probabilit 1/2), puis on fait la boucle 1, 0, 1 (probabilit 1/2 1) une innit de fois ; soit on va 3, puis on fait la boucle 3,
4, 3 une innit de fois, avec les mmes probabilits. Dans les deux cas, la
probabilit rsultante est 0. De plus, d(2) = 2, car on retourne 2 partir
de 2 avec probabilit positive seulement en 2k pas, pour tout k 1.
1/2
1
1/2
1/2
2
1/2
1/2
1
4
1/2
1
1 1
1 1 = > 0.
2 2
4
1/2
35
1/2
1/2
1
1/2
1 1 1
= 0.
2 2 2
Ici pour ne plus retourner 0 partir de 0, il faut en eet aller 1 (probabilit 1/2), puis retourner 1 (probabilit 1/2) une innit de fois, ce qui a
probabilit 0. De plus l'tat 0 est apriodique, car
1
> 0.
2
(1)
P00 =
1
2
k
k1
1
2
k1
1
2
k
k1
1 d
2 ds
sk
1 d
2 ds
1
2
= 2,
k0
s= 1
2
1
1s
1
1s
s= 1
2
2
1
s= 2
36
1
0
q =1p
q =1p
q =1p
1p
p
< 1 si p > 1 ,
2
si p 1 .
2
1+
1
12p
si p < 1 ,
2
1
si p = 2 .
37
Pii
= .
n1
(n)
Sinon il est transitoire, et alors ncessairement limn Pii = 0.
lim Pii
= 0.
Denition
Deux tats i et j communiquent, ce qui est not i j , si j est accessible
partir de i, c'est--dire
Pij > 0 pour un certain n 0,
(n)
Pji
Cette relation binaire est une relation d'quivalence. En eet elle est :
(0)
rexive : i i, puisque Pii = 1 > 0 ;
symtrique : j i si i j , par dnition ;
38
(n) (m)
transitive : i k si i j et j k, puisqu'alors Pij Pjk > 0 pour
certains m, n 0, et donc
(n+m)
Pik
(n)
(m)
Pil Plk
(n)
(m)
Par consquent, l'ensemble des tats peut tre dcompos en classes d'quivalence. Lorsqu'il y a une seule classe, la chane est dite irrductible.
Proposition 1
(n) (m)
Si i j , c'est--dire Pij Pji > 0 pour certains n, m 0, alors :
Proposition 2
(a) Si un tat i est rcurrent, alors
fij = P r(visite future j | dpart de i) = 1
(n)
pour tout j i, et 0 autrement, c'est--dire Pij = 0 pour tout n 1 et
tout j i. Donc une classe rcurrente est ferme.
(b) Si i et j sont des tats dans la mme classe rcurrente, alors fki = fkj
pour tout tat k.
Proposition 3
Si le nombre d'tats est ni, alors :
39
Corollaire : Une chane irrductible (et toute classe ferme) sur un nombre
ni d'tats est rcurrente positive.
P =
0 1/2 0
0
0 1/2
.
0
0
0
0
0
1
1/2 0 1/2 0
0
0
0
1
0
0
0
0
40
donc ergodique.
et
1
,
j
n1
(k)
Pij = fij
k=0
1
.
j
fij se calculent par la mthode de conditionnement sur la premire transition. Des simplications sont possibles ont
utilisant la Proposition 2 de la section 1.5.4.
41
1
n n
n1
(k)
Pjj
lim
lim
1
n
k=0
n1
E
k=0
lim E
Nj (n)
X0 = j ,
n
o
n1
Nj (n) =
1{Xk =j}
k=0
temps moyen j
j
temps moyen j
42
pour tout j .
Une chane de Markov irrductible sur un nombre ni N d'tats, numrots 0, 1, . . . , N 1, dont la matrice de transition est doublement stochastique
admet une distribution stationnaire uniforme donne par i = N 1 pour
i = 0, 1, . . . , N 1. En eet, les trois conditions pour une distribution stationnaire sont trivialement satisfaites.
Remarque 1 : Les quations de stationnarit ont ainsi l'interprtation suivante : la fraction moyenne long terme de visites l'tat j est gale la
somme des fractions moyennes long terme des visites aux tats i suivies
immdiatement d'une transition l'tat j .
Remarque 2 : Pour tout tat j dans une classe rcurrente positive C(j),
43
satisfait
lim P
(n)
0 1
0 1
N 1
N 1
0, 2 0, 8
0, 4 0, 6
0, 8
S
0, 6
N
0, 4
Figure
0 1
0 1
44
0 1
0
0
0 0, 9 0, 1 0
P =
0 0 0, 8 0, 2 .
1 0
0
0
1
0
0,9
1
0,1
3
0,8
0,2
Figure
machine.
45
Tous les tats communiquent entre eux, et donc la chane est irrductible. Puisque le nombre d'tats est ni, la chane est rcurrente positive. De
plus, P11 = 0, 9 > 0, ce qui implique que la chane est apriodique, et donc
ergodique.
Dans ce cas, on a
lim P (n)
0
0
=
0
0
1
1
1
1
2
2
2
2
3
3
,
3
3
o (0 , 1 , 2 , 3 ) = satisfait = P , c'est--dire
0 = 3
1 = 0 + 0, 91
2 = 0, 11 + 0, 82
3 = 0, 32 ,
P =
1 p0
1 p0
1 1 pi
i=0
1 2 pi
i=0
1 3 pi
i=0
1 4 pi
i=0
1 5 pi
i=0
p0
0
p1
p2
p3
p4
p5
0
p0
0
p1
p2
p3
p4
0 0 0 0
0 0 0 0
p0 0 0 0
0 p0 0 0
p1 0 p0 0
p2 p1 0 p0
p3 p2 p1 p0
46
o
pk =
k
e
k!
Figure
Il y a une seule classe, car tous les tats communiquent entre eux, et elle
est rcurrente positive, car il y a un nombre ni d'tats. De plus, elle est
apriodique, car P11 = p0 > 0. On a donc aaire une chane irrductible
ergodique.
Dans le cas o = 0, 10, on peut vrier que la distribution de probabilit = (7 , 6 , 5 , 4 , 3 , 2 , 1 ) qui satisfait = P , donc la distribution
stationnaire, est donne par
7 = 0, 00001, 6 = 0, 00005, 5 = 0, 00032, 4 = 0, 00215,
3 = 0, 01444, 2 = 0, 09355, 1 = 0, 88948.
Cela signie notamment que presque 89% des assurs en moyenne sont dans
la classe 1 long terme. De plus, le pourcentage moyen de la prime paye
par les assurs long terme est
7 100% + 6 90% + + 1 65% = 65, 65%,
47
pour tout entier i, positif, ngatif ou nul. Cette marche est illustre dans la
Figure 21.
1/2
i1
i
i+1
1/2
La chane est rcurrente positive si et seulement si elle possde une distribution stationnaire (i ). Si c'est le cas, alors
1
1
i = i1 + i+1 ,
2
2
pour tout entier i. Cette quation signie que le point (i, i ) est au milieu
du segment de la droite L qui relie les points (i 1, i1 ) et (i + 1, i+1 ).
Supposons que
i1 < i+1 ,
pour un certain i. La droite L qui passe par ces points est alors de pente
positive comme illustr dans la Figure 22. De plus, l'quation prcdente
garantit que le point (i 2, i2 ) est sur le prolongement de la droite L. Par
induction, c'est aussi le cas pour le point (i k, ik ), pour tout k 1. Or,
cette droite tant de pente positive, ce point est sous l'axe horizontal, et donc
ik < 0, pour k assez grand. Ceci est une contradiction. Un raisonnement
similaire s'applique si on suppose que i1 > i+1 pour un certain i.
On conclut que
i1 = i+1 = i ,
48
i+1
i
i1
i4
i3
i2
i1
i+1
0 si c = 0,
si c > 0,
i i
P =
0
0
1
0
0
0
1/7
1
0
0
0
0
0
1/7
0
1
0
0
0
0
1/7
0
0
0
1/4
3/4
0
1/7
0
0
0
3/4
1/4
0
1/7
0
0
0
0
0
0
1/7
0
0
0
0
0
1
1/7
49
{3, 4}, qui est rcurrente positive, car ferme sur un nombre ni d'tats,
apriodique, car P33 > 0, donc ergodique, de distribution stationnaire
(1/2, 1/2), car Pij pour i, j = 3, 4 forment une matrice de transition
doublement stochastique pour 2 tats.
{5, 6}, qui est transitoire, car non ferme, apriodique, car P66 > 0.
On remarque que
(n)
Pij =
1 si n = j i (modulo 3),
0 sinon,
n1
k=0
1
(k)
Pij = ,
3
pour i, j = 0, 1, 2.
Plus gnralement, on a que
1
lim
n n
n1
P
k=0
(k)
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
0
0
1/5
1/5
0
0
1/5
1/5
0
0
1/5
1/5
0
0
0
1/2
1/2
1/5
1/5
0
0
0
1/2
1/2
1/5
1/5
0
0
0
0
0
0
0
0
0
0
0
0
0
0
50
Les 0 dans les colonnes correspondant aux tats 3, 4, 5, 6 et sur les lignes
correspondant aux tats 0, 1, 2 illustrent le fait que classe {0, 1, 2} est ferme,
et donc fij = 0 pour i = 0, 1, 2 et j = 3, 4, 5, 6. Les entres non nulles
sur chacune de ces lignes correspondent la distribution stationnaire pour
cette classe rcurrente positive, pour laquelle 1 = 1/3 et fij = 1 pour
j
i, j = 0, 1, 2. La situation est analogue pour les lignes correspondant aux
tats de la classe rcurrente positive {3, 4} avec 1 = 1/2 pour j = 3, 4.
j
D'autre part, les 0 apparaissant dans les deux dernires colonnes des
deux dernires lignes correspondant aux tats de la classe transitoire {5, 6}
s'expliquent par le fait que 1 = 0, pour j = 5, 6.
j
Pour les entres non nulles sur les deux dernires lignes, nous devons
calculer fij pour i = 5, 6 et j = 0, 1, 2, 3. En conditionnant sur la premire
transition, on trouve par exemple que
1
1
1
1
1
1
1
f63 = f63 + f53 + f43 + f33 + f23 + f13 + f03 ,
7
7
7
7
7
7
7
o f03 = f13 = f23 = 0, f33 = f43 = 1 et f53 = f63 . On obtient ainsi que
f63 =
2/7
2
= .
5/7
5
Ce rsultat est intuitivement clair. En eet lorsqu'on quitte la classe transitoire {5, 6}, il y a 2 chances sur 5 d'entrer dans la classe rcurrente {3, 4},
et d'y rester en visitant tous les tats avec probabilit 1. De faon analogue
il y a 3 chances sur 5 pour l'autre classe rcurrente {0, 1, 2}. Le thorme
ergodique garantit alors que
1
n n
n1
(k)
P63 = f63
lim
k=0
1
2 1
1
= = .
3
5 2
5
Les autres entres peuvent tre obtenues de la mme faon. Ainsi on a que
1
lim
n n
n1
(k)
P50 = f50
k=0
1
3 1
1
= = .
0
5 3
5
bien que l'tat d'arrive 0 est rcurrent positif priodique. Cela est d au fait
que lorsqu'on entre dans la classe rcurrente positive priodique {0, 1, 2}, il
51
B 2
B 3
B 4
B 5
B 6
B 7
C
j
A(u, v)
,
d(u)
52
o
A(u, v) =
1 si u et v sont voisins,
0 sinon,
et
d(u) =
v
(u) =
o
d(u ) = 6 6 8 + 6 4 5 + 4 3 = 420.
u
u (u)
= 1. De plus,
A(u, v)
A(v, u)
=
= (v)P (v, u),
u d(u )
u d(u )
P (u, v)
v
(u)P (u, v)
v
53
1.8 *Dmonstrations
1.8.1 Critres de classication
(a) Un tat i est rcurrent si et seulement si
(n)
= .
Pii
n1
(n)
Sinon il est transitoire, et alors ncessairement limn Pii = 0.
lim Pii
= 0.
Pii
P r(Xn = i|X0 = i)
n1
n1
n1
1{Xn =i}
Ni =
n1
kP r(Ni = k|X0 = i)
k1
=
k1
De plus
(l)
P r(Ni k|X0 = i) =
(l)
fii P r Ni
l1
k 1|Xl = i ,
1.8 *Dmonstrations
54
o
(l)
Ni
1{Xn =i}
=
nl+1
P r Ni
D'autre part,
(l)
fii =
l1
Pii
n1
k
fii =
=
k1
fii
1f ii
si fii < 1,
si fii = 1.
n1
(k)
Pii = 0.
k=0
55
Dans le cas o i est rcurrent, la limite est gale 1 par le thorme eri
godique, d'o i = , ce qui veut dire que i est rcurrent nul.
Remarque
(n)
La suite Pii ne converge pas lorsque n si i est rcurrent positif
(n)
priodique. Sinon, on devrait avoir convergence vers 0, puisque Pii = 0
pour tout n qui n'est pas un multiple de d(i). On devrait donc avoir
1
n n
n1
(k)
lim
Pii = 0.
k=0
Or, la limite dans le cas o i est rcurrent est donne par 1 par le thorme
i
ergodique, d'o i = , ce qui est une contradiction avec un tat i rcurrent
positif.
Pii
(n)
(r)
(m)
0,
d'o
(r)
(n+r+m)
Pii
r1
Pii
r1
(n)
(m)
(r)
Pij Pji
Pjj 0.
r1
(r)
(r)
Donc, r1 Pii < , c'est--dire, i transitoire, implique r1 Pjj < ,
c'est--dire, j transitoire, et inversement par symtrie. Par consquent, i est
1.8 *Dmonstrations
56
rcurrent si et seulement si j est rcurrent.
Pii
0 lorsque r ,
Pjj > 0,
alors
(n+r+m)
Pii
> 0,
Pjj
(r)
(r)
(b) Si i et j sont des tats dans la mme classe rcurrente, alors fki = fkj
pour tout tat k.
57
Dmonstration :
(a) Il va sure de montrer que si i est rcurrent, alors on a l'galit
fij (1 fji ) = 0.
(n)
Si de plus j i, alors il existe un certain n 1 tel que 0 < Pij fij . Ceci
n'est compatible avec l'galit ci-dessus que si fji = 1. On a aussi fij = 1
par symtrie, car j est rcurrent si i est rcurrent et j i.
Si d'autre part j
i, alors ou bien fij = 0 ou bien fji = 0. En fait la
seule possibilit compatible avec l'galit ci-dessus est fij = 0.
Il reste donc montrer l'galit ci-dessus. Son interprtation est que la
probabilit de ne pas retourner i partir de i en passant par j est 0 si i est
rcurrent. Cela est intuitivement clair, car cette probabilit est plus petite
ou gale la probabilit de ne pas retourner i partir de i, qui est nulle
lorsque i est rcurrent.
L'galit est vidente pour j = i, car fii = 1 si i est rcurrent. On
(n)
considre donc j = i et on suppose que fij > 0. Alors, Pij > 0 pour un
certain n 1. Dans ce cas, il existe une suite d'tats i0 = i, i1 , , in1 ,
in = j telle que
o
(k)
1.8 *Dmonstrations
58
Corollaire : Une chane irrductible (et toute classe ferme) sur un nombre
ni d'tats est rcurrente positive.
(n)
1=
(n)
Pij =
j
j:ji
puisqu'on a un nombre ni de termes qui tendent tous vers 0, ce qui est une
contradiction avec une somme gale 1.
(b) Si tous les tats j sont transitoires, alors le thorme ergodique garantit
la convergence vers 0 de chaque terme de la somme gauche ci-dessus, ce qui
mne une contradiction pour les mmes raisons. Il y a donc au moins un
tat rcurrent, et cet tat est ncessairement rcurrent positif par (a). C'est
aussi le cas pour la classe de cet tat, ce qui dmontre le corollaire.
59
l Plj
i Pil Plj
i
i
Pil Plj
l
(2)
i Pij ,
=
i
0 < j =
i Pij ,
i
1
n
i
i
n1
(k)
Pij
k=0
n1
(k)
Pij = fij
lim
k=0
1
1
=
,
j
j
1
j
i =
i
c'est--dire,
j =
1
< ,
j
Dmonstration de la susance :
1
,
j
1.8 *Dmonstrations
60
On considre un tat particulier i. On montre que
j =
wj
l wl
E(Nlj ),
l
=
n
nPlj P r(Nl = n)
n
E(Nl )Plj
l
wl Plj ,
l
c'est--dire, wj = j /i .
l
i
wl = 1/i , d'o j = i wj ,
61
1
,
j
et
n1
(k)
Pij = fij
k=0
1
.
j
Dmonstration de (a) :
Partie 1. On observe d'abord qu'il sut de montrer que
(n)
Pjj
1
lorsque n .
j
(k)
(nk)
fij Pjj
k=1
(k)
(nk)
fij
k1
1
lorsque n ,
j
o
fij = P r(premire visite future j au k -ime pas | dpart de i)
(k)
0 fij =
fij 1
k1
1.8 *Dmonstrations
62
et
(nk)
1
,
j
premire visite j
0
k
n
Figure 26 Transition de i j en n pas avec premire visite j au pas k.
(n)
Partie 2. On sait dj, par les critres de classication des tats, que Pjj
(nk)
q(n) =
(m)
fjj = 1,
{kn} Pjj
k1
mk
j = lim Pjj l ,
l
j = lim Pjj l
l
(n)
j = lim Pjj lr ,
l
63
(k)
Pjj lr =
(nlr k)
Pji Pij
i
(nlr k)
(k)
Pji
Pij
(n k)
Pjj lr
(k)
(n k)
Pji Pjj lr
+
i
ds que nlr k), o la somme est sur tous les tats i dans la classe C(j),
qui est rcurrente, donc ferme. Le lemme 2 en appendice sur la limite d'une
somme permet alors d'obtenir que
(k)
j = j
Pji = j .
i
1 = j
fjj
(m)
= j
mfjj
= j j ,
m1
k1 mk
lim Pjj
= 0,
Pjj = 0,
lim Pjj = 0.
Pik > 0,
pour tout n N (i, k). On construit maintenant une chane couple ((Xn , Yn ))
sur l'espace des tats de forme (i, k) pour i, k dans C(j) dont les probabilits
de transition sont donnes par
P(i,k)(j,l) = Pij Pkl ,
1.8 *Dmonstrations
64
pour tous i, j, k, l dans C(j). La chane couple restreinte cet espace d'tats
est irrductible, car
(n)
(n)
(n)
ds que n max(N (i, j), N (k, l)). On dnit (voir la gure 27)
T = min{n 1 : (Xn , Yn ) = (j, j)}.
On remarque que
(nk)
pour tout n k. Par consquent, pour tout i dans C(j), on dduit que
(n)
P r(Xn = j, T = k|X0 = i, Y0 = j)
k1
P r(Yn = j, T = k|X0 = i, Y0 = j)
k1
P r(T = k|X0 = i, Y0 = j)
+
k=n+1
(n)
(n)
(n)
On a donc
lim |Pij Pjj | lim P r(T n + 1|X0 = i, Y0 = j)
= 1 f(i,j)(j,j) .
65
(n)
Pij
(n)
= P(i,j)(i,j) 0,
Yn
j
Dmonstration de (b) :
Par le lemme en appendice sur la limite d'une moyenne, le rsultat (b) dcoule
du rsultat (a) sauf dans le cas o l'tat j est rcurrent positif priodique,
disons pour la chane (Xn ). Cependant, j est rcurrent positif apriodique
pour la chane (Xld ), o d = d(j) 2. Le rsultat (a) garantit alors que
(ld)
lim Pjj
1
,
j /d
Pjj = 0,
n1
(k)
Pjj
k=0
k(n) 1
= lim
n n k(n)
k(n)
(ld)
Pjj
l=0
1
,
j
1.8 *Dmonstrations
66
lim P
(n)
0 1
0 1
N 1
N 1
Dmonstration :
Mj
(n)
= max Pij ,
i
(n1)
Pij =
Pil Plj
l
(n1)
(n1)
Mj
Pil = Mj
l
67
(n)
Mj
Mj
Mj ,
lorsque n . De mme,
(n1)
(n)
(n)
mj
mj
= min Pij mj ,
i
Pij
ij ,
Pij
(N )
(nk )
(N )
Pil Plj
l
Pil lj ,
l
lorsque k . On a donc
(N +nk )
Mj
(N )
max
i
Pil lj = Mj .
l
(N
Puisque Pil ) > 0, pour tous i, l, on doit avoir lj = Mj , pour tout l, ce qui
implique que mj = Mj . On conclut que
(n)
Pij Mj ,
Mj min Pij
i
et
(n)
Mj =
j
avec
(n)
(n)
(n1)
Mj = lim Pjj =
n
>0
lim Pji
Pij = 1,
j
Pij =
Mi Pij ,
i
1.9 *Appendice
68
ce qui signie que (Mj ) est bien une distribution stationnaire. D'autre part,
n
(n)
(k)
Mj = lim Pjj =
n
fjj
k=1
(nk)
lim Pjj
(k)
= Mj
fjj = Mj fjj ,
k1
(nk)
1 = q(n) =
(m)
fjj Mj
{kn} Pjj
k1
mk
(m)
mfjj
= M j j ,
mk
1.9 *Appendice
1.9.1 Lemme 1 sur la limite d'une moyenne
On a
1
n
n1
ak a lorsque n ,
k=0
Dmonstration :
On a
1
n
n1
ak a
k=0
1
n
n1
|ak a|
k=0
2N
1
+
n
n
n1
|ak a| ,
k=N
pour tout N 1. Ceci est plus petit que > 0 arbitraire si n > 4N/, o N
est tel que |ak a| < /2 pour tout k N .
ak lorsque n ,
ak bn,k b
k1
k1
69
Dmonstration :
(a) On a
ak (bn,k b)
k1
ak |bn,k b|
k1
N
ak |bn,k b| + 2
k=1
ak ,
k>N
pour tout N 1. Ceci est plus petit que > 0 arbitraire si N est assez
grand pour que k>N ak < /4, puis n assez grand pour que |bn,k b| <
(2N N ak )1 pour k = 1, ..., N .
k=1
(b) On a
N
ak bn,k
k1
ak bn,k ,
k1
pour tout N 1. Ceci est plus grand que M > 0 arbitraire si N est assez
grand pour que N ak > 2M/b, puis n assez grand pour que bn,k > b/2
k=1
pour k = 1, ..., N .
1.9 *Appendice
70
(n)
(2) Pjj > 0 pour tout n N (j) pour un certain entier N (j) 1.
dique sur un nombre ni d'tats admet une puissance P N , pour un certain
entier N 1, dont toutes les entres sont strictement positives.
Dmonstration :
Il est vident que (2) implique (1). On suppose la condition (1) pour un tat
j et on dnit l'ensemble
(n)
M = {n 1 : Pjj > 0, },
qui est non vide. Cet ensemble satisfait alors les conditions suivantes :
(1) p.g.c.d.{n : n dans M } = 1 ;
(n
(n
(n
(1') n1 + n2 est dans M si n1 , n2 sont dans M , car Pjj 1 +n2 ) Pjj 1 ) Pjj 2 ) .
appartient M .
que
71
Pij
et alors
(n)
(m(i,j))
Pij Pij
> 0,
(nm(i,j))
Pjj
> 0,
1.10 Exercices
1. Supposons que le temps qu'il fait d'une journ la suivante est dcrit
par une chane de Markov sur les tats 0, 1, 2 (0 pour ensoleill, 1 pour
nuageux, 2 pour pluvieux) dont la matrice de transition est donne par
1/2 1/2 0
P = 1/4 1/2 1/4 .
0 1/2 1/2
(2)
P00 P10 .
1.10 Exercices
72
faut deux points d'avance pour tre dclar vainqueur. Un joueur qui
a un point d'avance est dit en avantage. En supposant que A a une
probabilit p de gagner chaque point, et B une probabilit 1 - p, indpendamment de tous les autres points, dterminer : (a) la probabilit
pour A d'tre dclar vainqueur ; (b) l'esprance du nombre de fois que
A sera en avantage avant la n du jeu.
7. (SOA M A05
tions d'tat d'une anne la suivante sont modlises par une chane
de Markov non-homogne avec matrice de transition Qi de l'anne i1
l'anne i dnie comme suit :
0, 85 0, 15 0
0, 7 0, 3 ,
Q1 = 0
0
0
1
0, 95 0, 05 0
Q3 = 0, 2 0, 7 0, 1 ,
0
0
1
0, 9 0, 1 0
Q2 = 0, 1 0, 7 0, 2 ,
0
0
1
0, 95 0, 05 0
Qi = 0, 5 0, 5 0 ,
0
0
1
73
11. Une plante survit d'un printemps au suivant avec probabilit 3/4 et
dans ce cas elle produit le printemps suivant 0, 1 ou 2 autres plantes
identiques elle-mme avec la mme probabilit 1/3. Une plante peut
donc survivre et se reproduire plusieurs printemps de suite. On suppose
une seule plante au dpart et on considre le nombre total de plantes
chaque printemps suivant. (a) L'extinction est-elle certaine ? (b) Si
elle ne l'est pas, quelle est sa probabilit ?
3!
k!(3 k)!
1
2
1.10 Exercices
74
probabilit d'extinction ventuelle de la population ?
rentes positives, priodiques (dans ce cas donner leur priode) et ergodiques de la chane de Markov sur les tats 0, 1, ... dont la matrice de
transition est :
(a)
P =
0
0
0
1
0 ;
0
0
0
0
1
0
0 1/2 1/2 0
(b)
P =
1/4
0
1/3
0
0
1/2
1/2
1/4 3/4 0
1
0 .
P = 0
1/2 0 1/2
75
Pi,i+1 = p,
Pi,i1 = q = 1 p.
(n)
(a) Trouver Pij et en dduire que tous les tats communiquent entre
eux, et donc que la chane est irrductible. (b) Montrer que les tats de
la promenade alatoire ne peuvent tre rcurrents positifs en utilisant
la formule de Stirling :
n!
= 1.
n nn+1/2 en 2
lim
(c) Montrer que tous les tats sont rcurrents nuls si p = 1/2, et transitoires sinon. Remarque : Si an ,bn 0 et limn an /bn = 1, alors
17. Dans un test de Vrai ou Faux, les questions sont poses de telle fa-
on que trois quarts du temps en moyenne une rponse Vrai suit une
rponse Vrai et deux tiers du temps en moyenne une rponse Faux suit
une rponse Faux. Quelle fraction approximative des rponses devrait
tre Vrai sur un grand nombre de questions ?
0, 6 0, 3 0, 1
P = 0, 2 0, 7 0, 1 .
0, 1 0, 3 0, 6
19. Les rsultats successifs de parties d'checs d'un joueur donn contre
un autre suivent une chane de Markov sur les tats V pour victoire, D
pour dfaite et N pour nulle avec matrice de transition correspondante
donne par
3/4 0 1/4
0 3/4 1/4
P =
1/2 1/4 1/4
1.10 Exercices
76
P =
0 1/4 3/4 0
0 .
0 0
0
1
0
1 0
0
0
0
23. Montrer avec un exemple qu'une chane de Markov avec deux classes
d'quivalence (la chane n'est donc pas irrductible) peut avoir plusieurs distributions stationnaires mme si les deux classes sont ergodiques.
24. Une chane de Markov sur un nombre ni d'tats avec matrice de
transition P est dite rgulire s'il existe un entier N 1 tel que P N est
positive (c'est--dire que toutes les entres sont > 0). Montrer que la
chane de Markov sur les tats 0, 1, 2, 3, 4 avec la matrice de transition
77
P =
3/4 1/4 0
0
0
3/4 0 1/4 0
0
3/4 0
0 1/4 0
3/4 0
0
0 1/4
1
0
0
0
0
25. Une sauterelle se dplace sur les sites 0, 1, 2 disposs sur un cercle
en allant chaque saut au site adjacent dans le sens des aiguilles d'une
montre avec probabilit p et au site adjacent dans le sens contraire avec
(n)
probabilit 1p. Soit Pij la probabilit de passer du site i au site j en
(n)
n sauts. (a) Dterminer les valeurs de p pour lesquelles Pij converge
pour tout i, j et trouver alors les valeurs limites. (b) Rpondre la
(k)
mme question pour (1/n) n1 Pij . (c) Rpondre aux deux mmes
k=0
questions dans le cas o on ajoute un site 3.
P =
1
0
0
0
0
0
0
1
0
0
0
0
1/4
0
1/2 0 1/4 0
0
0
0
0
1
0
1/16 1/16 1/4 1/8 1/4 1/4
0
1/4
0
0 1/4 1/2
i
mi
, Pi,i+1 =
,
m
m
pour i = 1, ..., m 1 et P0,1 = Pm,m1 = 1. Cette chane est irrductible. (a) Vrier que la distribution binomiale de paramtres m et 1/2
Pi,i1 =
78
donne par
i =
m!
,
i!(m i)!2m
28. Une chane de Markov temps discret sur les entiers 0 a comme
probabilits de transition
29. Une chane de Markov temps discret sur les entiers 0 a comme
probabilits de transition
Pi,i+1 =
1
1
, Pi,0 = 1
,
2(i + 1)
2(i + 1)
30. Une machine sous dans un casino vous donne 3 dollars si vous
gagnez une partie, mais il faut payer 2 dollars par partie pour jouer.
Il est annonc sur la machine qu'il y a toujours au moins une chance
sur deux de gagner chaque partie. En eet, la probabilit de succs
une partie est gale (k + 1)/(k + 2) o k reprsente le nombre de
succs aux deux parties prcdentes. Est-ce que cette machine sous
est protable pour le casino ?
79
d'un jour nuageux avec probabilit 1/2 et d'un jour ensoleill avec probabilit 1/2, indpendamment du temps des autres jours. tant donn
que c'est nuageux depuis deux jours, quelle est l'esprance du nombre
de jours nuageux supplmentaires avant d'avoir deux jours ensoleills
conscutifs ?
80
35. Dans une srie de parties indpendantes, un joueur mise 1 sur chaque
partie. Selon l'issue de la partie, on suppose que le joueur triple sa mise
avec probabilit 1/7, qu'il la double avec probabilit 1/2, et qu'il la
perd sinon. Dterminer la probabilit de la ruine ventuelle du joueur
tant donn qu'il dispose d'un avoir initial de 5.
o k = 2 avec probabilit p et k = 1 avec probabilit 1 p, indpendamment pour k 1 avec 0 < p < 1. Cela signie que le joueur
gagne le double de sa mise en plus de rcuprer celle-ci, qui est de 1
sur chaque partie, avec probabilit p alors qu'il perd cette mise avec
probabilit 1 p. On dnit
N = min{n 1 : Sn = 0},
qui reprsente le temps jusqu' la ruine du joueur. En utilisant la thorie des processus de branchement, dterminer les valeurs de p pour
81
lesquelles :
(a) la ruine est certaine, c'est--dire, P r(N < ) = 1 ;
(b) la ruine se produit en un temps moyen ni, c'est--dire, E(N ) < .
Dans ce cas, quelle est la valeur de E(N ) ?
fesseur d'une anne la suivante suive une chane de Markov sur les
entiers 0, 1, 2, 3, 4 avec probabilits de transition P0,1 = P4,3 = 1 et
Pi,i1 = Pi,i+1 = 1/2 pour i = 1, 2, 3. (a) Pourquoi la distribution
stationnaire existe-t-elle et quelle est-elle ? (b) Quelle est la proportion
de temps long terme que ce professeur supervisera au moins un tudiant ? (c) En supposant que ce professeur commence superviser un
premier tudiant cette anne, quelle est l'esprance du nombre d'annes
conscutives (incluant l'anne en cours) durant lesquelles ce professeur
(n)
supervisera au moins un tudiant ? (d) Est-ce que P0,0 converge lorsque
n et pourquoi en utilisant des arguments prsents au cours ?
P =
1/3
1/3
0
1/4
1/4
2/3
0
1/3
1/4
1/4
0
0
0
2/3 0
0
2/3 0
0
1/4 0 1/4
1/4 1/4 0
41. Une chane de Markov temps discret sur les tats 0, 1, 2, 3, 4 a des
probabilits de transition en un pas donnes par la matrice
P =
0
0
0
0
1/4
0
1
0
0 .
1/4 0 3/4 0
1/4 1/4 1/4 0
Dterminer : (a) les classes d'tats et leur type (transitoire ou rcurrente, et dans ce cas rcurrente positive ou nulle, apriodique ou priodique, et dans ce cas leur priode, ergodique) ; (b) la limite lorsque
n tend vers l'inni de la probabilit de transition de 0 1 en n pas,
82
P01 , si cette limite existe.
(n)
42. Une chane de Markov temps discret sur les tats 0, 1, 2, 3, 4 a des
probabilits de transition en un pas donnes par la matrice
P =
43. Une chane de Markov temps discret sur les tats 0, 1, 2, 3, 4 a des
probabilits de transition un pas donnes par la matrice
P =
1
0
0
0
0
0 1/2 0
0 1/2
1/2 0
0 1/2 0
0
0 1/2 0 1/2
0 1/4 0
0 3/4
Dterminer : (a) les classes d'tats et leur type (transitoire ou rcurrente, et dans ce cas rcurrente positive ou nulle, apriodique ou priodique, et dans ce cas leur priode) ; (b) la limite lorsque n tend vers
(n)
l'inni de la probabilit de transition de 2 1 en n pas, P21 , si cette
limite existe.
P =
0 1 0 0 0 0
.
0 0 1 0 0 0
0 0 0 1 0 0
0 0 0 0 1 0
83
1/3
1/2
1/2
1/2
1/3
1/4
1
1/2
1/3
1/4
1
1/4
1/4
3
46. Une personne dispose de trois parapluies qui sont ou bien au bureau
84
transition
P =
0 1/2 1/2
0
0
1/3
0 1/3 1/3
0
0
0
1
0
0
0
0
0 1/4 3/4
0
0
0 3/4 1/4
Pii
Pii
1 Pii
temps n 0
Si
86
et par consquent
l
P r(Si = k) = Pii ,
P r(Si > l) =
kl+1
pour tout l 0.
Le temps de sjour Si est donc une variable alatoire discrte qui suit
une loi gomtrique de paramtre 1Pii , ce qui est not Si G(1Pii ).
Le cas Pii = 1 correspond un tat i absorbant avec un temps de sjour
inni.
Il possde une esprance donne par
E(Si ) =
P r(Si > l) =
l0
1
.
1 Pii
P r(Si > k + l)
P r(Si > l)
k+l
Pii
k
Pii
l
= Pii
pour k, l 1.
Il est indpendant des tats visits auparavant et des temps de sjour
ces tats. Cela est garanti par la proprit markovienne.
Finalement, les probabilits de transition conditionnelles tant donn
qu'il y a changement d'tat, c'est--dire lorsqu'on quitte l'tat i, sont
indpendantes des temps de sjour et des transitions qui ont prcd,
et sont donnes par
qij =
Pij
1Pii
si j = i,
si j = i.
87
temps t 0
Le temps de sjour Si suit une loi continue valeurs strictement positives, interdisant ainsi les visites instantanes. Il s'agit en fait d'une loi
exponentielle de paramtre 0 i < , ce qui est not Si Exp(i ),
avec i = 0 lorsque i est un tat absorbant.
Il prend alors une valeur suprieure h > 0 avec probabilit
P r(Si > h) =
i ei t dt = ei h .
88
i h
1 ei h
E(Si ) =
1
.
i
pour s, h > 0.
Il est indpendant des tats visits auparavant et des temps de sjour
ces tats.
Lorsqu'on quitte l'tat i, il y a transition de i j = i avec probabilit
qij , indpendamment des temps de sjour et des transitions qui ont
prcd. On a qij = 0 si j = i par dnition, ou si i est absorbant
(i = 0) par convention. Si i n'est pas absorbant (i > 0), alors
qij = 1.
j
89
ont des proprits analogues. La plus importante est d'tre des processus
sans mmoire : leur comportement futur tant donn l'tat prsent ne dpend pas des tats et des temps de sjour passs. En eet, les temps de sjour
sont sans mmoire et les changements d'tat indpendants de tous les tats
prcdents.
De faon typique, T1 , . . . , Tn reprsentent des temps avant que des vnements dirents ne se produisent, et alors T est le temps avant que le premier
de ces vnements ne se produise. On a les deux proprits suivantes :
(a) La variable alatoire T est de loi exponentielle de paramtre 1 + +n ,
c'est--dire
T Exp(1 + + n ).
(b) La variable alatoire T prend la valeur de Ti avec probabilit proportionnelle i , c'est--dire
T = Ti avec probabilit
i
,
1 + + n
pour i = 1, . . . , n.
(c) L'vnement T = Ti est indpendant de la variable alatoire T .
Dmonstration :
90
P r(T = Ti ) =
0
ej s i ei s ds
j=i
= i
es
n
j=1
= i
=
es
n
j=1
n
j=1 j
ds
.
n
j=1 j
(c) En utilisant les mmes arguments que prcdemment, mais en conditionnant sur la valeur de Ti > t, on trouve que
P r(T = Ti , T > t) = i
=
es
n
j=1
n
j=1 j
e
n
j=1 j
n
j=1
t
j
91
qij j ,
j
92
probabilit
q10 = P r(S1 = T ) =
,
+
.
+
S2 Exp(2)
S1 Exp( + )
S0 Exp()
= q12
0 avec probabilit
2 avec probabilit
= q10
Figure
+
0 +
2 ,
+ +
+
1
2 =
+ 1 .
2
1 =
En eet, une fois l'tat 1, par exemple, on y reste un temps de loi Exp( +)
d'esprance ( + )1 , la suite de quoi on passe ou bien l'tat 0 avec
93
1
1
+
+
2 ,
2 + +
+ 3
.
22
Sj
i=j
i
+ 3
2( + )
Si
t+h
94
pour tout tat i. En eet, la probabilit ci-dessus satisfait alors (voir la Figure
32)
P r(Si + Sj < h)qij
j:j=i
i j h2 qij ,
j:j=i
d'o
j:j=i P r(Si
+ Sj < h)qij
j qij 0,
i j hqij = hi
j:j=i
j:j=i
lorsque h 0.
Cela signie que i qij est le taux avec lequel on quitte l'tat i pour l'tat j .
De mme, on obtient que
Pii (h) = P r(Si > h) + o(h) = 1 i h + o(h)
95
Si
Si
i
i=j
Sj
t+h
t+h
Pij (t) pour tout t 0 pour une chane de Markov temps continu sur
un nombre ni d'tats, disons i, j = 0, 1, . . . , N . La mthode pour le faire est
i qij h + o(h)
si j = i,
1 i h + o(h) si j = i.
i qij + o(h)
h
i + o(h)
h
si j = i,
si j = i,
aij = lim
i qij 0 si j = i,
i 0 si j = i.
96
Ces limites sont les entres du gnrateur de la chane, not A = (aij ). Les
entres de cette matrice satisfont
aij = 0,
j
aij
j:j=i
= i + i
qij ,
j:j=i
o
qij =
j:j=i
1 si i > 0,
0 si i = 0.
d'o
P (t + h) P (t)
P (h) I
= P (t)
,
h
h
P (t) = lim
97
j
i
k
t+h
Figure 34 Transition de i j
An tn
.
n!
En eet, on a alors
d At
e =
dt
n1
=
n0
nAn1 tn1
n!
An t n
A
n!
At
=e A
= AeAt .
98
o
0
1
...
N
est une matrice diagonal de valeurs propres de A et Q est une matrice inversible dont les colonnes sont des vecteurs propres droite associs. On a
alors
Qn Q1 tn
n!
n0
n tn 1
= Q
Q
n!
eAt =
n0
= Qet Q1
t
e 0
e1 t
= Q
...
e N t
1
Q .
0
.
A = ( + )
0
2
2
99
2
2
0
2 ,
A = 1 3
0
2 2
2
2
0
1
3
2
= det
0
2
2
= ( 2) (( 3)( 2) 2 2) 2( 2)
= ( + 2)( + 5).
2x + 2y
x
x
y = A y = x 3y + 2z .
2y 2z
z
z
d'o
x
1
y = 1
z
1
en prenant arbitrairement x = 1 ;
si = 2, alors
y = 0, x = 2z,
100
et on obtient
x
2
y = 0
z
1
en prenant arbitrairement z = 1 ;
enn, si = 5, alors
3x = 3z = 2y,
et dans ce cas
x
2
y = 3
z
2
en prenant arbitrairement y = 3.
On dnit donc
1 2 2
0
3 .
Q= 1
1
1 2
Q1
3 6 6
1
0 5 .
= 5
15
1 3
2
1/5
1 2 2
0
0
0
1
0 2
1/3
0
3
0
=
1
1
2
0
0 5
1/15
2/5
2/5
1/3 .
0
1/5 2/15
0t
1/5
1 2 2
e
0
0
2t
0
3 0 e
0 1/3
= 1
5t
1
1
2
0
0 e
1/15
2/5
2/5
1/3
2/15
1/5
101
1/5
1 2 2
1 0 0
1
0 0 0 1/3
0
3
lim P (t) =
t
1
1
2
0 0 0
1/15
2/5
2/5
1/3
0
1/5 2/15
102
probabilit 1
i+1
Si Exp(i )
0i
temps t 0
Figure
t/N
2t/N
...
it/N
(i+1)t/N
...
t/N
Figure 36 N
t
+o
N
t
N
t ,
=
N
t
+o
N
t
N
1 t .
=
N
103
dont l'esprance
N pN t,
et la variance
N pN (1 pN ) t,
N
k
t
N
t
N
N k
1 t
N
N 1
N k + 1 (t)k
N
=
N
N
N
k!
1 t
N
N
k
(t)k t
e ,
k!
pour k 1, avec P00 (t) = evt . Il est facile de vrier que la solution est
donne par
P0k (t) =
(t)k t
e ,
k!
pour k 0. Cela signie que Xt , tant donn que X0 = 0, suit une loi de
Poisson de paramtre t, donc d'esprance et de variance t.
En fait, le mme raisonnement montre que
P r(Xt+s Xs = k|Xs = i) =
(t)k t
e ,
k!
104
o S0 , . . . , Sn1 sont des variables alatoires indpendantes de loi exponentielle de paramtre . Or,
P r(Tn t) =
P0k (t) =
kn
kn
(t)k t
e .
k!
(t)k
+ et
k!
kn
(t)n1
(n 1)!
kn
(t)k1
(k 1)!
Ti Exp(p).
T =
i=1
105
T2 Exp()
1p
T3 Exp()
1p
temps t 0
P r(T > t) =
n1
=
n=1
=
k=0
(t)k et
k!
k=0
(t)k et
k!
p(1 p)n1
p(1 p)n1
nk+1
(t)k et
(1 p)k
k!
k=0
t t(1p)
=e
=e
tp
106
P r(Z1 = k, Z2 = n k|Xt = n) =
nk
et (t)
n!
n!
s k
s
=
1
k!(n k)! t
t
nk
n!
k1 ! . . . kn+1 !
s1 s0
t
k1
...
sn+1 sn
t
kn+1
107
Cela signie que chacune des n arrives dans [0, t] survient dans les intervalles
ci-dessus avec probabilits proportionnelles la longueur de ces intervalles,
indpendamment des autres. Si U1 , . . . , Un sont choisis au hasard sans remise
parmi les temps d'arrive ordonns T1 , . . . , Tn , alors
sn
s1
...
t
t
= P r(U1 s1 |Xt = n) . . . P r(Un sn |Xt = n),
P r(U1 s1 , . . . , Un sn |Xt = n) =
0i
Si Exp(i )
i 1 avec probabilit 1
temps t 0
Figure
108
temps t 0
109
Sk Exp(k)
k1
S1 Exp()
Tk Exp()
110
cellule-mre i
2 cellules-lles
temps t 0
i(i 1)
.
2
Il est utilis en gntique des populations pour les lignes ancestrales d'un
chantillon alatoire de gnes. Ce taux correspond au nombre de paires de
lignes qui peuvent coalescer en remontant le temps pour n'en former qu'une
seule, parmi i lignes. C'est le cas si chaque paire de lignes coalescent au
taux 1 indpendamment des autres. Lorsqu'une paire de lignes coalescent
111
k
k1
2
Sk
Sk1
S2
S1
S2 Exp(1)
T16
S3 Exp(3)
112
Ti =
Sj ,
j=2
E(Ti ) =
E(Sj )
j=2
i
=
j=2
2
j(j 1)
1
1
j1 j
=2
j=2
=2 1
1
i
V ar(Ti ) =
V ar(Sj )
j=2
i
=
j=2
i
=4
j=2
i1
=4
j=1
i
=8
j=1
2
j(j 1)
1
1
j1 j
1
+4
j2
i
j=2
1
8
j2
i
j=2
1
j(j 1)
4
1
1
4 2 8 1
2
j
i
i
113
et
1
8 2
12 =
12 1, 16.
2
j
6
lim V ar(Ti ) = 8
j=1
Li =
jSj .
j=2
E(Li ) =
jE(Sj ) = 2
j=2
j=2
1
2
j1
i
1
1
dx = 2 log(i).
x
E(Ni ) =
0
lf (l)dl
0
= E(Li )
2 log(i).
114
Cela permet d'estimer le taux de mutation par le nombre de sites polymorphes observs dans un chantillon de taille i divis par 2log(i).
i(i 1)
+ o(N 1 )
2N
[N t]
= e
i(i1)
t
2
De plus, tant donn qu'il y a au moins une coalescence, la probabilit conditionnelle qu'il y en ait exactement une a comme limite 1. Le nombre de lignes ancestrales est alors dcrit par un processus de coalescence. C'est le
cas asymptotiquement pour beaucoup d'autres modles de population.
115
i + 1 probabilit
= qi,i+1
i 1 probabilit
0i
i
i +i
i
i +i
= qi,i1
Si Exp(i + i )
pour tout tat i et pour tout instant t > 0. Autrement dit, la probabilit
d'une explosion en un temps ni est gale 0.
Une condition susante pour qu'un processus de naissance et de mort
soit temps de vie inni est
j0
1
= .
j + j
Cela signie que l'esprance de la somme des temps de sjour aux dirents
tats, en supposant une naissance la n de chacun d'eux, est innie.
116
Exp()
Exp()
i pour 0 i s,
s pour i s + 1.
117
j+1
j
j1
t+h
118
Or,
Pkj (h) max(P r(Sj2 + Sj1 < h), P r(Sj+2 + Sj+1 < h)),
De mme
P r(Sj+2 + Sj+1 < h) (j+2 + j+2 )(j+1 + j+1 )h2 .
On conclut que
Pik (t)Pkj (h) = o(h),
k=j1,j,j+1
qui dpend seulement de j . En regroupant toutes les fonctions o(h), on obtient que
Pij (t + h) P ij(t)
o(h)
= j+1 Pi,j+1 (t) + j1 Pi,j1 (t) (j + j )Pij (t) +
.
h
h
119
M (t) =
j0
M (t) =
j1
j1
(j + 1)Pi,j+1 (t)
j1
+
j1
= Pi,j (t)
+
(j 1)Pi,j1 (t)
(j + 1)Pi,j+1 (t) +
j1
j1
Pi,j1 (t).
j1
Or,
Pi,j1 (t) = 1,
j1
car
i0
1
= ,
i + i +
120
On en dduit que
F (t) = e()t ,
c'est--dire que
F (t) =
()t
e
+ c,
(1 e()t ) + ie()t ,
d'o
lim M (t) =
si > ,
si < .
=
,
i + i
+
i
=
=
.
i + i
+
qi,i+1 =
qi,i1
121
+
i+1 +
i1 ,
i( + ) +
+
+ (i1 i ).
i
i i+1 =
j=1
1
j
ij
1 .
D'autre part,
i i+1 i + 1 .
1 =
j=1
1
+ i+1 i
j
j=1
1
,
j
pour tout i 1, o
(i+1 i ) zi +
zi =
j=1
1
j
1 ,
1 =
j=1
1
j
log(1 /)
.
122
L1 =
Sk ,
k=1
E(L1 ) =
E
n=1
Sk
n
E(Sk ) P r(N1 = n)
n=1
=
n=1
P r(N1 = n)
k=1
k=1
n
P r(N1 = n)
+
E(N1 )
.
+
Or,
E(N1 ) =
1
+
=
< .
1 2p
123
j
i+1
i
i
i1
t+h
o
Pik (h)Pkj (t) P r(Si1 + Si < h) + P r(Si+1 + Si < h)
k=i1,i,i+1
124
tout tat i de loi exponentielle de paramtre i > 0, de telle sorte que l'tat i
est non absorbant, et de probabilits de transition qij de l'tat i l'tat j = i
lorsqu'on quitte l'tat i qui sont telles que la matrice stochastique Q = (qij )
est irrductible. La situation est illustre dans la Figure 50.
Si Exp(i )
0 < i <
temps t 0
Une distribution stationnaire = (i ) pour cette chane est dnie par les
trois conditions suivantes :
(a) j > 0 pour tout j ;
(b) j j = 1 ;
(c) j j = i=j i i qij pour tout j , ou A = 0 en notation matricielle.
Ici A = (aij ), avec aij = i qij si j = i, et j si j = i, est le gnrateur de
la chane, et 0 est un vecteur dont toutes les composantes sont 0.
Les conditions (a) et (b) garantissent que la distribution stationnaire est
une distribution de probabilit positive. Par le thorme ergodique (section
2.6.7), la probabilit j correspond la fraction moyenne de temps long
terme que la chane passe l'tat j . La condition (c) signie alors que le
ot de sortie de j est gal au ot d'entre j par tout autre tat i. C'est la
condition de stationnarit.
j j
k k k
125
pour j = i. Ici, on a
qij =
1
1
= ,
54
20
1A = A1 = 0.
Donc, i = 1/126 pour i = 1, . . . , 126 est une distribution stationnaire.
2
2
0
0
0 4
4
0
.
A=
2
0 4
2
0
2
4 6
126
Exp(4)
Exp(2)
comptoir 1
Exp(2)
comptoir 2
si occup
si occup
A=
0, 0, 0, 0
2
2+4
2 = 4/9.
127
termine avant un temps de loi Exp(4) qui lui est indpendant). Remarquons que le taux d'arrive des clients est 2 et aussi le taux de sortie
lorsque le comptoir 2 est occup. Or, le comptoir 2 est occup 4/9 du
temps long terme, d'o la proportion de clients servis au comptoir 2
doit tre 4/9.
Le temps moyen qu'un client qui se prsente passe dans le systme
long terme est donn par
0 (1 + 12 ) + (1/4 + 1/2) 0 + 1/4 +
2
1/2 2 = 7/18.
2+4
o
k =
0 1 . . . k1
,
1 2 . . . k
128
k0 k
pour i 0.
Nous allons prouver cette armation par induction. Tout d'abord, le
gnrateur est de la forme
0
0
1 (1 + 1 ) 1
A=
j1
(j + j )
j+1
d'o
1 =
0
0 = 1 0 .
1
c'est--dire
j+1 =
(j + j )j j1 j1
.
j+1
129
1 j j+1
1 j j+1
0 1 j
=
0
1 2 j+1
j+1 =
= j+1 0 .
1=
i = 0
i=0
i=0
si et seulement si
0 =
avec
i0 i
1
i0 i
< .
i
,
N
j=0 j
pour i = 0, 1, . . . , N .
1
1/
si ,
si < .
130
(1 /),
1
/
1=
,
1 /
1 /
=
i0
(i + 1)
i
ii
+
i0
L 1
= +
1
=
.
(1 /)
131
Exp()
Exp()
Exp()
Exp()
k
0 k1
=
,
1 k
k!k
pour k 1, et 0 = 1. Ainsi,
k =
k0
k0
(/)k
= e/ < ,
k!
(/)i /
e
,
i!
pour i 0.
Le temps moyen W qu'un client passe dans le systme quivaut simplement l'esprance d'une variable de loi exponentielle de paramtre ,
soit 1/. D'autre part, le nombre moyen de clients dans le systme l'tat
stationnaire est
L=
2.7 *Dmonstrations
132
2.7 *Dmonstrations
2.7.1 Processus temps de vie inni
Un processus de naissance et de mort est temps de vie inni, c'est--dire
qu'il satisfait
Pij (t) = 1,
j
j0
1
= .
j + j
Dmonstration :
On note d'abord que la situation la moins favorable un temps de vie
inni est celle o il y a une naissance la n de tous les temps de sjour.
On considre donc un processus de naissance avec taux de naissance j + j
pour tout j 0. Pour tout i 0, on dnit
Ti =
Sj ,
ji
1
.
j + j
133
p = P r(Ti > t) =
ji
ji
ji
E(Ti ) =
0
pk =
k=1
p
< .
1p
Dmonstration :
On remarque d'abord que Pij (t) > 0 pour tout t > 0 et tout couple d'tats
i, j sous la condition que la chane est irrductible (voir les gures 53 et 54).
En eet,
2.7 *Dmonstrations
134
Si
i1
Si1
S i2
i2
in1
j=i
Sin1
Sj
Pij (t) P r
S ik < t <
k=0
n1
Sik
k=0
i Pij (n),
i
135
Pij
j lorsque n
et
j =
i Pij
i
n
,
2k
De plus, on a l'ingalit
|Pij (t) j |
nk (t)
2k
nk (t)
2k
+ Pij
j .
i Pij
i
nk (t)
2k
on obtient que
j =
i Pij (t) ,
i
i
i
2.7 *Dmonstrations
136
on conclut que
0=
i Pij (t) ,
i
pour tout j et tout t 0. (Dans les deux cas, on utilise le lemme 2 sur la
convergence d'une somme en appendice du chapitre 1.) Finalement, l'quation progressive de Kolmogorov et un changement d'ordre de sommations
donnent
0 =
Pik (t)akj
i
i
k akj ,
k
Dmonstration :
137
d'o
Pij (t + h) Pij (t) =
et par consquent
|Pij (t + h) Pij (t)|
On a toujours
1 Pjj (h) P r(Sj < h) j h,
2.8 Exercices
138
2.8 Exercices
1. Deux employs d'une maison de courtage recoivent des appels de
choc avec probabilit k2 /9 pour k = 1, 2, 3 et dans ce cas qu'il est remplac par un appareil neuf. Si les chocs sont espacs par des intervalles
de temps indpendants de loi exponentielle de paramtre 9, quel est le
gnrateur pour le nombre de chocs subis par l'appareil en fonctionnement ?
3
2
1
2 4
2
0
1 1
mer tant qu'au moins deux de ces systmes fonctionnent. Les temps
de fonctionnement de ces systmes sont indpendants et de loi exponentielle de moyennes 1 an, 1,5 an et 3 ans, respectivement. Quel est
le temps moyen que le sous-marin restera en mer ?
139
erreurs typographiques. Supposons que l'auteur fasse des erreurs typographiques selon un processus de Poisson d'intensit inconnue par
page et que le correcteur en relve en moyenne 9 sur 10. Comment
estimeriez-vous ?
hausse (+) ds et aussi longtemps que la dernire nouvelle la concernant est bonne et la baisse (-) lorsqu'elle est mauvaise. De plus ces
nouvelles arrivent selon un processus de Poisson d'intensit 2 par jour
et chacune d'elles est bonne avec probabilit 2/3 ou mauvaise avec
probabilit 1/3 indpendamment de toutes les autres. Quel est le gnrateur de la chane de Markov pour le mouvement (+ ou -) du prix
de l'action de cette compagnie ? Justier brivement en identiant bien
les tats.
2.8 Exercices
140
11. Dans une prison du Far West, les tentatives d'vasion surviennent
selon un processus de Poisson d'intensit 1 par 4 mois, mais elles russissent seulement avec probabilit 1/2, et dans ce cas tous les prisonniers s'vadent en bloc. D'autre part, il faut un temps de loi exponentielle de moyenne 2 mois pour rattraper et emprisonner nouveau
chaque prisonnier en cavale. En faisant toutes les hypothses d'indpendance, dterminer : (a) le gnrateur pour le nombre de prisonniers
en cavale sur les deux en prison au dpart ; (b) le temps moyen pour
que les deux prisonniers en cavale se retrouvent ensemble en prison.
12. (SOA M A06 #9) Un jeu dans un casino fait des paiements selon un
processus Poisson d'intensit 5 par heure et le montant d'un paiement
peut tre 1, 2, 3, ... sans limite. La probabilit qu'un paiement soit gal
i est 1/2i et les paiements sont indpendants les uns des autres. Calculer la probabilit qu'il n'y ait pas de paiement de 1, 2 ou 3 dans une
priode de 20 minutes.
13. (SOA M A06 #10) Vous arrivez une station de train 6h15. Jusqu' 7h00, les trains arrivent selon un processus Poisson d'intensit 1
par 30 minutes. Aprs 7h00, ils arrivent selon un processus Poisson
d'intensit 2 par 30 minutes. Calculer l'esprance du temps que vous
devrez attendre avant qu'un train arrive.
14. Une chane de Markov temps continu sur les tats 0, 1 et 2 a comme
gnrateur
2
1
1
2 4
2
0
1 1
141
de moyenne 2 alors que le temps de rparation suit une loi exponentielle de moyenne 1/2. Il y a 4 appareils et 2 rparateurs qui peuvent
travailler chacun sur un seul appareil la fois. On suppose que tous
les temps de fonctionnement et de rparation sont indpendants. Quel
est le nombre moyen de rparateurs en service long terme ?
par heure, mais n'entrent pas s'il y a au moins quatre voitures dans la
station. Il y a deux pompes disponibles dans la station et le temps de
service chacune d'elle est de loi exponentielle de moyenne 6 minutes.
(a) Quelle est la distribution stationnaire du nombre de voitures dans
la station ? (b) En moyenne, combien d'automobilistes sont servis par
heure ?
19. Une boutique qui vend des ordinateurs en garde au plus 3 en stock.
2.8 Exercices
142
long terme ; et (b) le nombre moyen d'ordinateurs vendus en une semaine long terme.
20. Un coieur a de la place pour seulement 2 clients dans son salon. Les
21. Il y a 1278 particules sur un damier de 100 par 100. Chaque parti-
cule saute un taux gal 1 sur l'une des quatre cases adjacentes au
hasard (devant, derrire, gauche, droite). Si la case choisie est en dehors du damier ou est dj occupe par une particule, le dplacement
est annul. Quelle est la distribution stationnaire pour l'ensemble des
cases occupes par les particules ?
22. On considre une station de taxis dans un aroport o les taxis et les
clients arrivent selon des processus de Poisson d'intensit 2 et 3, respectivement. On suppose qu'un taxi attend la station, quel que soit le
nombre de taxis prsents lors de son arrive. En revanche, si un client
ne trouve pas de taxi son arrive, il dcide d'utiliser un autre moyen
de transport. (a) Quelle est la proportion long terme des clients qui
prennent un taxi ? (b) Quel est le nombre moyen de taxis en attente ?
(c) Lorsqu'un taxi arrive la station, quel est le temps moyen que ce
taxi doit attendre avant de servir un client ?
i
,
i+1
143
respectivement, pour i 0.
144
partir du statut A0.
29. Une grenouille sur le bord d'un tang (tat 0) saute dans l'tang
(tat 1) et vice versa selon une chane de Markov temps continu dont
le gnrateur est
A=
2
2
2 2
145
inoccupe partir d'un premier appel ; (b) les valeurs de pour lesquelles la ligne redevient inoccupe en un temps moyen ni partir
d'un premier appel, et dans ce cas le temps moyen.
33. Le CEPSUM reoit des appels pour la rservation d'un plateau spor-
146
1
1
0
0
1 2
1
0
.
A=
0
2 3
1
0
0
3 3
36. Trois enfants s'amusent dans une glissade d'un parc. Un seul enfant
peut glisser la fois. On suppose tous les temps de remonte et de descente indpendants et de loi exponentielle, disons de paramtres et ,
respectivement. On a une chane de Markov sur quatre tats possibles
selon les nombres d'enfants en remonte, en descente et en attente,
respectivement : (3, 0, 0), (2, 1, 0)), (1, 1, 1) et (0, 1, 2), reprsents par
0, 1, 2 et 3, respectivement. En supposant que la remonte prend en
moyenne deux fois plus de temps que la descente, dterminer : (a) le
gnrateur ; (b) la distribution stationnaire ; (c) la proportion moyenne
de temps long terme pendant laquelle chaque enfant glissera.
service et une avec service. Le temps de service est plus long la seconde, car on y vrie le niveau d'huile et on y lave le pare-brise. On
suppose des temps de service de loi exponentielle, de moyenne 2 min
la premire et de moyenne 4 min la seconde. Les temps entre les
arrives des automobilistes sont aussi de loi exponentielle, de moyenne
2 minutes. Tous ces temps sont indpendants. Un automobiliste choisit la pompe en libre service lorsque les deux pompes sont libres, car
l'essence y est moins chre, sinon il prend celle qui est libre ou qui
se libre. Les automobilistes en attente de service s'impatientent et
147
(1 F (x))dx = 1,
0
o F (x) = P r(T x). Dterminer dans chaque cas la loi de probabilit pour le nombre de clients dans le centre commercial l'tat
stationnaire.
selon un processus de Poisson d'intensit 1. Le temps requis pour rpondre aux questions d'un client est de loi exponentielle d'esprance
1/2. Si le prpos reoit un appel alors qu'il est inoccup (tat 0),
il prend aussitt l'appel. S'il reoit un appel alors qu'il rpond un
client (tat 1), il prend l'appel pour un temps de loi exponentielle d'esprance 1/4 mais seulement pour dire au nouveau client qu'il sera mis
en attente jusqu' ce qu'il ait termin avec le client prcdent. Pendant ce temps (tat 2) et tant que le nouveau client est en attente
par la suite (tat 2a), tout nouvel appel est rejet. D'autre part, un
client en attente s'impatiente au taux 2, auquel cas il libre la ligne
avant que le prpos ne rponde ses questions. Dterminer : (a) la
distribution stationnaire ; (b) la proportion moyenne de clients long
terme qui ne recevront pas d'information ; (c) le temps en ligne moyen
long terme (avec le prpos ou en attente) d'un client qui appelle.
Suggestion pour (c) : Dterminer d'abord le temps en ligne moyen
148
Processus de renouvellement
S2
N (t)
S1
renouvellement
S0
0
0 = T0
T1
T2 temps t
150
2
conscutifs, avec une esprance 0 < et une variance 0 < . Dans ce
cas, le processus de renouvellement est dit avec dlai.
E(N (t))
1
= .
t
3 Processus de renouvellement
151
= E(N ).
Xn
n=1
Xn
n=1
Xn
+
Xn E
=E
n=1
n=1
Dmonstration :
En dnissant la variable alatoire indicatrice 1{N n} = 1 si N n, et 0
autrement, qui est indpendante de Xn , pour tout n 1, on trouve que
= E
1{N n} Xn
Xn
n=1
n1
1{N n} Xn
1{N n}
n1
E (Xn )
n1
P r(N n)
=
n1
nP r(N = n)
n1
= E(N ).
152
X1 + + XN (t)
t
E(N (t))E(X1 )
.
t
E(N (t))E(X1 )
E(X1 )
=
,
t
T
.
2
3 Processus de renouvellement
153
S = KT + Z,
o Z suit une loi uniforme sur [0, T ] et K+1 une loi gomtrique de paramtre
T . Ainsi,
P r(K = k) = (1 T )k T,
pour k 0, et
E(K) = E(K + 1) 1 =
1
1.
T
Donc, on a
E(S) E(S)
1
4
=
+
T (1 T /2) (1 T /2)
1 + 4T
=
.
T (1 T /2)
C(T ) =
154
c'est--dire si et seulement si
2T 2 + T 1 = (2T 1)(T + 1) = 0.
Il s'agit d'un point de minimum, car la drive seconde est positive. En eet,
aprs quelques simplications, on trouve que
d2
4(4 6T + 3T 2 + 4T 3 )
C(T ) =
,
dT 2
((2 + T )3 T 3 )
qui prend la valeur 8/3 pour T = 1/2, et qui est positive en gnral pour
0 < T < 1. On conclut donc que C(T ) pour 0 < T < 1 est minimum lorsque
T = 1/2.
3 Processus de renouvellement
155
kpk = < .
k1
Soit
pour k 1. Alors
lim uk = .
De plus, on a le mme rsultat si S0 a une distribution de probabilit dirente sur les entiers k 1. La dmonstration de ce rsultat est reporte la
n du chapitre.
lim
uk = lim
k=1
E(N (n))
1
= ,
n
156
V (n) = m + l = k 1
)
TN (n) = n l
0 A(n) = l n
TN (n)+1 = n + m
R(n) = m 1
Figure 57 ge, temps de vie rsiduel et temps de vie total temps discret.
Les temps valeurs entires Si > 0 entre les i-ime et (i + 1)-ime
renouvellements, pour i 1, sont indpendants et identiquement distribus,
de fonction de masse donne par pk 0, pour tout entier k 1, avec
kpk = < .
k1
3 Processus de renouvellement
157
est l'instant du premier renouvellement aprs n (n exclu). La gure 57 reprsente ces variables.
On considre les limites des fonctions de masse des dirents temps
lorsque n .
Temps de vie rsiduel : Pour tout m 1, on a
n
P r(R(n) = m) =
unl pm+l ,
l=0
l0
1
pm+l =
pour tout m 1.
ge : Pour tout l 0, on a
P r(A(n) = l) = unl
pm+l .
m1
km pk
158
pm+l =
m1
kl+1 pk
pour tout l 0.
Temps de vie total : Pour tout k 1, on a
k1
P r(V (n) = k) =
unl pk .
l=0
l=0
1
kpk
pk =
,
pour tout k 1.
On arrive aux mmes rsultats pour les proportions moyennes limites de
temps que ces variables prennent ces valeurs en utilisant la loi des grands
nombres. (Voir la section 3.5.1 pour une dmonstration.)
km
1
k
kpk
km pk
1
k
kpk
kl+1 pk
de vie rsiduel moins 1. Cela dcoule de la convention que c'est l'ge, et non
pas le temps de vie rsiduel, qui prend la valeur 0 lorsqu'un renouvellement
3 Processus de renouvellement
159
)
TN (t)
t
A(t) 0
TN (t)+1
R(t) 0
Figure 58 ge, temps de vie rsiduel et temps de vie total temps continu.
On considre maintenant un processus de renouvellement avec temps de
loi continue Si > 0 entre les i-ime et (i + 1)-ime renouvellements, pour
i 1, indpendants identiquement distribus, de fonction de densit donne
par f (x) 0, pour tout rel x > 0, avec
xf (x)dx = < .
0
De plus, ces temps sont indpendants du temps avant le premier renouvellement, S0 , qui est aussi suppos de loi continue.
L'ge, le temps de vie rsiduel et le temps de vie total du renouvellement
courant l'instant t 0 sont dnis par
A(t) = t TN (t) ,
R(t) = TN (t)+1 t,
V (t) = TN (t)+1 TN (t) ,
160
yf (y)
dy,
1 F (y)
dy,
F (x) =
f (y)dy,
0
x xf (x)
dx =
2
0 x f (x)dx
0 xf (x)dx
2
E(S1 )
2 + 2
=
,
E(S1 )
3 Processus de renouvellement
161
x (1 F (x))
dx =
=
=
=
=
0 x x f (y)dy
xf (y)dxdy
2
0 (y /2)f (y)dy
2)
E(S1
2E(S1 )
2 + 2
.
2
y
0
0
densit donne par xf (x)/, pour tout x > 0. D'autre part, la distribution
asymptotique conditionnelle du temps de vie rsiduel et de l'ge tant donn
un temps de vie total x > 0 est uniforme sur l'intervalle (0, x). Cela donne
une densit totale
1
x
xf (x)
dx =
1 F (y)
,
h
,
162
pour tout t, h > 0. C'est le thorme de renouvellement pour un processus stationnaire. La dmonstration pour un processus en temps continu est
prsente la n du chapitre.
noter qu'on s'attend ce qu'un processus de renouvellement soit approximativement stationnaire aprs un long moment quelle que soit la distribution de S0 en admettant la convergence de la distribution du temps de
vie rsiduel vers sa distribution asymptotique.
0 si x < 0,
F (x) = x si 0 x 1,
1 si x > 1.
1 F (x)
=
xf (x)
=
2
2x2 dx = ,
3
3 Processus de renouvellement
163
2
x2 2 ex dx = E(S1 )
= (V ar(S1 ) + E(S1 )2 )
=
=
1
1
+ 2
2
2
,
164
lim
E(Wi (t))
=
t
i i
.
j1 j j
n1
lim
(k)
Pji = i ,
k=0
pour tout i, j 0. Dans le cas o les temps de sjour sont de loi exponentielle,
disons de paramtre i lorsqu'on est l'tat i, et que Pii = 0 pour tout tat
i, alors on a
1
t t
lim
Pji (s)ds =
s=0
i /i
,
j1 j /j
3 Processus de renouvellement
165
p 1p
p 1p
temps de rparation
d'esprance 0 <
0 1
1 0
La distribution stationnaire correspondante est 0 = 1 = 1/2. La proportion de temps long terme que le systme est l'tat de fonctionnement est
alors donne par
1
2 1
1
1
2 0 + 2 1
1
.
0 + 1
166
temps de rception
d'esprance 0 = 1/
1
1
=
.
0 + 1
(1/) + 1
.
1 1
3 Processus de renouvellement
Exp()
167
temps de service
de densit f (x)
P =
Ici
p0 p1 p2
p0 p1 p2
0 p0 p1
.
.
.
pk =
0
.
.
.
.
.
.
. .
. .
. .
.
.
. .
(y)k y
e
f (y)dy > 0,
k!
168
premier client
kpk
k0
k(y)k
k0
k!
ey f (y)dy
yf (y)dy
0
= 1,
c'est--dire
1
.
alors on a
= E(
Zk ) =
k0
E(Zk ),
k0
=
k0
1
1
=
< ,
1m
1
3 Processus de renouvellement
169
=E
Si
i=1
o S1 , S2 , . . . , sont des temps de service identiquement distribus, indpendants entre eux et indpendants de la variable
T =
Zk .
k0
.
1
0 =
,
1/
170
Priode d'occupation
d'esprance 1
Dbut d'un 1er service
Figure
Priode de repos
d'esprance 1/
M/G/1
Thorme :
3 Processus de renouvellement
171
N (n)1
k 1{Si =k}
i=0
n+1
1{V (l)=k}
l=0
1
TN (n)
N (n)
k 1{Si =k} ,
i=0
N (n)
N (n)
i=0 Si
1
N (n)
N (n)1
i=0
k 1{Si =k} .
172
E k 1{S1 =k} =
kpk
,
pk ,
km
alors que pour l'ge de valeur l 0, elle est remplace par 1{Si l+1} d'esprance
P r(Si l + 1) =
pk .
kl+1
3 Processus de renouvellement
173
Thorme :
Avec probabilit 1, la proportion de temps avec un renouvellement courant
de temps de vie total x, pour x > 0 x et jusqu' l'instant t > 0, converge
lorsque t vers la limite
x
yf (y)dy,
0
(1 F (y))dy,
0
F (x) =
f (y)dy,
0
pour x > 0, est la fonction de rpartition pour le temps entre deux renouvellements conscutifs.
Dmonstration :
N (t)1
i=0
Si 1{Si x}
t
0
1{V (s)x} ds
1
TN (t)
N (t)
Si 1{Si x} ,
i=0
3.6 *Dmonstrations
174
Le terme de gauche peut s'crire
N (t)
N (t)
i=0 Si
1
N (t)
N (t)1
Si 1{Si x} .
i=0
E S1 1{S1 x} =
yf (y)dy,
0
E(min(S1 , x)) =
yf (y)dy + x
0
(1 F (y))dy.
f (y)dy =
x
3.6 *Dmonstrations
3.6.1 Thorme de renouvellement lmentaire
On considre un processus de renouvellement avec S0 > 0 d'esprance
0 < pour le temps avant le premier renouvellement, et Si > 0 d'esprance
< pour le temps entre les i-ime et (i + 1)-ime renouvellements, pour
i 1. Tous ces temps sont indpendants. Si N (t) reprsente le nombre de
renouvellements jusqu' l'instant t > 0 inclusivement, alors
lim
E(N (t))
1
= .
t
Dmonstration :
3 Processus de renouvellement
175
SN (t)
n N (t)
Tn
TN (t)
<
TN (t)+1 t + M
Figure 64 Temps de sjour l'tat N (t) dans le cas o tous les temps de
sjour aux dirents tats sont borns par une constante M .
Si =
Si si Si M,
M si Si > M,
< ,
1 +
E(N (t))
E(N (t))
t + M 0
t 0
.
t
t
t
t
On conclut que
1
E(N (t))
E(N (t))
1
1
lim inf
lim sup
+ ,
t
t
t
3.6 *Dmonstrations
176
kpk = < .
k1
Soit
pour k 1. Alors
lim uk = .
De plus, on a le mme rsultat si S0 a une distribution de probabilit dirente sur les entiers k 1.
Dmonstration :
En conditionnant sur le temps du premier renouvellement (voir la gure
65), on obtient l'quation de renouvellement
k
uk =
pj ukj ,
j=1
kj
3 Processus de renouvellement
177
pour tout k 1. Ces transitions sont illustres dans la gure 66. Ce sont les
transitons pour le temps qu'il reste avant le prochain renouvellement, d'un
pas au suivant.
p4
p3
p1
p2
1
De plus, par les hypothses faites sur pk pour k 1, l'tat 1 de cette chane
est rcurrent positif apriodique, avec
kpk <
=
k=1
(k)
lim uk = lim P11 = .
qj ukj =
j=1
qj {jk} uk .
j1
1
.
3.6 *Dmonstrations
178
tribution continue
f (y)dy,
F (x) =
0
0 (1
1 F (x)
,
h
,
Dmonstration :
= P r(N (t) 1) +
= P r(S0 t) +
3 Processus de renouvellement
179
Or,
t
1 F (x)
dx
0
t
x
f (y)
t
dydx
=
0
0
t
t
ty
=
f (y)dy.
P r(S0 t) =
E(Wi (t))
=
t
i i
.
j1 j j
Dmonstration :
j E(Nij ).
j=i
Or,
E(Nij ) =
j
,
i
3.7 Exercices
180
< ,
i
lim
o Si,1 , Si,2 , ... sont des temps de sjour i d'esprance i < , indpendants entre eux et indpendants de Ni (t). Le lemme de Wald mne alors aux
ingalits
i E(Ni (t) 1) E(Wi (t)) i E(Ni (t)).
On conclut que
lim
E(Wi (t))
i
=
,
t
E(Si )
3.7 Exercices
1. Des voitures arrivent une barrire. Chaque voiture a une longueur
3 Processus de renouvellement
181
remplac par un appareil neuf. Le temps de fonctionnement d'un appareil neuf a comme fonction de densit f (x) = x2 +4x/3 pour 0 < x < 1
et 0 ailleurs. (a) Quel est le taux moyen de remplacement des appareils long terme ? (b) Combien de temps en moyenne un appareil en
opration un instant donn trs tard dans le futur va-t-il encore fonctionner ? (c) Quelle est la probabilit que l'appareil en (b) fonctionne
encore plus d'une demie unit de temps ?
d'intensit 2. Le compteur a besoin d'un intervalle de temps de longueur xe 1/5 pour rcuprer aprs la dtection d'une particule. Pendant cette priode de rcupration, les particules arrivant au compteur
ne sont pas dtectes. Quelle est la proportion moyenne des particules
qui sont dtectes long terme ?
prsentent selon un processus de Poisson d'intensit 12 par heure. Lorsqu'un acheteur tombe sur le vendeur, ils disparaissent tous les deux 5
minutes pour conclure la transaction, puis le vendeur retourne au coin
de la rue. Les acheteurs qui se prsentent durant l'absence du vendeur
passent leur chemin. Le montant moyen d'une transaction est de 50 dollars et elles sont toutes indpendantes. (a) Quel est le montant moyen
des transactions par heure long terme ? (b) Quelle est la probabilit
qu'un policier qui se prsente au coin de la rue tombe sur le vendeur ?
(c) Combien de temps en moyenne un policier qui commence surveiller le coin de la rue devra-t-il attendre avant d'tre tmoin d'une
rencontre entre un acheteur et le vendeur ?
182
3.7 Exercices
d'une dure xe de 2 minutes est transmis. Tout autre appel est rejet durant cette priode. Le taux moyen de messages transmis long
terme est de 12 par heure. On suppose que les appels arrivent selon un
processus de Poisson. Dterminer : (a) le temps moyen entre le dbut
d'un message et le dbut du suivant ; (b) la proportion moyenne des
appels rejets long terme ; (c) le taux d'arrive des appels (accepts
ou rejets) ; (d) le nombre moyen d'appels rejets durant la transmission d'un message.
7. Sur une grande artre d'une ville, le stationnement est autoris pour
8. Des groupes constitus d'une, deux ou trois personnes avec les pro-
3 Processus de renouvellement
183
ment prcdent, alors on dit que c'est un succs. Par exemple, si les
vnements surviennent aux temps 2 ; 2,8 ; 4 ; 6 ; 6,6 ; etc., alors les
vnements aux temps 2, 8 et 6, 6 sont des succs. (a) quel taux les
succs surviennent-ils long terme ? (b) Quelle est la proportion des
vnements qui sont des succs long terme ?
11. Un appareil qui cesse de fonctionner est ou bien remplac immdiatement par un appareil neuf avec probabilit 2/3 ou bien remis en
service aprs avoir t rpar avec probabilit 1/3. Le temps de rparation moyen est 1 et le temps de fonctionnement moyen est 2 ou 4
selon qu'il s'agisse d'un appareil rpar ou d'un appareil neuf. Quelle
est la proportion moyenne du temps long terme avec un appareil en
rparation ?
de loi exponentielle de paramtre 1. Quel est le taux moyen de remplacement long terme de l'ampoule : (a) si elle est remplace aussitt
qu'elle brle ; (b) si l'quipe d'entretien passe date xe une fois l'an
et remplace l'ampoule seulement si elle est brle. Dans ce dernier cas,
(c) quelle est la proportion moyenne de temps long terme avec une
ampoule brle ?
13. Un tudiant utilise des cartes prpayes pour son cellulaire qui lui
184
3
1
2
0
1 3
2
0
.
A=
0
1 2
1
0
1
2 3
Dterminer : (a) la distribution stationnaire si elle existe ; (b) l'esprance du temps pour revenir 0 lorsqu'on quitte l'tat 0. Remarque : Il
y a deux faons de rpondre la question (b), une longue et une courte.
16. Un mdecin travaille dans une salle d'urgence. Il est appel en moyenne
une fois toutes les deux heures selon un processus de Poisson. S'il
s'coule plus de 36 minutes depuis le dernier appel, il s'endort et il ne
se rveille qu'au prochain appel. (a) Quelle est la fraction de temps
moyenne long terme que le mdecin dormira ? (b) Quelle est l'esprance d'une priode d'veil continu du mdecin ?
3 Processus de renouvellement
185
19. Un hotel dispose d'une navette pour cueillir des clients l'aroport
lon un processus de Poisson d'intensit 12 par heure. Un dtecteur photolectrique dclenche l'ouverture de la porte l'arrive d'une voiture
et celle-ci se referme aprs 1 minute s'il n'arrive pas d'autres voitures
entre-temps. Sinon, elle reste ouverte, et ne se referme que lorsqu'il
s'est coul 1 minute depuis l'arrive de la dernire voiture. Enn,
le temps de stationnement de chaque voiture est de loi exponentielle
d'esprance 1/4 d'heure, indpendamment de tous les autres et indpendamment du processus d'arrive, et la porte de sortie est dirente
de la porte d'arrive. Dterminer : (a) la distribution stationnaire pour
le nombre de voitures dans le stationnement ; (b) l'esprance du temps
186
pour tout n 0.
En supposant des variables alatoire discrtes, on vrie alors que
E(Xn+1 |Xn = xn , . . . , X0 = x0 )P r(Xn = xn , . . . , X0 = x0 )
E(Xn+1 ) =
xn ,...,x0
xn P r(Xn = xn , . . . , X0 = x0 )
xn ,...,x0
xn
xn
P r(Xn = xn , . . . , X0 = x0 )
xn1 ,...,x0
xn P r(Xn = xn )
xn
= E(Xn ),
188
pour n 1, o
k =
1
avec probabilit 1/2,
1 avec probabilit 1/2,
Donc, {Sn }n0 est une martingale, et par consquent E(Sn ) = E(S0 ) = 0.
189
valeur de l'actif et que le taux d'intrt sans risque (accord sur les bons du
trsor) qui tend augmenter la valeur de l'actif est ngligeable.
On se demande quel est le prix juste payer pour une option d'achat de
l'actif au prix actuel, mais aprs n sances. Le prix juste correspond l'esprance du gain. Ce gain est la dirence entre le prix de l'actif aprs n sances
et le prix actuel si cette dirence est positive, sinon il est nul. Autrement
dit, c'est la partie positive de la dirence, reprsente par (Sn S0 )+ . Pour
n assez grand, le thorme limite central permet d'obtenir l'approximation
E((Sn S0 )+ ) n
0
zez /2
dz =
2
n
.
2
qui est la valeur prise par Xn . Ainsi, {Xn }n0 est une martingale. En consquence, E(Xn ) = E(X0 ), qui est le nombre initial moyen d'individus de type
A dans la population.
190
Z0
Z1
Z2
On a donc
E
zn
Z0
Zn+1 Zn
= n,..., 0 = 1
n+1 mn
m
m
m
mzn
zn
= n,
n+1
m
m
pour n 0. Donc, {Zn /mn }n0 est une martingale. Par consquent,
E
Zn
mn
=E
Z0
m0
= 1,
191
1
avec probabilit p,
1 avec probabilit 1 p,
pour n 0.
On introduit maintenant
Mn =
1p
p
Sn
1p
p
1p
p
Sn
1p
p
1p
p
= Mn ,
Sn
pour n 0.
S0 , . . . , Sn
Sn
Sn +n+1
1p
p
1p
p
n+1
p+
1p
p
(1 p)
192
et
|MnT | K,
ou bien que
E(T ) <
et
|M(n+1)T MnT | K,
1
avec probabilit p = 1/2,
1 avec probabilit 1 p = 1/2,
193
n SnT
Sn
b
,
a+b
194
P r(T k)
E(T ) =
P r(T k)
n0
k1
k=n(a+b)
1 pa+b
(a + b)
n0
a+b
= a+b < .
p
1
avec probabilit p = 1/2,
1 avec probabilit 1 p,
1p
p
Sn
195
est un temps d'arrt par rapport {Sn }n0 qui vrie P r(T < ) = 1 pour
les mmes raisons que prcdemment. De plus,
|MnT | max
1p
p
1p
p
< .
1p
p
+ (1 pa )
1p
p
1p
p
1p
p
a+b
pour n 0. De plus,
D(n+1)T DnT |Dn+1 Dn | = |n+1 (2p 1)| 2 < ,
pour tout n 0. Puisque T est un temps d'arrt qui satisfait E(T ) <
pour les mmes raisons que prcdemment, la remarque qui suit le thorme
d'arrt garantit que
E(DT ) = E(ST ) (2p 1)E(T ) = E(D0 ) = 0.
On en dduit que
E(T ) =
E(ST )
apa b(1 pa )
=
.
2p 1
2p 1
196
Remarque :
Dans le cas o p < 1/2, on dduit les rsultats suivants :
a
p
,
P r(Sn atteigne a) = lim pa =
b
1p
P r(Sn atteigne b) = lim (1 pa ) = 1,
a
b
.
1 2p
p1/2
et
b
a+b
p1/2
197
1
1
pour i 1. Les variables alatoires i pour i 1, sont supposes indpendantes. D'autre part, la mise Mn sur le jeu n 1 dpend seulement
des variables 1 , . . . , n1 . La suite {Mn }n1 est alors une stratgie de mise
prvisible. Par consquent, la variable alatoire Wn dpend seulement de
1 , . . . , n pour tout n 1. De plus, on a
E(Wn+1 |1 , . . . , n ) = Wn + E(Mn+1 n+1 ) = Wn + Mn+1 E(n+1 ) = Wn ,
Ici, le thorme d'arrt ne s'applique pas, car la mise est non majore. Si au
contraire elle ne peut pas dpasser 2N par limite de ressources ou de crdit,
de telle sorte qu'on doive se retirer si on atteint ce seuil, alors on a
T = min{n 1 : Wn = 1 ou Wn = 2N + 1}
198
comme temps d'arrt, auquel cas
WT =
1
2N + 1
avec probabilit 1 21 ,
N
avec probabilit 21 ,
N
pour tout n 0.
Puisque {MnT }n0 est une martingale par rapport {Sn }n0 , on a que
E(MnT ) = E(M0T ) = E(M0 ).
Sous les conditions que |MnT | K et P r(T < ) = 1, pour une constante
K < , pour tout n 0, on a que
|MT | = lim |MnT | K.
n
De plus,
|E(MT )E(MnT )| = |E(MT MnT )| E(|MT MnT |) 2KP r(T > n),
199
car
|MT MnT | |MT | + |MnT | 2K
On conclut que
E(MT ) = lim E(MnT ) = E(M0 ).
n
et
|M(n+1)T MnT | K,
|E(MT MnT )| = E
(M(k+1)T MkT )
kn
M(k+1)T MkT
E
kn
P r(T k),
kn
car
M(k+1)T MkT = 0,
E(T ) =
k1
200
4.3 Exercices
1. Une urne contient des boules rouges et des boules vertes. chaque
2
2. Montrer que Sn n est une martingale par rapport Sn = 1 + ... +
201
i(N i)
2i(N i)
, Pi,i = 1
,
N2
N2
5. Un joueur mise une unit d'avoir sur chaque jeu d'une srie de jeux
identiques idpendants. Son gain net (gain brut en nombre entier d'units moins une unit de mise) sur chaque jeu est d'esprance =
1/2 < 0 et de variance 2 = 1 > 0, en plus d'tre major en valeur absolue par une constante K > 0. Le gain net aprs n 1 jeux
est donn par
Sn = 1 + . . . n ,
et
Wn = (Sn n)2 n 2 ,
pour tout n 0, et
T = min{n 1 : Sn = N },
203
Le processus est donc une martingale temps continu. De plus, la fonction de densit de la variable alatoire B(t) = B(t) B(0) est donne
par
pt (x) =
1 x2
e 2t ,
2t
204
pour < x < +, pour t > 0. Il est facile de vrier que cette
fonction est la solution de l'quation aux drives partielles
1 2
pt (x) =
pt (x) =
t
2 x2
x2
8t5
x2
8t3
e 2t ,
probabilit
1
2
i1
probabilit
1
2
i
N
k1
N
k
N
BN (t)
n
N
t < n+1
N
n Sn
,
N n
n
= t.
N
205
2
D'autre part, comme E(k ) = 0 et V ar(k ) = E(k ) = 1, le thorme limite
central garantit que
lim P r
S
n x
n
y2
e 2
dy,
2
y2
e 2t
dy,
2t
pour < x < +. Cela qui signie que BN (t) tend en distribution vers
une variable alatoire de loi N(0, t) lorsque N .
pour t > 0 tant la limite d'une contraction d'une marche alatoire symtrique sur les entiers sur un intervalle de temps de plus en plus grand, et une
telle marche tant rcurrente, le nombre de visites 0 de ce mouvement de
l'instant 0 tout instant t > 0 est inni avec probabilit 1 !
et
V ar(X(t)) = 2 V ar(B(t)) = 2 t.
206
Sn x ,
N
P r(X(t) x) = lim P r
N
Sn =
k ,
k=1
et n = N t . Ici
k =
+1 avec probabilit p =
1
2
1+
1 avec probabilit 1 p =
1
2
E(k ) =
N
2
,
2N
2
de telle sorte que E(k ) = 1.
1+
= lim
N
2
= e2a/ ,
207
b N /(N )
= lim
N /( N )
b
= .
o X(t) est un mouvement brownien avec drive et cart-type . Le processus Y (t) est alors un mouvement brownien gomtrique et le paramtre
est appel la volatilit.
La variable Y (t) est approche par la variable
YN (t) = Y (0)e
n
Sn
= Y (0)
k
N
k=1
k
N
2 2
1 k +
.
=
2N k
N
k
N
2
1
2
1 E(k ) +
E(k ) =
=
2N
N
N
2
2
208
2 /2)
Ces galits utilisent le fait que B(t + h) B(t) est indpendante de B(s)
pour tout s t et de loi N(0, h). On remarque que
209
On calcule d'abord
P r(Y (t) atteigne Y (0)a) = P r(X(t) atteigne log(a))
= e2log(a)/
= a2/ .
2A/ 2
.
1 + 2/ 2
210
o
(z) =
et
x2
1
e 2 dx
2
log(A) t
+
t =
.
2
t
Ici, on dnit
Y (t) Y (0)A si positif,
0
sinon.
(Y (t) Y (0)A)+ =
Pour tenir compte d'un taux d'intrt sans risque r > 0 par unit de temps,
on prend
A = Bert ,
Dmonstration :
La dmonstration utilise simplement le fait que
Y (t) = Y (0)eX(t) ,
E (eX(t) A)+ =
(ex A)
(xt)2
2 2 t
dx
2 2 t
z2
1
et+z t A e 2 dz,
2
log(A)
=
t
log(A) t
log(A) t
+
t =
=
.
2
t
t
2 t/2
t t
z2
1
e 2 dz A
2
z2
1
e 2 dz.
2
211
o
1/4 =
log(600) log(568)
0, 2
1/4
600
(1/4 ) ,
568
0, 2 1/4
= 0, 65.
2
5.3 *Exercices
1. Dterminer la covariance entre B(s) et B(t), o B(t) pour t 0 dsigne un mouvement brownien standard.
212
Bibliographie
Rfrences
[1] Durrett, R. Essentials of Stochastic Processes, Springer-Verlag, New
York, 1999, 289 pages.
[2] Foata, D., Fuchs, A. Processus stochastiques, Dunod, Paris, 2004, 236
pages.
[3] Freedman, D. A. Markov Chains, Springer-Verlag, New York, 1983, 382
pages.
[4] Grimmett, G., Stirzaker, D. Probability and Random Processes, Oxford
University Press, Third Edition, Oxford, 2001, 608 pages.
[5] Hein, J., Schierup, M. H., Wiuf, C. Gene Genealogies, Variation and
Evolution : A Primer in Coalescent Theory, Oxford University Press,
Oxford, 2005, 290 pages.
[6] Mehdi, J. Stochastic Models in Queuing Theory, Academic Press, Second Edition, San Diego, 2003, 450 pages.
[7] Rosenthal, J. S. A First Look at Rigorous Probability Theory, Second
Edition, World Scientic, Singapore, 2006, 219 pages.
[8] Ross, S. Introduction to Probability Models, Academic Press, Seventh
Edition, San Diego, 2000, 693 pages.
[9] Ross, S. Stochastic Processes, John Wiley and Sons, Second Edition,
New York, 1996, 510 pages.
[10] Ruegg, A. Processus stochastiques, Presses Polytechniques et Universitaires Romandes, Lausanne, 1989, 164 pages.
[11] Society of Actuaries, Past Exam Questions and Solutions, Archives, http ://www.soa.org/education/exam-req/syllabus-studymaterials/edu-multiple-choice-exam.aspx.
[12] Taylor, H. M., Karlin, S. An Introduction to Stochastic Modeling, Academic Press, Third Edition, San Diego, 1998, 631 pages.
[13] Taylor, H. M., Karlin, S. A First Course in Stochastic Processes, Academic Press, Second Edition, San Diego, 1975, 557 pages.
[14] Taylor, H. M., Karlin, S. A Second Course in Stochastic Processes, Academic Press, San Diego, 1981, 542 pages.
[15] Williams, D. Probability with Martingales, Cambridge University Press,
Cambridge, 1991, 251 pages.