Sie sind auf Seite 1von 363

Ftç ---' _

-- t-r,r.r,]l
a: 1l

école notionole supérieure du pétrole et des moteurs

Ph. TASSI et S. LEGAIT

théorie
des probabilités
en vue des applications
statistiques

,dffifl
,:*- ,,

,tri'[e;Ë
i
t" -l

.',:

o)
6
{)
ffi?
o .$ffiffi
o=
Lo
o.
c
o / .. tj.i.'

f
rll:-9.:l:11 .\
o
.c
(D ,#fr.&TfrIr
E
o
.o .ri'*1H1i*'r
o
a *;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*
af
o-

TUTIONS TECHNIP
-l I

ll'i:
,

,t**jt-"\{ i
':, :'r- Q''|r 3

a u I
I
I
I
I
II
I
I

1l
i- 5l-9.21-:3il TAS ilit
fi
I il
l
I
352
, .r - I r' .- "l f
{,1' ù '') '-' i 't

519. ?1-:3il TAS


AR?
INSTITUT FRANÇAIS DU PETROLE

École Nationale Supérieure


du Pétrole et des Moteurs

Centre d'études supérieures


d'économie et gestion

Théorie
des probabilités
en vue des applications statistiques

Philippe Tassi
Directeur scientifique de Médiamétrie
Professeur à I'ENSPM et à I'ENSAE

Sylvia Legait
Attaché de t'INSEE

Éotnorus rEcHNtp
27, rue Giroux
75737 Paris Cedex 15
@ lgg0. Editions Technip, Paris
et Institut Frmtçais du Pétrole, Rueil-Malmaison

tsBN 2-7108-0582-O
rssN 0758-147X
Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soil
est rigouretnement interdite par les lois en vigueur
AVANT-PROPOS

déjà longue histoire des méthodes scientifiques montre que


principale
victoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge la
du doute. Le
scientifique éclairé remprace de prus en prùs fréquemmenio""
uttirrations comme
"le résultat est ...> par des interrogations : *queile est ra probabirité pour que re
résultat soit ..". Le calcul et la théàrie des probabilités jouent, joueront
et un rôle
fondamental dans ra démarche scientifique, d'une part
en raison de ra nature aréa_
toire de la plupart des problèmes réels, d""utr" part grâce
à la nécessité de recourir
aux méthodes statistiques de traitement de donnée-s
sans cesse plus nombreuses
et complexes à analyser.
Le déterminisme étant souvent une réduction hâtive
de la réalité, il n'est plus,
maintenant, d'ingénieur chimiste. physicien, fiabiriste,
astronome, sans parrer bien
sûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement
des sciences
sociales et humaines, qui n'aient à manipurer res
probabilité et de la statistique. Mentionnons, ài r"" modères de ra
"onË"pt,
à titre 0,""".pie, ra physique des
particules : les électrons ne décrivent pas des
trajectoires autour du noyau comme
le font les planètes autour du soleil. Les particules
obéissent en effet aux lois de la
mécanique quantique, et la notion de trajectoire doit
être abandonnée. De manière
générale, la seure chose qu'ir est possiÉre de
connaître est la probabilité de pré_
sence d'une particule en un point donné et à un instant
donné.
, .L',ouvrage propose une introduction aux principales notions des probabilités
dont le praticien sera amené à se servir. ll est rédigé pour
des lecteurs déjà familia-
risés avec un certain bagage mathématique en anaryse
et en
l'usage de plus en plus repându des méthodes proba'bilirt""-I argèbre. En effet,
grandissant de par re déveroppement de rogiciers
qui ira encore en
adaptés - montre qu'une mau-
vaise connaissance des propriétés fondamentares des
techniques est à r,origine
d'interprétations parfois aberrantes des résultats. ll
nous apparaît donc important
d'insister sur les bases, afin de faciliter la compréhension
des méthodes. La rédac-
tion fait en outre appel à de nombreux exemples d'applications
et exercices résolus
ou à résoudre.

. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique.


maintenant classique, de Kormogorov. il'contient égarement
res résurtats sur re
conditionnement er [indépendanCe. et le célèbre théJrème dû
à Thomas Bayes, dit
de nprobabilité des causes>
chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare,
de la mesure et présenre res principaux étéments de rintàgr"tion
générarisée au
sens de Lebesgue, dont ra pubrication, au début du 2o'"siècre,
a permis une

PH. TASSi - S. LEGAIT


AVANT PROPOS

approche unifiée des probabilités. Nous avons adopté cette démarche car elle
apparaît pédagogiquement intéressante, de par l'unification du langage qu'elle
permet et la portée des propriétés qu'elle engendre.
Dans le troisième chapitre sont regroupés les principaux résultats sur les varia-
bles aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des cas
particuliers de ceux obtenus au chapitre 2.
Le chapitre 4 est important pour le praticien: il fournit les définitions et pro-
priétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applica-
tions. ll donne également les principes des papiersfonctionnels adaptés à la déter-
mination d'une loi de probabilité au vu des données, ainsi que des éléments sur la
génération d'échantillons aléatoires souvent utilisés en simulation.
Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoir
donné une représentation géométrique de certains des outils de la statistique des-
criptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et la
régression.
Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsque
l'on veut connaître la loi d'une somme de variables ou étudier les comportements
asymptotiques : il s'agit de la fonction caractéristique.
Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreu-
ses applications statistiques sont fondées sur des propriétés (aux limites,, autori-
sant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'un
des indices les plus utilisés en statistique est le nornbre des observations: lorsqu'il
est impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorise
l'usage de résultats approximés.
Un certain nombre de compléments et d"approfondissements font l'objet du
chapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance,
existant entre deux lois de probabilités. ou entre des observations et un modèle
théorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.
L'observation de données aléatoires fait parfois apparaître un ordre naturel :

ainsi un phénomène qui va en s'amplifiant donnera naissance à des données ran-


gées en ordre croissant. En outre, depuis quelques années, on voit se développer'
des méthodes statistiques utilisant des observations ordonnées, méthôdes dont les
propriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacré
aux résultats probabilistes particuliers à ce type de modèle ordonné.
Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une géné-
ralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent est
celui des séries temporelles, dont l'observation varie non seulement en fonction de
l'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournit
des résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exem-
ples de processus, en particulier les processus autorégressifs et moyenne mobile
très répandus en automatique et en prévision.
Les auteurs

PH. TASSI S. LEGAIT


TABLE EES MATIERES

AVANT PROPOS
3
TABLE DES MATIERES
5
Chapitre 1 : LES eONCEPTS pROBAB|L|STES
11
1 Espace probabitisable
12
1 .1 Ëxpérience aléatoire
1.2 Evénement 12
12
2 Propriétés des tribus
13
3 Ouelques tribus particulières
16
3.1 Exemples "...
3.2 Tribu engendrée 16
3.3 Tribu borélienne 16
17
4Probabilité sur un espace probabilisable
18
4.1 Définirion d'une probabiliré
4.2 Propriétés d'une probabilité 18
21
5 Fonction de répartition
22
6 Probabilité conditionnelle, indépendance
d,événernents 23
6.1 Probabilité conditionnelle .
6.2 lndépendance . . 23
6.3 Théorème de Bayes 24
27
Exercices
29
Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON
33
1 La théorie de la mesure : histoire et apport aux probabilités
33
2 Notion de mesure
35
2.1 Déf initions
2.2 Propriétér . ::::' ' ".:: 35
2.3 Meiure.iriin, sii :.:. :::::::.' 37
39
3 Mesurabilité
40
3.1 Application mesurable
3.2 Mesure-image 4A
3.3 Tribu-produit . 43
44
4lntégration ...
46
4. 1 lntégration des fonctions mesurables étagées positives
4.2 lntégration 46
des fonctions mesurablei positives
48
PH TASSI . S. TEGAIT
TABLE DFS MATIERES

4.3 Fonctions intégrables 50


51
4.4 Propriétés de l'intégrale
4.5 Généralisation 52
4.6 Exemples ... 53
54
5 Négligeabilité .
5.'l Définitions 54
55
5.2 Propriétés
59
6 Mesure définie Par une densité
61
7 lntégration par rapport à une mesure-image
64
8 lntégration par rapport à une mesure-produit
64
8.1 Mesure-produit 65
8.2 lntégration
67
Exercices
71
Chapitre 3 : LES VARIABLES ALEATOIRES
72
1 Caractéristiques des variables aléatoires réelles (unidimensionnelles)
1.1 Fonction de répartition . . ' . 72
1.2 Densité de probabilité . . ' . 73
1.3 Moments ... 75
77
1.4 Fractiles
78
1.5 Changement de variables
80
2 Vecteurs aléatoires
80
2.1 Fonction de répartition
2.2 Densité de probabilité . . ' . 80
82
2.3 Moments ...
2.4 Changement de variables 85
2.5 Lois marginales 86
87
2.6 lndépendance 91
2.7 Lois conditionnelles
103
Exercices
107
Chapitre 4 : LES LOIS DE PROBABILITE USUELLES
107
1 Les lois discrètes ..".
107
1.1 La loi de Dirac
1.2 Loi indicatrice (ou loi de Bernoulli) .. .' 108
109
1.3 Loi de Poisson 110
1.4 Loi binomiale 110
1.5 Loi multinomiale . . . 113
1,6 Loi hypergéométrique 115
1.7 Loi binomiale négative
116
2 Les lois continues elassiques
116
2.1 Loi uniforme
117
2.2 Loi gamma 119
2.3 Loi de Weibull

PH TASSI S. LEGAII
TABLE D.ES MATIERES

2.4
Loi bêta
2.5
Loi de Gumbel 121
2.6 Loi normale unidimensionnelle 124
2.7 Loi normale multidimensionnelle 124
2.8 Loi log-normale 131
2.9 Loi du khi-deux 135
2.10 Loi de Student 136
2.11 Loi de Fisher-Snedecor 138
140
3 Les papiers fonctionnels
142
3 1 Principe
:.: _,,,,v,r/ç uçù
des pcrpters
papiers fonctionnels
toncltonnels
3.2 txemples de construction de papier fonctionnel 143
3.3 Cas de variables discrètes 143
147
4 Divers
148
4.1 Création de lois de probabilité
4.2 Les coefficients de symétrie et d.ailaiissement 148
srrucrure générâre , ra tamiirËïfànentierre 150
11
4.4 Y:"
Génération d'éôhantillons aléatoires 152
154
Exercices
158
Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES
... 165
1 Espaces de variables aléatoires ' 165
1.1 Les espaces 9, elL. . . _.
1.2 Lesespaces7jett'. --._. ' " 165
1 .3 Les espaces 9É et I
z '' rob
169
Un peu de géométrie
2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : 171
: : : : : :. :. : : :. : : : : 171
2.2 Géométrie dans.L,
174
I
3 ltry"'jmarion.daÀ's L, ....... : :... 175
2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent
180
Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE
185
1 Définition et propriétés d,une fonction caractéristique
185
1.1 Définition ...
1 .2 Propriétés 185
1 3 Un j" i"i'jËii"i;;;, ;;i;' 187
"^".ft"
2 Fonctions caractéristiques 190
des lois de probabilité usuelles 191
2.1 Loi de Dirac ....
2.2 Loi de Bernoulli 191
2.3 Loi binomiale 191
2.4 Loi de Poisson 191
2.5 Loi uniforme continue 191
2.6 Loi gamma 192
2.7 Loi normale 192
2.8 Loi du khi-deux 192
2.9 Loi de Cauchy 192
192
PH TASSI . S. LFGAIT
1
TABLE DFS MATIERES

2.10 Loi de Laplace 192


2.11 Loinormale multidimensionnelle 193
2.l2Loimultinomiale.'. 193
194
3 Applications de la fonction caractéristique
194
3.1 Loi d'une somme de vecteurs aléatoires 195
3.2 Caractérisation de l'indépendance de deux vecteurs aléatoires
196
3.3 Obtention des moments non centrés . .
199
4 Seconde fonction caractéristique . . . .
"""": 199
4.1 Définitionsetpropriétés '.
4.2 Applications aux développements d'Edgeworth et de
Gram-Charlier ... 202
206
Exercices
207
Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES
'! Convergence Presque sûre .
247

2 Gonvergeneeenprobabilité .""! 209


209
2.1 Cas des variables aléatoires réelles
2.2 Cas des vecteurs aléatoires . . ' . . 212
en loi . . . 213
3 Convergence
3.1 Définition de la convergence en loi 'roi".:::::.::::::.::::::: î12
3.2 Caractérisation de la convergence en
218
4 Relations entre les diverses formes de convergence
4.1 lmplicationsdiverses ..'. 218
221
4.2 Théorèmes de combinaison .'
223
5 Les lois des grands nombres
227
6 Comportements asymptotiquement gausslens
231
7 Application aux lois de probabilité classiques
231
7.1 Loi de Poisson
232
7.2 Loi binomiale 234
7.3 Loi gamma
7.4 Loi du khi-deux 235
7.5 Précision de l'approximation gaussienne donnée par le théorème 236
central limite
238
Exercices

chapitre 8 : COMPLEMENTS ET APPROFONDISSEMENITS SUR LES


241
LOIS DE PROBABILITE
241
tr Les distances
de Paul LévY 241
,1 La distance 242
2 La distance en variation
243
.3 La distance de Hellinger
244
.4 La distance de LiPschitz

PH TASSI , S. LEGA]T
TABLE DES MATIFBFS

1.5 La distance de prohorov


1.6 Comparaison de distances 244
1.7 Autres indicateu rs ci'écart 245
1.8 Retour sur les convergences 246
249
Application à la fonction de répartition empirique
251
2.1 Propriétés à distance finie
2.2 Propriétés asymptotiques 252
2.3 Vitesse de convérgence : loi du logarithme itéré 252
2.4 lndicateurs de proiimité avec Fn . . .-. . 253
" 254
3 Ordres sur les variables aléatolres
258
Chapitre 9 : OBSERVATTONS OFDONNEES
261
1 Loi de l'échantillon ordonné
26a,
1.1 Définition de la staristique d,ordre
1.2 Loi de la statistique d,ordre 261
262
2 Lois particulières de l'échantillon srdonné ... . 263
?1L"' de X1r1 263
2.2 eas partiiulier des valeurs extrêmes
2.3 Loijointe d,un couple 266
2.4 Catcutdesmomenrs
(X1py X1l/ 267
..'.':..':'......:.:::.:.:.:::.:::.. 268
3 Comportement asyrnptotique
273
3.1 Convergence d'un fractile empirique
3.2 Convergences des valeurs exirêmes 273
3.3 Les lois des extrêmes 275
3.4 Eléments sur la démonstration des convergences 276
en loi 6e Xlny 280
4 La loi de l'étendue
4.1
'Résultar 284
général
4.2 L'étendue W 284
286
Chapitre't 0 : NOTTONS ELEMENTATRES SUR
1 Définition d'un processus aléatoire
LES PROCESSUS ..... 289
289
1.1 Définition d'un processus
1.2 Processus équivalent 289
290
2 Processus stationnaires . .
291
2.1 Stationnarité stricte
2.2 Stationnarité faible 291
2.3 Remarques diverses sur la stationnarité 292
293
3 Corrélation et corrélogramme
296
3.1 Le coeff icient d'autocorrélation
3.2 Exemples de corrélogrammes 296
298
PH.TASSI .S LEGAIT
TABLE DES MATIEBES

4 Fonction d'autocorrélation partielle . . . 302


4.1 Définition générale 302
4.2 Le théorème de Frisch et Waugh ' .. . . . ' 302
4.3 Système de dé termination de (h) 303
4.4 Un exemple 304
304
5 Les opérateurs B et F

Chapitre 11 : EXEMPLES DE PROCESSUS ' ' ' 3O7

1 Le processus de Poisson 3O7

1.1 Les processus à accroissements indépendants 3O7


1.2 Le processus de Poisson 308
2 Les processus de vie et de mort
310
311
3 Le mouvement brownien
311
4 Les processus autorégressifs
4.1 Définition .. . 311
4.2 Etude du modèle AR(P) . 312
5 Les processus moyenne mobile 319
5.1 Définition ... 319
5.2 ProPriétés d'un MA(q) 319
5.3 Remarque sur le lien'entre AR et MA ':''' ' 320

BIBLIOGRAPHIE . 323
TABLES NUMERIOUES 327
INDEX 355

PI'J. TASSI - S. LEGAIT


1C
Chapitre 1

Les concepts probabilistes

Dans de nombreux domaines relevant ou non de I'expérimentation


que' le langage courant fait de plus en plus appel scientifi-
au vocabulàir.e probabiliste. engen-
rant d'ailleurs de nombreux barbarismes ou'impropriétés
o,usàge. on parlera ainsi
d'événement (plus que probabreu ; un match de sérection
upossiblesn contre les uprobabres) en rugoy opposera res
; une situation à venir sera décrite comme <pos_
sible. sinon probable, I etc.

De telles expressions, mQme impropres, montrent que


prennent le pas sur le déterminisme.'Raison rincertain, r,aréatoire,
supplémeniaire pour fonder sur des
bases solides la théorie et le calcul des probabilités.
développer son enseignement
et vulgariser ses résultats

si le concept des probabirités remonte aux Egyptiens


ité en tant que nombre compris entre o et r #Àuià et aux Grecs, ra probabi-
f

Fermat et Pascal connaissent implicitement l'axiome "pp"Ëitr" au 17. siècre.


probabilité conditionnelle. Dès ta iin oe ce o'aâ'oitivite et la notion de
siècre tes tois des
grands nombres de Bernoulli. Le 18" siècle
voit se""irt"niià"pLrance,
développài'le conoitionnement,
la formule de Bayes, ra théorie asymptotique,.et
|usage des probabirités en physi_
que et en astronomie. ce^s applications aux
science. ôt àrr sciences socia-
au 19" siècte, sous t,imputsion de "i."t".
A"fàrann, Laplace,
[:f;":"rr.uivent Ouétef"t,

De nombreuses approches du concept de probabirité


peut citer, par exempre, r'interprétation fréqueniiste ont été proposées : on
tIàprace, von Mises) fondée
sur la norion d'expériences répétées, ta pronaoitite;;t;;;ri;;(Keynes,
la théorie logique (carnap), la'formaiisaiion Koopman),
suolective ioe rinetïi, savage), t,appro-
che purement mathématique (Kolmogorov).

Le lecteur intéressé par l'étude comparative de ces diverses


probabilités pourra se reporter à r'ouvrage de fondations des
T. Fine- p* il;iË#;Ëï;;
avons choisi la présentation abstraite deé axiomes oe
(point de vue de ra théorie de ra ror,.nogolJu, apperée
mesure>, comme nous re verrons "ouu"nt
cette approche définit une structure purement mathématique, peu au chapitre 2.
priori pratique. Elle n'est cependant pas sans liaison interprétable a
.en i;int"rprétation fré-
quentiste, mais ne la requiert point. On gardera "u""
néanmoins en mémoire cette der-
nière, pour la facilité de compréhension.

PH TASSI - S. LEGAIT
1 1
LES CONC EPTS PFOBABILISTES

1 ESPACE PROBABILISABLE

1.1 Expérience aléatoire


En guise d'introduction, nous allons considérer I'expérience physique qui
consiste à .esuret la différence de potentiel U s'exerçant entre les bornes d'un
circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité
| :
2 ampères. Si le montage de l'expérience est parfait, le voltmètre indiquera une
d.d.p. U : Rl : 20 volts. Tôutes choses égales par ailleurs, les mêmes conditions
d'eipérience conduiront toujours au même résultat de 2O volts. Ce type d'expérience
sera qualifiée de déterministe, le résultat étant parfaitement déterminé par la
connaissance des paramètres qui la régissent (résistance. intensité).
par opposition, une expérience sera dite aléatoire si son résultat ne peut être
prévu a priori.
On note par Q I'ensemble de tous les résultats possibles pour une expérience
donnée ; Q esi le référentiel, ou l'espace fondamental de l'expérience. Un élément
a,l de O est dit résultat élémentaire.

Exemples
a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé
régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }'
b) Soit l'expérience consistant à tirer au hasard un individu dans une popu-
lation de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S!
l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé
d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des
Cff échanti llons potentiels.

1.2 Evénement
ll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)
élémentaires : on peut concevoir sanS difficulté un oévénement complexe> compre-
nant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effec-
tuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est
l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement tel
que *le résultat d'un lancer est pair, est un événement aléatoire complexe, com-
josé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant
I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme
tous les échantillons de taille n contenant l'individu L Cet événement E est donc la
réunion O"s Ci-] échantillons vérifiant cette propriété.

A un événement E (complexe), peuvent donc être associés tous les événe-


ments élémentaires qui le définissent'; si l'un d'entre eux est réalisé iors de l'expé-
rience, l'événement E le sera également.

12 PH. TASSI S. LEGAIT


LES C ONC EPTS PROBABITISTES

Notons ,41'ensemble de tous les événements aléatoires


en |,absence de toute
idée a priori sur res événements susceptibres d'intéresser ;
pourra prendre .& : g (A), ensemble des parties - - - i,""perir*nt;Ë;,;;
-
Oe O.
Historiquement, des conditions de manipulation des événements
à doter -4 d'une structure d'algèbre, c'est-à-dire que
ont conduit
.4"rt-un" crasse de parties,
de Q, contenant Q, et stabre pa'. intersection et comprémentation
(et donc par réu_
nion) ; sont vérifiées les conditions suivantes :

oQtr-'.r4
o A€ ,tC., B€.4+ A)B€.&
cA € .4 + Ae u4 Â désigne le complémentaire de A dans e).
Cependant' dans une structure d'algèbre, la stabilité par réunion
section dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à ou inter-
rfi, une suite crois_
sante d'événements de ,4, c'est-à-dire une suite te'ile que "st
C An*r,de rimite
An
o: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, ou
n
e e; de même pour la limite d'une suite décroissante. cette non-stabilité <aux
Ilimites" a conduir natureilemenr à munir ,4 a'""e sii"cilàê,riu", ou a-argèbre.

Définition 1

Une tribu (ou o-argèbre) sur |espace fondamentar e est une crasse .dl de
parties dee vérifiant ;

o Q€,"r/
o,-4 est stable par complémentation, i.e. :A Ç .4+Ae .&
.,(/ eststable par réunion dénombrable : Ane .il,yn€ lN +
Ona,
n !,*
Le couple &, ,',/7 est apperé espace probabirisabre (on
dit aussr espace mesu-
rable) ; un élément de -4 est un événement.

Remarque : la théorie des probabirités a son vocabulaire propre


nements A et B sont dits incompatibles si A O B: ; ainsi deux évé_
e,

2 PROPRIETES DES TRIBUS


cette partie est composée de rappers mathématiques sur res tribus, peut
être omise par le lecteur bien au fait des propriétés de ces structures. et
Certaines
démonstrations font l'objet d'exercices simples.

Propriété I
Une tribu est stable par intersection dénombrable.

PH. TASSI - S. LEGAIT


LES CONCEPTS PROBABILISTES

En effet, (An)ne ru
étant une suite d'éléments de ''&' on a:
ô An= (uA").
nn
Or UÂ e.& d'après b et c. et (U4) €.& d'après b ; le résultat est établi.
n.n
Propriété 2

Q€.&.
Propriété 3
A,B€ ,'4, avecACB: B-AÇ"'('
Cela découle de B - A : B Ct Â.

Propriété 4
Soit (An)n61*,An € ,&,Vn € lN, une suite d'événements de '4: on définit
timinf À"-: AnetlimsupAn:1n9* An;alorsliminf Anet
I
"!*événem ents de "4'
lim sup An sont des

L.événement lim inf An est réalisé si tous les événements An sont


réalisés
sauf un nombre fini. De même, lim sup An est réalisé si une infinité
d'événements
An est réalisée.

Théorème 1

soit ,-& une algèbre de parties de Q ; -4 est une tribu sur O si et seulement
si- L& est rn" .i"r." stable par limite monotone
(croissante ou décroissante' au
choix).

Démonstration
o CN:,.4estunetribu. par A la
Soit (An)n une suite croissante d'événements de ''&' et notons
lim/An;onsaitqueA : On, or U An e "{puisque .&estunetribu;
Y
.4, est donc stable par limite croissante'

o CS : .& est une algèbre stable par limite croissante'


.& étant une algèbîe, on sait que O € ''4'et que '4' est stable parOncomplé
e '4 ?
mentation. é"iiâoti'Àn) une suite d'événements ; a-t-on
nE,*

PH TASSI . S. LEGAIT
LES CONC EPTS PROBABILISTES

:
. to::l. Bn
.
:
réunion finie
_ 9^
m(n
A. i Bn € ,,4 puisque ,_& est une algèbre donc stable par

on : lim '/ Bn ''


Y ..,

Par construction, (B j est une suite croissante


d'éréments de ,-4. puisque .&
est stable, par passage à la limite croissante,
u An e ,,&. .Oest une tribu.
Théorème 2
I C lN, une famille de tribus sur e; .& - n
:::A.4,e r. ,4,esl une tribu
i€l '

Démonstration
o ViC l, O € &i - Oe ,-& l

o A€ .4 e Vi€1,
l

&, o Ae -4
Ae,-&i <+Vi, € i

o Soit (AJne une suite d'événements ae k:


h{ I
I

vi e t, (Anl €. &i I

ce qui implique que, pour tout i €',


y O" e &, et donc U Ane ,,&.
Théorème 3
Soit .& une tribu sur e, O.C O.
:
9n, {ClC : Ann,,
La classe A4_,,4}est unetribu surO., appelée
trace de ,,4 sur e,.

Démonstration
o O' : OnO';comme Ae. ,&, e,e Ga,
o soit c e Gn,; en notant, pour distinguer, par * ra comprémentation par
rapport à O' et par - la complémentation par rapport à O, on a
:

..* - lC : A o o'
A appartena ntà ,4,c* est."nI-A!O'
Soit (Cjn61, une suite d.éléments de 6n; on peut écrire:
cn: An o Q' Pour tout n€ lN
et :
t" : ,Y o",ÔQ' ; uAnc ,'4,doncYa"a Ga,
Y
ll en résulte que la classe G
* est une tribu sur e,.

PH TASSI - S. LEGATT
1 b
LES CONC EPTS PBOBABILISTES

Corollaire; si f)' € &, G


n, = { C/C e .4, e c o'].

Théorème 4
Considérons une partition finie (A'), i : 1 à n, de f), telle que :

n
: A, = O; la classe .4: {I At te g (11,2,. , n])]
i:f i€l
est une tribu sur O'

Dérnonstration
R
oO:.>.Aieil
l: I

c(I A.,) : >-4e.t/


i€! i€l
c Soit (l*) une suite cje parties de { 1, ..., n }'
U(: A') : : Aie",
k i€lk i€u lk
dsnc .& est une tribu sur O'

3 OUELOUES TRIBUS PARTICULIERES

3,I ExemPles
o I : \ A, Alest de façon évidente une tribu, appelée tribu grossière' I
est
la tribu la plus fruste sur O.

.9p., ensemble des parties de o, est également une tribu. appelée tribu
discrète, la plus fine existant sur Q.
o soit A e g@l; 9= {Q, A,A, O } est une tribu sur Q, dite tribu
oengendréen
par A.

3.2 Tribu engendrée


Supposonsmaintenantque,-pouruneexpérience-donnée'seulesquelques
partiei d" n, torrunt rn" a" g @'), soient intéressantes en tant qu'évé-
"iu.i "'G
nements. plutôt que de munir O de la tribu a'événements la
plus gross.e, c'e:l-È
dïe g{Ol, on prè{ér"ra définir -4 comme étant la plus petite tribu contenant v'
Montrons qu'une telle définition est admissible'

PH TASSl S, LEGAIT
16
LES CONC EPTS PROBABILISTES

de parries de O, et considérons toutes tes tribus (.4,),


i € t. :;"l"ffnrrU,",us"
- il existe au moins une tribu contenant G, c,est g @) ; donc I * e
- d'après re théorème ,,? o,est une tribu qui, àuii", contient G, et est
contenue dans chaque tribu .&i, i "n
e l.

Définition 2
on appelle tribu engendrée par une crasse G rJe parries de
tribu contenant G-, c'est-à-dire I'intersection de toutes les e ra
prus petite
tribus contenant
G. On ta note o (Gl.

Exemples
o G: [Q]:a(G):tA,A1
o G : {A} avec A + e et A * e : o(Gl :{@.A.À,A}
oG:[Ar,...,An] où I A, :e:
i:1
o(4t,...,An) : {.I. A,, I e gU1, ., n})}
i€t
En effet, o (At,....An) étant une tribu contenant chacun des événe_
ments A, :

vte g({1,.... n}), A' e o (Ar' "'' An)


I ie
donc: {,è, o,, t€g({1,...,n})} Ca(A1,...,An)

ona monrré(théorème4)que{
r Ai.rÇ g({1. .,n})} éraitunetribu;
elle contient chacun des A,. oonc eltJFJn,,"nt la prus petite
des tribus contenant
les A, :

er iAr, ...,An) c I I. Ai, I Ç g{i1, .. , n}}}


it-t
L'inclusion étant étahrie erans les deux sens, re résurtat
est démontré.

3.3 TrËbu borcéEiemme


[-es notions d"aigèbre ou de tribu oni été définies jusqu,à présent
esBaces f,) amorBhes, c'est-à-dire sans aucune référence sur des
à i'eirr toporogie. i\éen_
rnoins, dans les situations usuelles elassiqures, fl est
iR, ou lRp, au z, au lf{. ll est

PH. TASSI S. LEGAIT


17
LES CONC EPTS PROBABILISTES

donc fréquent de supposer qLle Q est un espace topologique, et même métrique ; il


est alors cohérent de souhaiter disposer d'une tribu d'événements compatible avec
la topologie de Q. Plus précisément, on imposera que les ouverts et les fermés pour
la topologie de O soient des événements.

Définition 3
soit Q un espace topologique ; on appelle boréliens les éléments de la tribu
engendrée par la famille O des ouverts de Q :

I : o(Ol
ll est évident que fi est également engendrée par la classe ,9 des fermés de
A; I s'appelle la tribu borélienne.
Eans le cas particulier usuel où O est lR, la tribu borélienne, notée 9l est
engendrée par les diverses classes des intervalles :l* co, x1, l- -, xl, lx, + -1,
1x, + -[, [x, y], [x, yt, ]x, y[. x et y étant deux réels tels
que x < y. La classe des
ouverts { l- -, x[ ] iouera par la suite un rôle privilégié.

De même, sur lRp, la tribu borélienne frP est engendrée, entre autres, par la
classe des pavés ouverts ]- -, xt I x .." x ]- -, xp[.

Remargue.' on notera ,4 l" t ibu borélienne de lR.

4 PROBABILITE
SUR UN ESPACE PROBABILISABLE

Comme nous I'avons annoncé dans l'introduction, la présentation de la pro-


babilité adoptée est celle de A. Kolmogorov (1933). Celui-ci propose une axiomati-
que cohérente au niveau du langage mathématique, fondée sur la notion de ome-
sur" norrnaliséeo (cf. chapitre 2) et la théorie des ensembles, mais dans laquelle
l'interprétation concrète des concepts n'apparaît pas. Les hypothèses portant sur
les événements ont été énoncées dans les paragraphes précédents. Suivent les
axiomes portant sur la probabilité elle-même.

4.1 Définition d'unc Probabilité


Définition 4
Soit un espace probabilisable (O, .41. On appelle probabilité sur (O, .41
l'application P : ,-4' - tO. 1 l, telle que
:

a) P{O) : 1

1B PH TASSI - S. LEGAIT
tES CONC EPTS PROBABILISTES

b) Si (An)est une suite d,événements disjoints :

p( ; A.) : ; p(A-)
n:1 " r"i:l n'

Les conditions a et b portent respectivement les noms


d'axiomes de normalisation
et de a-additivité.

Définition 5

Soit un espace probabirisabre (o, &). on appeile probabirité


l'application p : ,r/ - IO, 1l telle que
sur (e, .41
:

a) P(Q) = 1
c) Ae .&, Be e,llB: e: p(A+B) : p(A)+p(B)
d) soit une suite d'événements (Anldécroissant uér"
@',ii, \ p (An) : o.
Les conditions c et d portent respectivement les noms d'axiomes
d'additivité, de
continuité monotone. Au plan des notations, I'intersection A O
B de deux événe-
ments sera aussi notée AB.

ll est aisé de montrer que res définitions 4 et 5 sont


équivarentes :

oor|.,1"l:o9ï::; :i" 'u


condition (b) soit vérifiée' Alors. en prenant An : a
P(A., + Arl : P(A1)+ p(Az)
D'autre part, soit une suite (An) décroissant vers
@ :

æ
An: _r- (A.n-Ar*1),
m=n
ce qui implique :

P(An) : p(An.,-A',*r).
_I-
m:n
P (An) est alors le reste d'ordre n de ra série u, - p (A, -Ar*1) eui est
une série convergente car :

u.: P(Ar-Ar*1):
m:I. I -:.
m:1
P(A')

ll s'ensuit que lim \ p (An) : O.

PH. TASSI - S. LEGAIT


19
LES C ONC EPTS PROBABILISTES

b) Supposons vraies (c) et (d), et soit (Aj une suite d'événements disjoints ;
on note :

A- ; An,Ae-o
n:1
Soit Bn : a A.; par construction, la suite Bn converge en croissant vers
m<n
A, A : lim / Bn. La suite {Bn -
A) converge donc en décroissant vers @ ; I'axiome
(d) implique que P (Bn - A) converge vers O quand r * oo.

D'autre part, si let J sont deux événements de .& tels que lC J, on peut
écrire J : I + (J - l), avec I et J - I disjoints. L'axiome(e) implique que :

P (J - l): P (J)- P (l)


ll s'ensuit :

Vn. P (Bn-A) : P (Bn) - P(A)

En outre, en étendant l'axiome (c) à un nombre fini d'événements :

'|

P (Bn) : >. P (Am)


m:l
et par conséquent :

æoo
limP(Bn) : >_ p(Am) :p(A) :p(
n m:1 m=1

Exemple: Supposons Q fini, ç:


{cdr, .... ,r,r }, où tous les "individus, de Q sont
discernables par un indice identifiant s, a : 1à N. telle une population de person-
nes physiques identifiées par leur numéro nSécurité Socialeu ou une population
d'entreprises identifiées par leur numéro SIRENE. A toute partie A de O, on associe
la fonction f définie par :

* f 1R1 : cardinal de A
A
N

Montrons que f est une probabilité sur P, g@l).ll est évident que l'on a :

o f (Q) : 1

o A€ g (al, Be g(al, AnB - e: I (A+B) : f (A)+f (B).

91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs dans
t0, 1 l, est bien une probabilité.

20 PH. TASSI S. LEGAIT


LES CONCEPTS PROBABILISTES

4.2 Propriétés d'une probabilité


Les démonstrations sont, en général, immédiates.

Propriété 5
P(@) : 0

Propriété 6
A,Be .4: ACB;alors p(B-A) : p(B)-p(A) > O.

Propriété 7 (probabilités totales)


P(AUB) + P(AnB) = p(A)+p(B).
Démonstration
AB
On peut écrire :

AUB:A+(BoÂ),
B:(BoA)+(BnÂ).
D'après l'axiome (c) :

P(AUB):P(A)+p(BnÂ)
P(B):P(AnB)+p(BnÀ).
En éliminanr p (B n Â;, on obtient le résultar.
Généralisation : formule de poincaré

P(A1 uAzU..'uA") : P(Ak)-,Ii ,(A,ôA,)+...+


r.!r
(-1)n+1 p(Arn...nAn)
Propriété 8 (sous a-additivité)

t'?o"' P(An)
=;
Démonstrafron.'soit (Bn) la suite d'événements définie de la façon
suivante :

Br : A' Bz : AzO Â,,, ..., Bn: An O An_t a ... n Â1

PH. TASSI - S. LEGAIT


LES CONC EPTS PFOBABILISTES

Les événements(Bn) sont 2 à 2 disjoints et U Bn : On


Y
Comme, pour tout n. Bn C An, on a P (Bn) < P (An).

ll s'ensuit :

P(U An) : P(UB.) : _>" P(Bn)


( > P(An)
n"'nà1 n
Remarques
1) Si (An) est une suite décroissante d'événements de limite A, alors
P (A)= lim \ P (An)'

2) Si (An) est une suite croissante d'événements de limite A, alors


P(A) : lim/P(An)'
Pour démontrer 1), il suffit de se ramener à la condition (d) en écrivant
Bn :
An - A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne
façon. on écrit Bn = A - An.

Définition 6
Le triplet (A, ,-4, P) porte le nom d'espace probabilisé.

5 FONEflON DE REPARTITION
Soit P une probabilité définie sur l'espace probabilisable (lR, fr'l; on sait que
fr, contienl en particulier tous les intervalles de type l- -' x[.

Définition 7
On appelle fonction de répartition de P l'application F : lR - tO, 1l définie
Par :
vx € lR, F (x) : P (l- -' x[)

Remargue
On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la
définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de
P ({x}), probabilité de l'événement élémentaire {x}.

Les propriétés de F résultent pour la plupart des propriétés 5 à 8.

Propriété 9
La fonction F est croissante.

PH. TASSI - S. LEGAIT


LES C ONC EPTS PROBABILiSTES

En effer, soirx( y;l_æ, xlcl_ *, y[; ta propriété 6 étabtir te résutrat.

Propriété 1O
La fonction F est continue à gauche.

Soit (xn) une suite de points de lR telle que lirn ,


converge en croissant ^n:x; alors la suite (J__, xn[)
vers'- -. x[) et donc p(]_;, xn[) = F (xn) converg" àn
croissant vers P(l- oo, x[): F (x).

Propriété 11
e lim F (x)= 1

X*+oo.
o lim F (x)= O
x--oo.
Ces résultats proviennent de p (lR)
= 1 et p (el : O.

Remargue
De façon analogue on définirait la fonction_de
répartition d'une probabilité
définie sur lRp. muni
' de sa tribu
trrwuuEverrerlrenrs
d,événements æ ,j7''Pconlenantlespavés(J--,
n
x. x1-- , """;;;'; x,|[
^oti
f (xr, . xo) : P (l-oo, xl [x ... x]--, ;o 1;

6 PROBABILITE CONDITIONNELLE,
IN DEPE N DANCE D'EVENT rVr ÈrVrS

L'axiomatique de Kolmogorov contient une spécification


événement conditionnellemeni a ,n uutià. de la probabilité d'un

6.1 Probabilité conditionnelle


Définition 8
Soit un espace probabilisé p, .4, p) et_B e,r/tetque p(B)
probabilité de A conditionneilemeni a a, ) O. On appelte
o, p.ooutiùté tonortionnele de A
sachant que B va être réalisé (ou est réalisé) le'nombre
:

(AiB) : P(AnB)
P
P (B)

PH TASSI - S LEGAII ..
L.ES CONC EPTS PBOBABILISTES

Vérifions que la fonction ainsi définie est bien une probabilité sur Q, *41:

O < < 1, VA e .& car AaBCB


P(A/B)
P(OîJL : P(B) :1
P(Q'B) :
P (B) P (B)

Soit (An) une suite d'événements disjoints. Comme les événements (An n B)
sont aussi disjoints, on a :

P ((U An)a B) P (U (An n B)) : P (Ann B)

: nnn
P (U An,/B)
n P (B) P (B) P (B)

P(AnaB)
:
n P(B) n

P l\./Bl est bien une probabilité sur (A, .el

Remargue
En écrivant P (B/A), et en tenant compte du fait que P (A Ô B) = P (B n A) par
commutativité, on établit :

P(A/Bl.P(B) : P(B/A) .P(A)


La définition de la probabilité conditionnelle peut être généralisée à un nom-
bre fini d'événements :

P(An B n C) :P lA/Bn C) . P(B a C)

= P (A/Ba c) . P (B/C) . P (C).


Soit (A,), i : 1 à n, une famille finie d'événements; on établit aisément :

nnn
P(.n. An) : PlA,/ et A,).P(A"/ n A').......P(An)
r:r i:2 ' 'i:3

6.2 lndépendance
Définition 9
Deux événements A et B sont dits indépendants si :

P(AnB):P(A) .P(B)

24 PH, TASS1 ' S' LEGAIT


tES CONC EPTS PROBABILISTES

Remargues
o L'indépend3lq" esr une propriété des événements er
o si P (A) et p (B) sont tous d'eux strictemeni de ra probabirité.
poriiil., porturer que A er B sont
indépendants revient à imposer :

P (B/A): P (B) ou P (A,zB) : p (A)

<L'information> apportée sur l'événement


conditionné par l,événement ucondi-
tionnant" est nulle.

Définition 1O

i"i[J:":ii!".Ji"'"
e rarmée des n événemenrs A,, ..., Ao ; ,e est dite
k
o,Air ... rl (Aik) : p (Aii)
,!,
pour tout k, pour toute suite (i1. .... ik)
de (1, ..., n).
Remarques

dit parfois que tes événemenrs A1, ..., An sont uindépendants


_""",it,3,1 dans teur

b) Pour savoir si ra famiile .gest indépendante. ir faut donc vérifier :

ci* . * cl : 2"- c3- cl : 2n - n- 1 retations.


Exemple
Soit l'expérience consistant au lancer de deux dés;

Q:{(i, j), i:1à6, j:1à6}


On considère les événements :

A:(iest impair). B:(jest impair), e:(i+ jest impair).


On vérifie facilement :

P(A) : P(B) : P(C): 172


P(AB) = P(AC) : P(BC) :1/4
P (ABC) : 9.
Les événements A, B et c sont indépendants 2 à 2, mais ra famiile (A. B, c) n,est
pas indépendante.

PH TASSI - S LFGATT
25
LES CONC EPTS PROBABILISTES

Dé{inition 11

(An)ne est une suite d'événements indépendants si :


N*
k
vk € tN* v (ir, ..., ik), P (Ai1 n ... n o,J t(o,/
i!,,
Propriétés 12
1)Si A et B sont deux événements indépendants alorsA et B le sont aussi,
ainsi que A et B.
2)' Si (A^) est une suite d'événements indépendants, on obtient encore une
suiiet'éuénurn"nts indépendants en remplaçant un nombre quelconque
de A' Par leurs comPlémentaires.

Démonstration
P(AnB) : PtA-AnBl: P(A)-P(AnB)
= P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B)
P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB)
- 1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B))
: P (Â)P (B)
Propriété 13
Soit (An)neru* une suite d'événements indépendants; on a :

P( n An) : n P(A")
n€lN* neN* rr

Démonstration
kk :
P( n An) n_P(An)
n:1 " n:l
k- vers
Comme n An est une suite d'événements décroissant Ô
n=1"
An' on a :

n=1 "
koo
P( a A^)\P(
" n An)
"
n:1 n:1
d'oùt :

æt<kæ
n' :
P('n=n A.)lim P( n An) =.lim n. P(An) = n. P(An)
1 k-cê n:1 " k-æ n:1 n= 1

PH. TASSI - S. LEGAIT


zo
LES CONC EPTS PROBABILISTÊS

Définition 12 : Généralisation
Soit (Q, .4, el un espace probabitisé et soit
parties de ,*/. Les parties ? 14 i ( n,
{G,, 1 ( i (n} une famiile de
sont indépendantes si :
,,
k
o ,Air ... a Aik) : e tR,)
,! .,
wur Lou| k, pour toute suile (i1, ..., ik) de (1, ..., n) et pour
tout événement A,de
-ijJ

Définition 13
Dans le cas particurier où res G,sontdes sous-tribus
sont indépendantes si
de .4, res G,, l <i<n,
:

P(A A,) : ti p(A,)


i=1 i-l '

pour tout Ai appartena nt à G,.

Le théorème qui suit propose une condition suffisante


.bus engendrées. d'indépendance de tri-

Théorème 5
1=.i n} une famiile de parties de .dreile que ,g,soitsrabre
Pjl'_!{t s pourtout ( (
tntersection finie, 1 i n
par
:

o ( 9,1, 1< i < n, indépendantes <ê g,, 1{ i s< n. indépendantes.

6.3 Théorème de Bayes


Théorème 6
soient A et B deux événements de probabirité strictement positive
; on a :

P(A/B)
P(B/A) P(A)
- P (B/AI. P(A) + P(B/À). P(À)
Démonstration
ll suffit d'écrire l'événement B sous la forme :

B: (BaA) U (BnA)
d'où :

p(A/Bt- P(AnB) : P(B/A]P(A)


P(B) PB/AIP(A) + P(B/Â)P(A)
PH TASSI . S. LEGAIT
LES CONC EPTS PBOBABILISTES

Généralisation
Soit A.,, Ar, ..., An, n événements formant une partition de Q, tels que
V1 <i(n. F(A,))O:
P (B/Ai) P (Ai)
P (4,,/B) =
n
: P (B/Ai) P (Ai)
j:1
Exemple
On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée.
la seconde a 2 côtés npilen, la troisième est truquée de façon que la probabilité
d'obtenir.pileo soit de 1/4. On tire une pièce au hasard. on la lance et elle donne
"pilen. Ouelle
est la probabilité d'avoir lancé la deuxième pièce ?

Soit B l'événement (obtenir pile", et A, l'événement <tirer et lancer la ième


pièce, i = 1,2, 3.
P (B/A2l P (A2l
P (Ar/Bl :
P (B/A1) P (A1) + P (B/A2l P (42) + P (B/A3) P (43)

1x1/3 4
1/2x1/3+ 1 x1/3+ 1/4x1/3 7

L'importance du théorème de Bayes dépasse très largement le simple énoncé


du théorème 6. et porte sur les concepts. En effet, s'il existe un lien de type causal
entre A et B, c'est-à-dire si B est, en un certain senS, une <cause> de A, le principe
bayésien revient à calculer P (A/B) à partir de probabilités portant sur B, sur la cause.
d'où son interprétation cornme nthéorème sur la probabilité des causes> très impor-
tante pour l'étude de l'environnement causal B d'un phénomène observé A. ll exis-
tera done des rnéthodes statistiques bayésiennes liées aux probabilités bayésiennes.

2B PH.TASSI -S LEGAIT
EXEREICES

1'1 un facteur doit distribuer n letlres dans n boîtes


aux leftres dont on a retiré les plaques, les rendant
indiscernables.

Comme les n lettres portent n noms différents,


le facteur suppose qu'il y a une lettre et une seule
distribuer dans chaque boîte et il dispose donc à
les lettres au hasard.

calculer la probabilité qu'une lettre au moins soir


distribuée à son destinataire réel. calculer sa
limite quand n croît.

lndication

1l.t:t: -A l'événemenl ,,;. 1ème leftre est distribuée à son desrinataire


P(ArUAzU...UAn).0na:
réei>. 0n cherche

n
P (U A,) :2 p (A,)- tr p (A. n A.)+ ... +
i:1 ' '' i<j 'r I
(- l;t'*t > . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a An)
ik) '1
(i1'..., rk'

Ce résultat est connu sous le nom de formule


de poincaré.

L'ensemble o des résultats possibles de l'expérience est l'ensemble


des permutations de
{1, .... n}. 0n te munir de ia piobabitiré :

VA€ 3 (ni, p(A) :


##
P(A a...fiA.): ln-k) !

'l ,k' t ' Vk€ {1'2' ',nl


d'où :

llr (n-2)
:n ' (n -
n -r:n
e1.Û.n,1 I
+ ... + (- l)k+l çk k) !

i:l ' nl n nl

+..+ (-l)n'l -1- = i (-l)k*, .t. ------> t-e-r


nl k:l ' ' k! n-oo
PH, IASSI S. LEGAIT
LES CONCEPTS PROBABILISTES

1.2 soir Q : { 1, 2, ..., nl (n } 1).


I
1) Délinir une probabilité P sur O telle que:Vi€ Q, P ({i}) :;

2) Trouver une condition nécessaire et suffisante sur n pour que :

: (A, B) e g (al - t@, a], A et B indépendants,

3) 0n note :

Vp'p€ Q A- : {i€Q/pdivise i}, K: {p, p diviseurpremier de n}


I (n) = Card {q e Q/q est premier avec n }'

a) Montrer que si p,, ..., pk sont élérnents de K alors Oo',, ',, Oo* sont indépendants.

b) MontrerquerP(n) : n l'l (l--)' I


p€K P

lndications
Card A
llLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et
I ' n

vérifie:Vi€O P({i}):
n

2) S'il existe A et B indépendants (A et B non égaux à @ ou O) alors on a ;


n Card A f-l B: Card A x Card B.

Card Adivise n (CardAn B< Card A) doncn estnonpremier. Réciproquementsi n estnon


premier, 1 k> 2 et p2 2, n : kp. Soit A : {1, 2, ...,k} et B : {k, k + 1, ..., k + p - 1 } ;
onabienP(AnB) : P(A) P(B)

3)a) Sipdivisen, lk€O, n:kp et Ao: {p,2p,...,kp} d'où;

kkl
PiAi:
'p' -:-= -p
n kp
p {Ao' n ... n Apk} : P (Ao' car les p, sont premiers
oJ

: _
1

car Pt '.. Pn divise n


Pr " Pr

k
: n PlAl
. P:'
l- I I

30 PH TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES

b) Soit B : [q € Q/q est premier avec n].

$: n À
p
P€K
d'où:
P(B) =?(n)
n =
n
p€K
PtÀIp' :n (1--) 1

p€K p

puisque les Ào sont indépendants.

PH. IASSI S. LEGAIT


Chapitre 2
Probabilité, mesure, intégration

L'axiomatique de Kormogorov (1933) qui a servi de base pour re


chapitre précé-
dent repose sur des concepts mathématiqués générau^ qr"
uJni les mesures et l,in_
tégrale par rapport à une mesure. Le déveroppement de ra notion
de
fin du 19" siècle et du début du 20' siècle donne naissance à une mesure de ra
probabilité ne peut que profiter, celle-ci en étant un théorie dont la
cas purti.rri"r. ce chapitre, qui
peut être omis en première lecture, fournit aux lecteurs
familiarisés unu ;r;;J;-
tation mathématique abstraite. les principaux résultats rattachés "u".
au concept de me-
sure, et qui seront repris et utilisés dans la suite de l'ouvrage pour
les probabilités.

1
LA THEORIE DE LA MESURE :
HISTOIRE ET APPORT AUX PROBABILITES
Les fondements de ra probabirité mathématique présentés
au chapitre précé_
dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement
ni les débuts
de cette science. Les premiers écrits sur le calcul des probabilités
semblent remon-
ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre
cohérent de
concepts probabilistes, reprenant nombre de résultats obtenus par Blaise pascal et
Pierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn"
variabre aréa_
toire prenant ses valeurs sur un nombre fini de points.
Le 18" siècle est marqué par la contribution de la famille Bernoulli
Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, -Jacques,
publié en
1718 énonce la loi des grands nombres. En 1733, de Moivre"oni""tandi,
obiient la loi normale
(ainsi qu'elle sera dénommée bien plus tard par poincaré)
en approfondissant les
calculs de la loi des grands nombres et en utirisant |approximation
asympotique de
n ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra première
forme du théorème central limite. Autre personnalité importaîte pierre
: Simon de
Laplace; commencés en 1778, ses travàux servent de référence jusqu'à
ra fin du
19" siècle et au début du 20' siècle.

Citons Jean Dieudonné : n... le cercle vicieux de la définitionfd'une probabititél


en termes de cas équipossibtes, I'apparition de variables aléatoires
discrètes mais à
nombre infini de valeurs possibles, telles que celles de Poisson,
aléatoires à loi absolument continue telles que des variables aléatoires
et des variables
nor-atii.
PH TASSI S LEGA]T aa
PROBABILITE MESUFF, lNTEGRATION

ont amené graduellement à une idéatisation mathématique qui engloberait toutes


ces possibilités,. Le développement de la théorie de la mesure va y contribuer
fortement.

En 1881, A. Harnack introduit la notion d'ensemble discret, puis, en 1882,


celle *d'égalité en général,, qui anticipe le concept d'égalité presque sûre du para-
graphe 5. La nmesure, d'un ensemble apparaît ensuite dans de nombreux travaux ;
ies définitions sont différentes selon les auteurs (Cantor, 1884; Peano, 1887;
Jordan, 1892). Mais c'est Emile Borel qui va introduire la notion d'ensemble de
mesure nulle (1894), et la théorie des ensembles mesurables (1897). Travaillant
sur lR, et, plus précisément sur [0, 1 ], il privilégie la classe des ensembles ouverts,
qu'il .mesure, à partir de la longueur des intervalles; il montre que l'on peut définir
sur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure>
p vérifiant les propriéiés, vues au premier chapitre, de s - additivité et de différence:
(ACB:s(B-A) : s(B) - s(A))
La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebes-
gue, ou intégrale généralisée. qui va permettre à I'intégrale de Riemann et aux
jusqu'à la fin
[robabilités Oe Oépasser certaiRs contre-exemples gênants. En effet.
du 19" siècle. la seule façon de déf inir l'intégraie d'une fonction f sur un segment
de Riemann-Darboux. Néanmoins, à partir de
Ia, b]consistait à utiliser les sommes
tgZO, t'integrale de Riemann s'était vu opposer des particularités où elle était
inemployable, comme les cas où f- converge simplement vers f, f n intégrable au
sens de Riemann pour tout n, f norlnleman-n-intégrable.
En 1901, H. Lebesgue donne une théorie de l'intégration plus générale que
Riemann, à partir ciu concept de mesure introduit par Borel. C'est cette construc-
-Sous de
tion de l'intégrale Lebesgue qui est présentée dans ce chapitre, ainsi que ses
applications. l'impulsion de J. Radon, les concepts de mesure et d'intégration
qlitt"tont vite IR et lRn; ainsi apparaîtra la théorie de la mesure abstraite définie
,ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de
mesure absiraite qui a permis le développement de la théorie mathématique des
probabilités. Par exemple, pour définir dans tous les cas I'espérance E (X) d'une
variable aléatoire X, il fallait l'intégrale de Lebesgue et ses extensions. L'achève-
ment de la construction des théories de la mesure et de l'intégration peut être daté
de 1g30, avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence
des densités.
Ainsi. la théorie de la mesure et de l'intégration ont jeté les bases d'une
formalisation homogène et cohérente des probabilités, en y introduisant la rigueur
du raisonnement mathématique ; rappelons en effet que Keynes, en 1921, écrivait
À propo, des probabilités que ./es savants y décèlent un relent d'astrologie
ou d'al-
que von Mises est encore plus direct en affirmant (1919) que n/e calcul
chimie,, et
des probabilités n'est pas une discipline mathématique"'

La probabilité étant un cas particulier de mesure se voit donc, à partir des


années trente, appliquer une grande partie des résultats de mesure et d'intégration'

PH, TASSI - S. LEGAIT


PROBABILIIE, MESURE, INTEGRATION

2 NOTION DE MESURE
2.', Définitions
Définition 1

soit (Q' 4 un espace mesurabre..on appere


toute appticarion 1u définie sur mesure positive sur (Q, .4)
"4 a u"ràlis Oa;;"iRî-: [0, + oo] vérifianr
l'axiome de a_additivité :
Pour toute suite (An) d'éléments .r/, n € lN*, deux à deux disjoints
de :

tr(;_A^)n' :; p(A-)
n=1 n=1 ' '"n'
Remargues

a) Par la suite, on dira mesure pour mesure


positive.
d'une mesu re p te nombre (positif) p (a);p (Q)
u*",:)"u?"?.l:l?il;;;1""* peut être
c) Une probabilité est une mesure de masse
1.

Définition 2
Le triplet (o, 'i/, !r) est appelé espace mesuré (ou probabilisé si g
probabitité). est une
Une autre définition de la mesure peut
être donnée

Définition 3
soit (Q' '''/y un espace mesurabre. une
apprication lr défini e sur .4à vareurs
dans lR*, non identiqu"r"nreô"i"'à-+ *,
est une mesure si ;
1) g est addirive

V(A, B) e ,,æ, AnB :e, tt(AUB):1l(A)+s{B)


(ouvA,,...,Andeuxàdeuxdisjoints
u \Q. AJ : .! gfn,tt
t:l i_1 ,

2) V (An) suite croissante d,éléme nts de ,4,

lim i g(A^) : g (tim 1 A


n"n )

PH. TASSI - S., LEGAIT


35
I

PROBABILITE, MESURE, INTEGFATION

Montrons que les définitions 1 et 3 sont équivalentes :

a) La a-additivité entraîne I'additivité de façon triviale'

De plus, si An 1 A, alors;

A : A., + (Az-A.,) +... + (An-An-r) +'..

avec Vn, An - An-,r éléments de ,'4, deux à deux disjoints ; d'où :

s(A) : s(A.,) + : ll(An-An-,r) + l(Al)


nlru(An-An-') n'A nl,
or:
/(An-An- tl : u(An) - p(An-r) car An-r C An

et donc :

An-1 +(An-An_r) :An


d'où :

g (A) = lim Ét (Ar)


k*oo

b) Réciproque :

Soit (An) une suite d'éléments de ,'4, deux à deux disjoints'


n.- ,4 est U
B
en =
- U A,^k est
vvt v,,s croissante
suite v,
une Ju,.e v,ooq d'éléments de dont la limite
k= 1
AL'
tr
tI t
Ona:

lim 1p(Bn) : g(lim l Bn) : ll(U Ak)

c'est-à-dire' :
,irn r s r*1,, ont /(uAk)

Or / est additive donc :

nn :
1l(U Au) I_P(An)
k:1 ^ k=1
et. en passant à la limite :

: p (u Ak)
n!' '(Ar.)
PH. TASSI - S. LEGAIT
36
PFUUAUTLl' L \ltSuRL TNTFGFAIIO\

Définition 4

Une mesure g sur (o. 4 sera dite a-finie si Q est réunion


dénombrabre
d'événements(An), n € tN. tetsquepÀJ <** v n. ïi ulôr (+oo. ta mesure
1r est dite finie, eIt P: 1

g(cD Pestuneprobabilité.
Exemple

Soit a.r € e. On définit l,application 6.upar:

ô,,(A)=1siar€A
V A€.4,
ô, (A)-f si u É A
ô, est une mesure (c'est même une probabilité).
dite mesure de Dhac au point ar.

Définition S

o on appete mesure discrète s,ur (1: ,*/7


_ti : ô-et/ tete
to_ute mesure qu,ir existe
dénombrabte appartenant à _dvéiitiant p r

@ V A e,,4,
s(A) :Ér(AOl) = : p({ull
al€Aôl
o on dit que 1, est concentrée sur r.

Exempte.'l : { 1,2, ..., n}


V1 <i(n pUit) =].
tt(l):1
g est appelée probabilité uniforme sur { 1, 2, ..., n}.

2.2 Propriétés
Propriété 1

s'il existe au moins un événement A ter que <


Tl est non dégénérée), p / (e) =
(A) + oc, (c'est-à-dire si
O.
En effet :s (A U e) : p (A) + p @1.

Propriété 2

V(A,B) e &,p(AUB) :p(Al+u a) _s(AnB)


PH. TASSI. S. LEGAIT
37
PROBABILITE, MESURE, INTFGFATION

Propriété 3
ACB + ll(A)( s (B).

Propriété 4
s(UAn) (Ig(An).
nn
Propriété 5
soit (An) suite décroissante d'éléments de ,4 de limite A ; on suppose qu',il
existek'telque p(An) . + -.Alors lim\g(An) : l(A)'
En effet, Vn ) 1, (Ar - An)/ (Ak - A).

ll s'ensuit :
rr (Ak - An) / p (An - Al
+ s(A*) - p(An) / 1t(Anl - lt(A)

La condit'ion g (Ak) < +


oo fait que l'on peut simplifier. Remarquons que
pour une probabilité. la ôondition 3 k : g (An) est f inie, est toujours vérifiée.

Propriété 6 : Composition de mesures


Soit (gn), n e lN, une suite de mesures sur (O, '*/7 et (in), n C lN' une suite
de réeià positifs; alors P : > ,1n /n est une mesure sur 1A' '41' ,
n
Démonstration ' ,

soit à établir la o-additivité de g :

æ
: Am'
'u('n.'':1 ):I Ànqn (IAr)
n " " m
nm
- t : Ànln (An.')
mn
: I p (A.).
m

En particulier, si (Pn) est une suite de probabilités sur (o,,-41 et si2 n:,1,,
^n^ :.'
alors p: LÀ^ P^ est une probabilité sur @, ,,4\ Cette propriété permettra la
Iàî.tir"ti* o"''tnisuiàs ou oË pronabilités.
PF], .IASSI , S. LEIGAIT
PROBABITITE, MESURE, INTEGRATION

Théorème 1 ; Egalité de deux mesures

. };t: A,,47 un espace mesurabre ter que -4. estengendrée par une famiile
17 de parries .ç( - mesurabtes de e,
stàote pur. intàrrËiion tini".
o si g et v sont deux mesures a-finies sur (e. ,,4) co:incidant sur G, arors
elles coincident su( ,,4.

En particulier, si deux mesures finies sur (lR, &) co'incident sur les intervalles,
alors elles sont égales.

2.3 Mesures sur (lR, gî/l


Définition 6

on appelle mesure continue sur (rR. fr') toute mesure p vérifiant :

Vx€ lR. p({x}) : O

a) Mesure de Lebesgue
On appelle mesure de Lebesgue sur (lR, fr.y la mesure i définie par :

i(la,bl) - b-a, Va,b.a < b


on admettra I'existence et l'unicité- d'une telle mesure. La mesure,À prolonge
la notion de longueur, et est continué. -

Propriétés

1) .à est a-finie :

tR: 9_ln,n+11et,tr'n,n+tl) : i
n€Z
2) Y aC lR,,À ({aJ) : O donc,À est une mesurecontinue.
3) Va, b, .à (la, bl) : ,a (ta, bl) = ,i fla, b[) : i (ta, b]y.
Remarque

De la même façon, on définit Àu. mesure de Lebesguq sur (lïk, frly:

in(,!.!kpla,,b,J) :.t-t. À JaLb,l)


r r
: n (b,-ai)
'l
t=l i:l i:l

PH. TASSI - S. LEGAIT


39
PROBABILITE, MFSUBE, lNTEGRATION

b) Mesure de comptag"
* *
On définit sur (lN, g lNll l'ètre p" : : . 6x masse de Dirac en x,
ôx'
x:o
xC lN . gc est une mesure d'après la propriété 6. Si A €g
(N ), gc (A) est égal
au nombre d'éléments de A. La mesure p^ s'appelle la mèsure de comptage. C'est
une mesure discrète sur (lR, frl puisque boncentrée sur lN.

3 MESURABILITE

3.1 Application mesurable


Définition 7
Soient (O, .&l et (O', ,,4,'lrdeux espaces mesurables. Une application f :Q -
O' est dite mesurable si :

v A' e -4', f' iA'l e ,4.


ou:
r' 1.&'y c,4
Définition 8
f-1 1,4i : {f-1 (A'), A' € .4.' } est une tribu ; c'est la plus petite tribu
rendant f mesurable, dite tribu engendrée par f, notée a (f).

Propnélé 7
Soit A C O : A e ,4'e 1o est mesurable de lA, ,'&) dans (lR, g,L

Démonstration
Soit A e ,,&.Montronsque loestmesurable. SoftBe &:
oSi BcontientOetl 1;1 (B) :Qe .&
o Si B ne contient ni 1O ni l;t (B) : Q e .4
r Si B contient O er pas 1 l;t te) : A e .4
o Si B contient 1 et pas 0 1;1 {B) : A € .4
DoncVB e &,1;1 (B) e ,,4 et 1o estmesurable.Réciproquement:si loest
mesurable, alors 111 ({1}} : A e -4..

40 PH, TASSI - S. LEGAIT


PFOBABILITE, MESURE, INTFGRATION

Vocabulaire; Si A e ,,&, on dit que A esl -ol-mesurable.


Propriété 8
Soient @,,r/)et (O', .&'y Ae,2<espaces mesurables oit .d,, est engendrée par
uneclasse G'departiesde e', etf :e * A,;ators, --
o (l-' (G')l : f' (,4'l : t-, @ (G)l
Démonstration
. G' C.4+ 1-' (G'l C t' (,,&')
+ o(f-, (G,l) c o1t1 1.4,y1 : I-, (.&,)
puisque f' (,,4,1 est une tribu.
o Soit 8r: {A' C e,/f A,) € o(t-1 (çqTt
on montre facirement gue fi
rest une tribu, dite tribu induite de o 1f-1 1G,y
par f. En outre, 8, contient G, ..

VA.€ G't-, (A,) € r, (G) C o6-1 1G,y


d'où: o(G')C8,
f-'(o( G'D C tn ( g) C o(f-1 1G,y1 pardéfinition de fir.
Propriété 9 : Critère de mesurabilité
Soitf : (O,.4) -.@',^.4'l où.4, : o(6,1, G, C A,.
f mesurable <+ f-' ( G,y C ,,4
Démonstration
o Si f esr mesurable,. f-1_-1 ,,4,) C -4 et o (t-1 ( G)l C ,d. @,après la
propriété B)d'où t1 1G;1 C .4.

o Réciproquemenr : si f-' ( G,) C,4, o g-i ( ç6,)l C,-4, donc f1 1,,4,y c,4
(propriéré 8). f est mesurable.

Exemple
aoolication f : (o, .r/7
!1e(J *, - 1n, â) est mesurable si et seutement si v a € tR,
1 - all est ./-mesurabre. En effet ,4 est engendrée par ra crasse des
intervalles l--,a1.
Théorème 2
Soit Q et Q' deux es^paces topologiques, ,-4 et ,,&, leurs tribus boréliennes.
Touteapplicationf :O - O'contiÀue est mesurable.

PH. TASSI - S. LEGAIT


PROBABILITE, ]VESURE, INTEGRAT1ON

Démonstration
On note / l'ensemble des ouverts de O et O' l'ensemble des ouverts de O' :

: o(O) et "4' : o(O'l


.04
f est continue de Q dans O' <+ f-l @'l C O
=+ f-' @') c o @l : -4.
=à f mesurable (d'après la propriété 9).
Théorème 3
Soient trois espaces mesurables (O, .rl), (A', .r4, P", .4:'l et deux applications
f :O-Q'et g:Q'-O":
t-' (a (g)) : a (gof)
et si f et g sont mesurables alors gof est mesurable.

Démonstration
a(gof) - (gof)-' G&"1 : f-l [g-t (4"11: f-l (e,(S))
Si f et g sont mesurables s" k&"1 C .&' et ï1 G4'l C .4, donc (sofl-1 G.4"1
c f1 G'{') C .4' et gof est mesurable.
Propriété 1O : Critère de mesurabilité
Soit (Ei, ,/),1, i € l, une famille d'espaces mesurables et (f i)i€, des fonctions
de Q'dans E. On munit Q'de la tribu engendrée par les (fi). i € l, c'est-à-dire
de a p us o"n"I?":ïH,lËï.:":,il;:l:l.ul,
I I
i€l
f : (A, .47 - @', "4'l est mesurable <+ Vi€ l, f of est mesurable.

Démonstration
Vi e l, f of est mesurabte <+ Vi € I (f of)-x (fi il C .&
o .9. (f , of)-1 ç4 il C .d
tel
<+ f-' [ !,
[' ç4 ill c -4
i€t
e ol'f-'',!, [' Ftgil]l c '4
<+f-' [a( !. q' çni)l] c,t{
iel l

o 11 ç&'7 c '4'
<+ f est mesurable.

42 PH, TASSI - S. LFGA]T


PROBABII ITE, MESURE, iNTEGRATION

Théorème 4

a) si f et g sont deux apprications me_surabres de (e,


"- \--' v?
.d,rt - (rR, fr,r arors f + g,
fg sont mesurabtes de e,
4 _ (tR, fr)
O) Si (fn)ne est une suite d,applications mesurables de (O, ,4) *
rN lR, g.)
alors supf inf fn. rim sup f rim inf fn sont mesurabres
n, n, à condition qu,eiles
ne prennent pas des valeurs infinies. En particulier,
si lim fn : f existe,
alors f est mesurable.

Définition 9 : Variable aléatoire

soit (o, .&, p) un espace probabirisé, er (a',


-{') un espace probabirisabre. on
appelle variable aléatoire une application mesurabte
valeurs sur (e' , _{,) ,.
i oetinie s", ta, kl'i
v A' e ,4' x-1 A') Ç -4

Notations
o si (o" ,r/r : (rR, &7,X est une variabre aréatoire réeile,
ou unidimensionneile,
ou univariée (v.a.r.)
o Si (O', ."1'l : (R", 9."1, X est une variable aléatoire
n_dimensionnelle, ou
n-variée, ou un vecteur aléatoire de dimension n
o si(Q', ,rl') esttout ou partie de (2, g1zy,X est une v.a.r.
discrète.

3.2 Mesure-image
soient @, f une apprication mesurabre
dans ') un espace mesuré,
(o" ,/'t. oo'4'oerinit J l'", k; i"{,"--''-" " 'vi
de (o, .4r
""àï""ii""
V A' € .&', pf (A') : p{f-, (A,)}
gf est une mesure sur .4;,dite mesure-image depparf. En effet:
c pl a un sens puisque t-1 (A,,) e .4
. pf est à valeurs dans IR* par construction
o Soit (A'n) une suite disjointe d,événem ents de .d,
sr (:A'J : p{f-1 (:A.n)}
: tt{> f-1 (A,n)}
:zp{f_1 (A.n)}

PH TASST - S LFGA|T
43
PROBABILITE, MESURE, INTEGRATION

Application : Loi d'une variable aléatoire

Définition 1O
,,4' ) un espace probabilisable,
o Soient @, ,,4, P) un espace probabilisé , @', (O',
X une v.a. définie sur (Q' .4'1à valeurs dans ''4'l
par X
o on appelle loi de probabilité de la v.a. X la probabilité image de P
notée Px.
V A, e .4;, px (A') : p (X-1 (A'))

Notations
X-t (R') : {u € A / x(ar) € A'} : {X € A'}

o On écrira souvent :

px (A,) : p(X € A')

o On donnera fréquemment à une variable aléatoire le nom de sa loi de


probabilité, Par abus de langage.

3.3 Tribu-Produit

Définition 11

o Soient (O, .&i), i € l, (l quelconque inclus dans lN), des espaces mesurables.

o On note n: n,"t Pn,l" projection de O sur Q,:


,!, _
(r.r;);e @i
r

o La tribu-produit des ,,4 , notée @ &, est la tribu engendrée par les (pn ),
iel. ' icl
@ il. : o ( l) ,-'
..l 1..0(,ll
i€l ' i€l

Théorème 5 : Cas d'un produit fini de tribus


o Soient LQr&rl, i:1àn, nespacesmesurablestelsque &r: o1 G,let
a € G..'
oonnote' A'AeG
.,=knE: 1,,=T=" i

PH. TASSI S. LEGAIT


PROBABILITE, MESURE, INTEGRATION

Alors :

A ,,4.=o ('l(i(n
n e,l
l(i(n '
' En particulier :

@ ,-4.: o ( n ,,4.1
1(i(n ' l(i(n t'

on dit que ra tribu-produit est engendrée par res pavés mesurabres.

Démonstration
Soit :

n
A e Gi,,I. A, : p; (Ai) . -,
,*2n ,*T*n
donc :
n
n G,C
" a ,-{.
i:1 1=<i(n I

oou:
n
o( n G) C a ,,4
i:l 1(i(n I

Réciproquement, montrons que Vi : 1àn

n
p-; G{t) C o ( n 61
"i ' t'
i:1

Vi:1àn.VA.€G..oi,te1
I r :Ai X.l.O, e o( nn G,)
, )rt i:1 |

donc:
n
,.i lG,), C o (.i:n c1
o-l
1

'etn
p-; ç4à) - oâ, @(G)t - s(nrli rc1 c r t,!. c,
t- |

donc: n
8 &i: o (,8, o-l t-d,ll . " ,,!., G,l
PH. TASSI - S, LEGAIT
PROBABILITF, MESURE, INTEGRATION

corallaire
g n.
g.e g,: fr'z el A fi'ni- fi:1
1<i<d
Théorème 6 : Mesurabilité des applications à valeurs dans un espace produit

Une application f : (O,.&) * (fl Qi, .9,il),, - (fi (ar))ie r est mesurable
iet
si et seulement si V i € I f. est mesurable.
ll suff it d'appliquer la propriété 10 aux fonctions pn.

4 INTEGRATION

On se place, dans tout le paragraphe, dans un espace mesuré @, &, pl'

4.1 Intégration des fonctions mesurables étagées


positives

Définition 12
On appelle fonctiotr étagée une fonction mesurable f définie sur :(O, ,4 a
valeurs dans (lR, fr.1, ne prenant qu'un nombre fini de valeurs x,, i 1 à n.

Notations
Soit : n
Ai : f-l ({x,})' A' e -4 ' f : ,-r. 1o,
I- ^' |

6* est I'ensemble des fonctions étagées positives'

Théorème 7 (sans démonstration)


Toute fonction numérique positive est mesurable si et seulement si elle est
limite croissante d'une suite de fonctions étagées positives'

Définition 13
Soit :

r e é*, f :,_t, *, to, (x, ) o)


l: I

PH. TASSI - S. LEGAIT


46
PROBABILITE, MESURE, INTEGRATION

On définit :

I ldp : I x,| ll(A,)


i:1 r.

La quantité J f Op est appelée intégrale de


f par rapport à p.

Remargues
1)Si A €,,4, p(A) : ! 1a dp
2) On fait la convention 0 X (+
-) - O

fl ryl
3) si f =,1', "' to' :,1., uj lri
:
x, l(A,) - :yj l(B,). cequi donne un sens à ta notation
1t-1rs
définition est intrinsèque au s'ens où elle ne dépend pas
I I a a,dont ta
pour f. de la spécification choisie

n
4) Onnote J fdp: ! 1ofd1t:,:r,, x, l(A, O A)

Propriété 11

e 8*, ge 8*, atorsf +ge g* etJ(f +g) dp : !tap +


1) Soit f
lsdtt
Si .À€lR,ators e 8* et J(,f fldp: À jlaU
^f
2) f € 8*, ge 6*,sif (g ators
!f dp (.l"Sdp.
Démonstration

1) f :. ). *, to, n:,],, y, 1r,


t- |

On suppose, sans perte de généralité, que :

,r. A, = Q:
l:l j:1 I

On peut alors écrire que :

A, :
' i:1 J :-r I I
J-r t-t

PH. TASSI - S. LEGAIT


PROBABILITE, MESURE, INTEGRATION

d'où :
nm
f +g: (x,+Y;) oo, n t,
i:1 j:1

f (f + g)d/ Iij 4*,rt(Ai nBj)'rt+> lrtuln nB,)

t tap + "[ sdll


2l g: f +g-f s -f € 6., I gdtt : I ldtt + -i (g -fl dP

or:
"i(s-ïdtt2O
d'où
J sdtl21ldp
Exempte: On munit (lR, g'l de la mesure de Lebesgue i'
Soit n
:

t: f (ti) I rti- ril' t € lR*' t'- ',


<t
,I., 1,

alors :

J fdÀ:,I., f (ti) i(lti-r,t,l) :,j1 t(ti) (ti-ti-1)

ce qui revient à calculer une intégrale de Riemann'

4.2 lntégration des fonctions mesurables positives


On note ,tt* l'ensemble des fonctions mesurables positives'

PH. TASSI _ S. LEGAIT


4B
PROBABILITF, MESURF, INIEGRAT|ON

Définition 14
Soit f une fonction mesurable positive.

On définit t tdp : sup _f gdrr


g€8*
s<f
Théorème 8 (Beppo-Levi)

soit (fn), n € IN. une suite croissante de fonctions de teile que rim l tne ,.1(,*
"lt
alorsJlim lfndg = lim I! fnd1t.
En particulier, d'après le théorème 7, si f e
f: lim 1 fn alors :
,,/(,*, I (fn)ne
ru
e g*,croissante,

I lap : lim 1 Jfn dp

Propriétés 12
1)Vf e ,/(*, g€ "(/,., l(f+g) dp:ltdp+lgfp
V.À e R. J (nll dp: À I tdp
2)îe "4L*, ge,tr,, f ( g + [ fdp( .1" sd1,r

Propriété 13

Si (fn)ne est une suite de fonctions de ,/L*


rrv

r;n:O r^
n dtt: ; lr-art
'n -r
n=O "
cette propriété est une apprication directe du théorème g de Beppo-Levi
à ra
suite de fonctions croissantes :
n
9n: : f-p
p:o
Lemme de Fatou
Si (fn)ne est une suite de fonctions mesurables positives alors
rru :

liminf fn:tim I inf f_€,.4L*


i o_æ p>n p

et:
J (tim inf fn) dp ( tim inf (,ifn ds)

PH TASSI - S LEGAIT
49
PROBABILITE, MESURF, INTEGFATION

Démonstration
Par application du théorème 8 (Beppo-Levi),

| (tim t inf f^) dl/ : lim 1 "i ( 'If fo) dl


n pln ' Pàn
"i ( ilf fo) dr ç Jfo dtt,
vp 2 n
pàn
+J(inf f^) dp( inf lr^dp
p>n ' P2n '
d'où :

J (lim inf f^) d/ ( lim 1


n'np>nPn inf I 1^ dp: lim inf J fn dg

4.3 Fonctionsintégrables
Définition 15
soit f une fonction mesurable définie sur (o. ,,41à valeurs dans B, fr.|. on
définit les fonctions :

f* = f .i{rro}
et:
f_ _ _f .l{r*o}
f* et f
- sont mesurables puisque les ensembles {f } 0} et {f < 0} sont
,/-mesurableset f : f* - f-.
f est dite intégrable (ou g-intégrable) si :

11*dg<+oôetJf-dp1+æ
onPosealors:
Itatt: îr* dp- Jr att
Définition 16
f mesurableestintégrablesi J ltl dg < + æ'
En remarquant que lfl : f* + f-, on r;1on[;" que les deux définitions sont
équivalentes.

Propriété 14

On note î (O, ,,&,g) l'ensemble des fonctions intégrables définies sur lQ, ,'41.

@,
1, ,'4,11) est un espace vectoriel sur lR et la fonction de 'C (O, "4, p) dans lR'
f* I Idp est une fonction linéaire'

PH TASSI - S. LEGAIT
PROBABITITE, MESURE, INTEGRATION

Cas des variables aléatoires réelles

Définition 17
SoitX:(A,.,4, p) - !n,8,y unev.a. p_intégrabte(i.e.
on appelle espérance de X la quantité -i lXl dp < +*) .

E(X) : -lXoP

4.4 Propriétés de l,intégrale


Propriété 15

Soient f et g deux fonctions mesurables telles quelil <


alors f est intégrable. S ; si g est intégrable,

ll suffitderemarquerquef* ( g et f- ( S donc:
et: I f* dp ( -f sd1r ( +oo
J {- dp ( "i gdrr ( +æ
Propriété 16
Sif est intégrabte,ll +apl < "i ltl ap.
En effet :

II tapl : l"f f*dp - I f-dpl < .f ftdp + ! r-dp : I ltl dp


Propriété 17 : Inégalité de Cauchy_Schwarz
Soient f, g mesurables. de carré intégrable,
alors :

("i f sds)' < (1 t" aû (1 s" ap)


ll suffit d'écrire que, pour tout réel ,À,

!(t+lg)'dtt>o
Propriété 18
Soit f une fonction mesurable intégrable ;

st{lfl )a}t< 1rildp


a

PH. TASSI - S, LEGAIT


51
PROBABII ITF, MESUBE, INTEGRATION

Démonstration
J lrl os : Jrl,lrur lfl ds + J1lrl<ar lfl ds >'l rlrl>ut lfl
dtt

d'où
dp: ap({lfl > a})
:

,l ltl os >- a l1{l,l=u}

Propriété 19 : lnégalité de Bienayrné-Tchebychev


sa première démonstration est due à Tchebychev et date de 1863.
Soit une v.a. X telle que (X - E {X))'soit intégrable'
À,r., r/v\l \.t E(X-Eg))2
P(lx-E(x)l > t) -+ E2

Démonstration
llsuffitd'utiliserlapropriétél8avecf : (X-E(X))', a: €2 et g: P'

Propriété 2O : lnégalité de Jensen


soit p : lR *
lR une fonction convexe, X une v.a.r. telle que X et
(p (x) soienl

intégrables; alors :

É {P(x))> P (E(x))

4"5 Généralisation
Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;
ll .ll désigne une norme sur lRn (toutes les normes sont, rappelons-le, équivalentes)'

o Une fonction f mesurable @, .&,l/)-* (1R", fr,n1 sera dite intégrable si :

llfll ds ( +oo
"l
\

o UnebasedelRnayantétéchoisie.onécrit f
: (f,), i: 1 à n;alors:
I f dtt: (J fidp) (i : 1 à n)
o X: (Q, .il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées (X')'
i:1 àn:
/*'\
l\
X:l
\1
\x I n,/
I

\
52
PH- TASSI S, LEGAIT
PROBABILITF, ]\IESURF, lNTEGRATION

X est intégrabte si J I X,l Oe < + oo, Bour tout l= 1 à n. Le vecteur-esBéranee est


donc :

J x., on\
('" \
E(X) :
I
I
\. ,,", I x"ae
1
4.6 Exemples
a) lntégration par rapport à une mesure discrète
Soit un espace /) ret que g est discrète, c.est_à_dire
T":yr.é LO, {
brable, élément de ay', VAe -d,
, f I dénom_

s(A) : : p({a})
ar€Atll
Alors :

vf e "u,* lfap: : f(u)p({wll


ar€l
et toute fonction f mesurabre est intégrabre si ra série r r (4 p (uil est
absolument convergente u€l
Application à la mesure de comptage sur ( IR, gt1
:

F": : ô-n
n:O
Une fonction mesurable réelle f est /c_intégrable si :

J lrl cs.- : i^ tr(n)l < +- \


n:0
c'est-à-dire si la série de terme générar f (n) est absorument
convergente.
On a alors :

I rdp": i- ,,n,
- n:o
b) lntégration pat rapport à ta mesure de Lebesgue sur (lR, fr)
on peut montrer que si une fonction f est intégrabre au sens de Riemann
un intervalle sur
b],
Ia, arors f est intégrabre par rapport à ra ,.nesure de Lebesgue
et :

PH TASSI - S. LEGAIT
53
PROBABILITF. MESUFE, lNTEGRATION

J1a, bl f d : -i3 tl*t o"


De même sur la, b[ {- oo
absolument convergente , on montre que f est intégrable par rapport à la mesure
de Lebesgue et :

.. IdÀ:
J,lir,'l- J!t1^1 or: lim ,i3tl^t o*

:r|,

5 NEGLIGEABILITE

C'est une notion cousine de "l'égalité en généralo citée au paragraphe 1 ; en


1882, Harnack définit l'égalité en général de deux fonctions f et g si, pour tout € > O,
{x/lf (x)- S (x)l > e} esl un ensemble discret. L'apparition quelques années après
de la mesure conduit assez naturellement à la négligeabilité.

5.1 Définitions
Soit (Q, .&, pl un espace mesuré.

Définition 18
Un ensembleAest ditg-négligeablesi f Be ,t4, AC B et,t,r(B) : 0.

Définition 19
une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p.p.) si
I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable.

Définition 2O
Une fonction mesurable réelle estp-négligeable si :

{ol Î(ul + o}
est g-négligeable, i.e.

tt{ul Î(al * 0} : 0

Remargue
Dans le cadre d'un espace probabilisé P,,,4, P), on emploie le qualificatif npres-
que sûrement" (p.s.).

54 PH' TASSI - S' LEGA1T


PROBABILITE, MESURF, }NTEGRATION

Propriété 21
soient f et g deux fonctions mesurabres. on définit la reration * par *
f: g /r-p.p. c'est une relation d'équivaience sur l,ensemble f g si
des fonctions
mesurables.

Propriété 22

ru et (gn)n€N, deux suites de fonctions réeiles mesurabres ; si


soient (fn)ne
:
fn 9n g-p.p.Vn, alors :

o Sup f n : srjp gn /-p.p.


o inf fn = inf gn g_p.p.
o lim sup fn : lim sup gn /_p.p.
o lim inf fn = lim inf gn p_p.p.
o lim gn : lim fng-p.p. (à condition queVc.r, lim fn (r.,)existe).
n

5.2 Propriétés
Propriété 23
soit f une fonction mesurabre réeile intégrabre définie sur (o, &, pr.Arors f
est finie g-p.p.

Démonstration
On suppose que f) O.

Soit:M: :1*1.
{c.rlf (ar)
Vn ) 1 ng(M) : .[n1* dp < lldp( +oo
car :

nlt ( f
d'où:
p(M) : o
Pour une fonction intégrabrequerconque, I : f*
les deux ensembles :
- f-, ir suffit de considérer
M* : trl f' (c.r): + -1
et
M- - {arl f- (ar) : + oo1

Propriélé 24
1) Sif €,/(.*, J,tdp : O e> f: O g-p.p.

PH. TASSI S. LEGAIT


55
PROBABII IIF. ML SURF, I\ ILCFATION
't

2) Si f est une fonction réelle mesurable


f :O /_p.p.<+Jlfl ds:O
3) Si f est une fonction réelle mesurable et Ae ,t4
g(A) : I + Jofds: O

4) Si f est une fonction mesurable


f : O Ë_p.p. + JfOg : I
Démonstration
1) Si hێi*: h- I x, 1^
i:1 | Ai
si h: Op-p.p.alors: n
-lno/:: i:1 x, rr(A;) :O
si| e .,U*
lfdtt :
.

sup{-fhdpr, h e 6*, O < h < f}

orsi 0 ( h ( f:
.. f : O g-p.p. + h : O /-p.p. + Jhdp : Q
d'où
Jfdg :
:

o
Réciproquement, si Jfdp: O:
Vn)1o<ttLf>tI:-f r dlt(nJfdP
n tr< rt,
n

donc: Vn ) 1 p lI )-l:
1
o

rtlt+ol: É, tn:; 1 tt >1tt


I'l
< ; tt 1, >!1
n:1 n

d'où: f :O P-P.P.

2) lmmédiatcar f : O g-p.p. <â lfl : O /-p.p.


3) Si f e "4f et 1r(A) : O alors f .ln : O ,u-p.p.:

en effet . {co/ (f . 1^l@l+O\:{coeA/I (ul+O} CA


donc: ltlu/f .1^+ 0l:0 etf .1A: O/-t-p.p.

PH TASSI S. LEGA]T
PROBABILITF, N/ESURE, INTEGRAIION

D'après 1) eela entraîne alors que :

î1.7a dÉr : O : IOtau


Pourf : fo * f-,
lotaa=Lt.d/r-âf-dp:q
4) SoirA : {f + o}, u(A) : O.
Îldp: lOtau: lUtau: JU fdg:9 (f : O surÀy

Propriétés 2S
t, f et g deux apptications mesurabtes positirres, teiles
que f : g Ér_p.p.;
:,""'rïl
Jtap: jsdp
2) Soit f intégrabre, g mesurabre. teiles gue f : g p-p.B. Arors g est intégrâbre,
etJgds jfdi. =
3) Sip est o-f inie,
f: g s_p.p. <+ VA € ,* la tdp :
f, sal
Démonstration
1) Soit A: {f + s}, p (A) : O
I tap: lotau + IUtau: lUtau:.! sdr:.f, odr + sdr : gdrt
fi J
2) llsuffitdeposer f = fn f- et g: g* _ g
- erd,appliquerl).
3) f : gp-p.p. è VA e ,t( lo.f : 1A.g
/./_p.p.
- lotau: .f, odl d'après2)
Réciproquemenr : VA
=
, lO ldp : 1O OdU.

Notons que l'on peut supp.oser f à g pour montrer


f: g p-p.p., ilsuffit d'avoir, " sans perte de généralité.
f 1{rtn} : I 1{r"n} lr-P'P'
f f tt,=nt =91{,<n} lt-P'P'
f et g jouant un rôle symétrique, on montre simplement que
;

t 't : 9l
urn, ti>nJ P-P'P'
PH TASSI S. LEGAIT
57
PROBABILITE, MESURE, INTEGRATION

onnote: F:f.l{r"n} etG:9.1{t"n}


(F>G
: : lon{r=n} sds :
I

i
ro ror Lnlr>n]
rdP
L oou
et il s'agit de montrer que F : G lJ-p.p-

Supposonsdoncque f 2 S : g étanta-finie :

f An € &,An C An*r et o : limlAn, /(An) < +-


On pose :

Bn: An n {s(n}:Bn C Bn+l,et limlBn:liml {g(n}: [g<+-]

Yu / lim 1 Bn,g(ar) : +oo : f(t^r) puisque f2 g

ll faut montrer que Vn, f I Bn : I l Bn g-p.p.

ttrn ,ilen glBn) *nlsn

où:
tt'n gÎ'n ) o

trn tou : -i(f trn - g lBn) dg * Jrn gdl

Jrn odl = Jrn ndg : ng(Bn) < + oo


On simplifie et :

-i(f len - glBn) dlt: o = 1len = 9lrn A-P'P'

d'après la proPriété 24.1).


limlf lBn = liml glrn /-P.P.

f 1,,r,rn : g 1,'r,rn l/-P'F'

d'où:
f :g p-p.p.

PH. TASSI S. LEGAIT


PROBABILITE, MESURE, INTEGRATION

Théorèrne g (dit de Lebesgue ou de la convergence


dominée ; 1gO3)
soit fn une suite de fonctions mesurabres et g une
fonction intégrabre.
onsupposequeVn,lf"l < g p_p.p.et fn p_p.p.
1Ër
Alorsfn etf sontintégrablesetJlf.
- fl du * O (n_oo;

6 MESURE DEFINIE PAR UNE DENSITE

Définition 21
soit (ô, unespace mesuré etf €
v:.r/ *"{tp
lR'par: "r(,* @,-{,É/).on définit |apprication

VA e .4, y(A) : lOtau


v est une mesure dite absorument continue
au sens fort par rapport à g, et de
densité f par rapport à p.

On note : v : f .p; v définit bien une mesure sur (e,,,41 :

' (nio An) : J l:nn tdlt


nlo
: J (lon f) drr

: ; Jl^ fdp:rv(A)n'
n:o ^n n
d'après la propriété 13.
Remarques
1) Sif : I' p-p.p., VA C ,lOfdp = lOfaU doncyestdéfinieparune
classe d'équivalence de densités, égales g_p.p.

Notation
dv
fe
dp
2l si f est intégrabre, on peut de cette façon engendrer une probabirité sur
@,.r/l en écrivant:

vA e .4 p(A) = +#
PH. TASSI - S, LEGAIT
59
PROBABILITE, MESURF, INTEGRATION

ExemPle
v:oe-exl,p-(x) .i
est une probabilité sur (lR, fr'1ae densité :

f (x) : 0e-0* 1,..(x)

Théorème 1O
Soit g une fonction mesurable;
g esiv-intégrable <+ gf est g-intégrable ; on a alors :

"f Sdv: Jgfd/


Démonstratian
cSi g:1A,Ae.4l
J 1o dv : v (A) : JO fOl : .l'1
:
af dp ! gldU

oSig € 8* g: I x 1^i Aie '&


: :
-isdv : I ^i v(A,) : I x, to, tou J> x 1o. fdg lgldlt

o Si g e"ht) g : liml gn, gn € d*

.igdv : lim 1-igndv : lim 1Jgnfdg : Jlim 1 gnfdl(Beppo-Levi)


: ! gfd!

o Sig : g* - g-

(-in. ov ( + oo {ln. fdg ( + oc

sestv-intésrable e o
irn_ o, < * _ lrn- rou < + oo

<+ gf estg-intégrable

Théorème 11
Soit v une mesure de densité f par rapport à trr'
,s(A) :0 + Y(A)
: O
D'après la proPriété 24.31:
g(A) :O-lOldg:v(A) :O
PH' TASSI - S. LEGAIT
60
PFOBABILITF, MÊSURE, INTEGRATION

Définition 22
Une mesure v quelconque sur (O, ,.r4) est dite absolument
continue au sens
faible par rapport à une mesure l.{ sur (A,,,Ol
: "i:
VA € &, p(A) O =+ v(A) : O
On notera v < p Ur domine u).

on voit donc d'après ra définition 21 et re théorème 11 que toute mesure


absolument continue au sens fort I'est au sens faible.
En pratique. il est fréquent de travailler sur (lR, g,'), (n",
fl.n1ou(N, .7(N)),
munis de lois de probabirité qui seront dominés par,i. môsurÉ.,0"
L"b""gue sur rR,
'Àn, mesure de Lebesgue sur rRn, os rtc, mesure discrète de comptage sur rN;ces
lois admettront donc des densité" p", r.àpport à À, Ànou
lt".
Les théorèmes suivants énoncent des conditions générales
densités.
d'existence de

Théorème 12 (Radon-Nikodym ; 1930)


soit g une mesure a-finie sur (e. .4'y et v une mesure sur
continue au sens faibre par rapport à g. Arors ir existe @,.q absorument
une ctasse un,qi"-G
de foncrions mesrrabres positives (rR*, fr;i,-eô'"1."
G. en outre, ces fonctions- f sonr g-p.p. iinies rr-p.p.,teiles
: @,.ta) que
v r.p v f€ si et seurement
si v est o-finie, et eiles sont intégrabres si et seurement si v
est finie.
Définition 23
v est dite étrangère à p si :

lN €.il, u(N) : O et v(N; = 6


Les mesures g et y sont donc presque partout à supports
disjoints.
Théorème 3 (Lebesgue-Nikodym ; l93O)
1

soient deux mesures g et v sur (e, -tJl, p o-Iinie. il existe


une unique crasse
de foncrions mesurabtes positives f :iO, ,_41 I g,.y, eg"r""r_p.p.,Li
une unique mesure v, étrangère à p, telles que
ffil,'
:

v:f.!+v'

7 INTEGRATION
PAR RAPPORT A UNE MESURE-IMAGE
Soit un espace mesuré @,.d, p), etlt une application mesurable
:

e,.tll - 1c:,.e)

PH TASSI - S LEGAIT
61
PROBABILITE, IVESURE, INTEGRATION

Théorème 14 (Théorème de transfert)

Soit f une application mesurable ', (O','&'l - (lR'


fr'\'f.est intégrable par
mesurable foT
rapport a t" r"suie i;";; gi si et Leulement si I'application
:

en outre
@,:.4,) - (lR, fr'1 est intégrable par rapport à lr ;
:

I tapt:3 foTdg
o'o
Démonstration
oSi f e 6* n
f:,Ir*, 1o,A,e.z/'
l:l
n
.l-OfoTOg : J : X'"'l1o. oT dg
O i:1

:; xl 1^oTdP
i:1 r-o Ai
n
: *, ln t1r-'{n;)} d/
,It
n
: ; x, Érlr-t (Ai)l
l'- = r *,i gT(A,)I : -l-
o'
fdgr
,=t

o Sif € Jf, f = limlfn où fn € é*


foT: limlfnoT
On utilise le théorème 8 de Beppo-Levi :

In tor dP : lim ln tn oT dg : lim t ln, tn dltr : Jn' togr


'
o Pour f quelconque. on pose f : f* - f-'

Application
SoitXunev.a.de(Q,.'4,Pldans(1R,8'l,etguneapplicationmesurable:
j ffn,-'&.1. Ani" goX est p-intégrable si et seulement si g est
i,^,' n)
Px-intégrable; on a alors :

E (goX) : Jç goX dP : J,^ I dPx

PH' TASSI S' LEGAIT


ôl
PROBABILITF, MESURE, INTEGRATION

En particulier :

E (X) : J,, r oex


où I est I'application identité de lR dans lR.

o si Px < À (,r mesure de Lebesgue sur rR). pX admet une densité f par
rapportàÀet:

E(x) = IttdÀ: J]: xf (x) dx


o Si Px 4 F" (tt"mesure de comptage sur (lN, g W)l
+oo
g": ô,
^lo
il existe une densité f telle que pX : f .pc; en posant p, : f (x) (*probabilité de
l'observation x"), on a :


E(X) : ltfdp":
' x:O x

Exemples
1) Une v.a.r X est dite suivre une loi de poisson si :


px- : e-.À ^x ô
x:0 x! x

ni À':À
E(X) :-itop*: xe-i
x:O x!
2) Si px : e-" l,r_ (x) .,1 :

E(X2) = |nX, Ot : Jn x" dpX - JJ x, e-, dx : l-(3; : ,

Théorème 15 (Changement de variable)


soit T un difféomorphisme (c'est-à-dire ung application inversible,
différentiable ainsi que son inverse) de * :- 9,.t, g'éorun continûment
:
?j^U T (#) un ouvert de tRn; alors;n etant'taï"rr"rL o" Lebesgue sur
ouvert de lRn
lRn:

11t.Ànlt = 1s.lL{t-rll .In

PH TASSI - S LEGAIT
63
PROBABILITE, MESURF, INTEGRATION

où J 11-1) est le jacobien-de T-1, c'est-à-dire le déterminant de la matriee des


dérivées Premières de T-'.

Rappelons que, sous les conditions usuelles de régularité' on


a :

1
J (T-') -
J {T)
Corollaire
Soit g une mesure admettant une densité I pt' U r^gPport à^1 g" n
: F 19(l ; aloré
(gl ouvert de lRn). et soir T un difféomorphirt" de fr sur ^
trrT admet une densité
par rapport à i n donnée par :

Pr : 1 s/.lJ(T-'\l foT-'' Àn

8
INTEGRATION
PAR RAPPORT A UNE MESURE.PRODUIT

8.1 Mesure-Produit
Théorème 16
l}r &i, lr,) n esPaces mesurés (i : 1 à n) tels gue li
Soient
a-finies'

On note' n
n :o,
,!,, "'
=
n
*
,9,''
ll existe une unique mesure / appelée mesure-produit sur @, ,-o\telle que :

,11nn
VA
-''i :
€,,4,,p : n lr(A,)
,' '- 'i-1 A,)
'' i:1 '

Notation
lJ: A Fi
1(i(n

Théorème 17
: 2, la mesure-produit g est définie par
Si n :

VA € &.,8 &r,! (A) :Joz tt1(Ar2l dltr(url - Jnr tt2l{rll dpr(utl

PH' TASSI - S. LEGAIT


64
PROBABILITE, À/ESURF, INTEGRATION

où:
or., : {^z € Qr/ (c't' o,rr) e A}

orr: {rt e Q,/ (t't' torl e A}


(resp. Arr) est appelée section de A en a,1 (resp. en ur) et est .& r-mesu-
.
, 1",
raDle (resp. ..{ ,, -mesurable).

Remarques

1) On vérifie aisément Ou" Aarl est ..{r_mesurable :

larr(l"or): 1 <+ (a, olrl e A <+ 1o(u'r): cl 1

t' on no," F,1 I'application de O, dans ()1 X f)2 : u2 * @,, ur), po,t est
,d. r-mesurable puisque ses 2 composantes le sont (théorème 6).

On lAot : 1A o Fr,, donc tor, uut .rlr-mesurable et par là-même o.r= &r.
"
2) SiA: At X Az A, e &r,A2e .il2
o,' : A, si a'r, € A',
f

d'où :
lO"':@si ,r/e,
s(A) : ,n, u, (A,,,) dt,, : p2 (A2l dttl p2 (A2l p1 (A1)
L.,
Exemple : Mesure de Lebesgue

Vk, k' .Àk Llk, : ik*k.

8.2 lntégration

Théorème 18 (Fubini)

Soient (Qt, .ilt,


ttr) et (Qz, &2, lt2) deuxespaces mesurés, /r, et tt2
a-finies. On note ! : F1 E /r, sur (er x er, &., 9.421. Soit X une
fonction mesurable positive ou intégrable définie sur (o.t x er, &1 a .421.

PH. TASSI -S LEGAIT 65


PROBABILITF, MESURE, INTEGRATION

Ona:
tn' : tn., ttn, * @,, url dttrl 61tt
* nr*ou
: tn, ttn1 * 1u| url dtt,tl dP2

Remargue
LorsqueX : 1o avec A e .41 Lt42
to dlt : lt (A) : Jn,, tt' (A'rl dtt'
* nr
'n.,
: tn' t\ 1a,., drzJ dP, : fo' [Jn, ln dPz] dttt

Exemple
Soit (X, Y) un couple de v.a.r. de densité f par rapport à i, : p(x' Y) : f i,
E (XY) : Jn xvoe : J J,*, xydp(x'
Y): J J,*, xv f (x, v) dx dv

: J,, [J,^ xY f (x. Y) dx] dY

66 PH. TASSI - S. LEGAIT


EXERCICES

2'l Soit
lA' e' g) un espace mesuré, f une fonction réelle définie sur O 1u-négligeable et g une
fonction réelle quelconque. Montrer que fg est g_négligeable.

lndication
{u/f (u) s(al + 0} C {u/r@l + 0}

2'2 0n appelle fonction de répartition sur lR. toute fonction de lR dans lR croissante
au sens large et
continue à gauche.

Montrer qu'il existe une biiection entre l'ensemble des mesures g finies
sur lB et l'ensemble des
fonctions de répartition définies à une c0nstante additive près.
0uelle est la fonction de répartition
conespondant à la mesure de Lebesgue,.À ?

lndication..A partir d'une mesure p on définit Fu par :

Vx ) a Fa {x) : tt (Ia, xîl


Vx ( a Fa (x) : -p ([x, a[]

0n vérifie que F. est bien une fonction de répartition et:

Vx € lR, Fb (x) : Fu (x) + constanre

D'autre part, on construit à partir d'une fonction de répartition


F la mesure définie par :

tt (la, x[l : F (x) - F (a), Vx ) a

A la mesure de Lebesgue correspond la fonction de répartition : F(x) : x (+ constante).


2'3 En se servant des résultats du 2.2, on cherchera une
condition nécessaire et suffisante pour qu,une
mesure soit continue sur lR.

lndication

Une mesure est continue si = 0 Vx e H.


g ([x]]
0r: s({x}) : p([a,x])-([a,x[): F1x*;-r1x1
donc une mesure est continue si et seulement si sa fonction de répartition
est continue.

PH. TASSI S. LEGAIT


6l
PROBABILITE, MESURE, INTEGBATION

2.4 Soit @, ,-4, glun espace mesuré, (fn)n>t une suile de fonctions réelles positives intégrables
vérifiant :

f- f p-p.p.
Ir
--->
n-co

!lndtt' lrdp
où f est positive et intégrable.

Montrerque Jlfn-fl dg * 0 quandn*oo.

lndication.'ll suffit d'écrire :

"ilf-fnl dl = -i(r-rn)* ds "f(f-fn)- dl


+
Comme :

-f (f -f.) dp: I {f.-fn)* dp - t (f -fn)- apn*a 0

par hypothèse il reste à prouver que :

.. -f(f-f-)'dg-.
r' n**
o

(f -fn)* (f, f intégrable

et:
(f -fn)* - o g-p,p.
donc :

-l(r-rJ* dp * o

d'après le théorème L

2.5 Calculer en utilisant le théorème de Lebesgue :

lim .+ æ n2 , x'
n*oôJa .'_l "-n2 dx (a>o)

lndication

oo n2 * r-n'xz ,
Jf+
a ---- dx: l*- [,e-u'
^ J na ---------- du
1+x2 uz
l+
n-

f+ æ u g-u'
- Jg " -----2 -
1-lna'+æ1. {u} du

1+ +
n

PH. TASSI - S, LEGAIT


6B
PROBABITITE, N/ËSURE, INTEGRATION

Soit :
2
u e-u
fn (u) : ltnr, * *1(r)
,z
1+ --^
nz
lorsque n * -, 1[nr, *_J (u) - 0,

donc :

fn(u)-0
0r:

lf, (u)l k ue-"


et:

Jfr- ,r-'" u, : JË-


f, u' o, :* ( +oo

donc:
rim Jf, (u) du : o
n-æ

PH. TASSI - S. LEGAIT


Chapitre 3
Les variables aléatoires

Ce chapitre est consacré à l'étude des variables aléatoires définies


espace probabilisé. Outre les principales caractéristiques sur un
des variables aléatoires
réelles (fonction de répartition, densité, moments, etc.), le
chapitre présentera res
variables multidimensionnelles et traitera des liens entie variables
: indépendance,
conditionnement, etc. lr fera référence, autant qu,ir sera possible
de le faïre, a rup_
plication statistique de la théorie des probabilités.

RAPPEL DES DEFINITIONS

Nous regroupons ici res vus dans res chapitres précédents :


isurtats
Définition 1

@,,-4., P) et étant respectivement un espace probabilisé et un


.(A',.,,&,1
espace probabilisable, on appelle variabte atéatoire tv.â.ixiout"
mesurable X: (Q, ,d1 - @,,,r/,1. "ppti""tiàn

Définition 2
on appelle loi de probabirité de la v.a. X ra probabirité image de p par X, notée
Px, définie sur (O'. &,1,
VA, € ,,4.,, px(A,) : p(X_l (A,)) : p{X€A,}

Langage et notations

Si (O', ,,&'l est (tR, g,) (resp. ( tïp, &pD, X est une v.a. réeile, notée v.a.r.
(resp. vecteur aléatoire de dimension p).

o Ayant muni (rR, &) (resp. ( rïp, g,p}), de ra mesure de Lebesgue i, (resp.
'10), une.,v.a.r. (resp. vecteur aréatoire) sera dite absorument continue si px<<,À
io) ; on dira, de façon usueile er par abus de rangage que x est
fffi"jj "

PH. TASSI - S. LEGAIT


LES VARIAB tFS ALEATOIRES

De même, si X prend ses valeurs dans tout ou partie de(2, 9(Z)l,Xest


.
une v.a. discrète et PX << gc quand @,
g (ZDest muni de la mesure de comptage
lJ c.

o Les lettres rondes désigneront I'espace des valeurs prises par la variable ;

ainsi ,% est X (O).

Exemple '' A partir de l,expérience consistant à lancer un dé parfaitement


par le dé
équilinré, on peut àétinir une v.a. discrète : la valeur du point amené
(t : ti, z, s,4, 5, 6]), ou une v.a continue : la distance entre le centre de gravité
du dé pàr rapport à unâ origine liée à un repère 'fixé (fi
: lR1)'

Remargue: Dans la pratique statistique. il est parfois difficile d'avoir des obser-
vationS d'une v.a. continue, et on Sera Souvent amené à la
odiscrétiSer' AinSi les
démographes utilisent des classes d'âge, les économistes des tranches de revenus,
etc.
un
Dans la Suite, et sauf mentioh expresse, les v.a. seront toutes définies sur
même espace Q,,4,P\.

1
CARACTERISTIOUES
DES VARIABLES ALEATOIRES REELLES
(u NIDIM ENSION N ELLES)

1 ,1 Fonction de réPartition
partant de la définition, de la fonction de répartition d'une probabilité (cha-
pitre 1) :

Définition 3
soit X une v.a. à valeurs dans tout ou partie de (lR, fr) rce qui inclut les
variables odiscrètes,).
appelle fonction de répartition (f.r.) de X la fonction de répartition de
la
on
probabilité P^
: Px (l--, x[)
:

Vx € lR, F(x)
F(x) :P{t';/X(.,l<xl\
notéefréquemment F(x) : P(X < x)'

Notation
F*'
Par la suite, lorsqu'on aura besoin d'identifier la f.r. cl'une v.a. X, on utilisera

12
PH. IASS] -S LEGAIT
LES VAR]AB LFS ALEATOI RES

Propriétés : Elles sont identiques à celles vues au chapitre 1 :

o F est continue à gauche


e F est une application croissante
e lim F(x) : 1
x*+oo
o lirrr F (x) : I
X--oo
Remarque : Si X est une v.a. continue, F est en plus eontinue à droite et dérivable.

1.2 Densité de probabilité


Définition 4
soit X une v.a. absorument continue par rapport à,1. on sait qu,ir existe
une
fonction mesurable f déf inie sur (lR, &.,1, posi,tr", teile que :

Px: f .,À
f étant la densité de probabilité de X.

Remarques
1) Par définition. une densité sera donc à valeurs sur rR+. Toute densité f,
égale à h pourx CA er nullesurÀ, A€ 4.,sera écrite :

f (x) : h (x). to(x)


Ainsi,parexemple,radensitéf (x) d'uneroi uniforme %ro,,r neserapasécrite:

f
t,^, :
1 si o ( x -< 1

{r1^1 : 6 sinon,
mais :

f (x) : tto,r1(^)
2) Soit unev.a. discrète:PX <<É/" où !": Z ô", xdécrivant l,ensemble
dénombrabl" u' ^'oo*
e g,r*11*1y : > pxu.rl ,^
xeI
Fc où yx Ç gl:,
on retrouve donc I'anarogie avec re cas continu : ici pX - 1 .
t (x) px ({*}). En calcul del probabilités,
- on n'emploie pas le terme de densité
pour f (x) mais celui de probabilité élémentaire.

PH. TASSI - S. LEGAIT


l3
LES VARIABLES ALEATOIRES

Ainsi, comme on l'a vu au chapitre 1, les cas discret et continu se traitent de


la même façon : par exemple, ointégrer, consistera, pour le premier, à sommer une
série, pour le second à calculer une intégrale de Riemann (dans les cas usuels), ou
une intégrale généralisée comme vu au chapitre 2.
Liaison entre densité et fonction de répartition

Théorème I
fr./ muni de la mesure de Lebesgue i, X une v.a. absolument conti-
soit (lR,
nue, de densité f i-presque partout continue, de f.r. F : alors F est dérivable
À-presque partout, et :

lim F(x+6; - F(x)


: d
dx-O F(x) : f (x)
dx d,
Démonstration
Sous les hypothèses du théorème. on a :

F (x): {n 1,__,
",dp*
: JR 1 x{f (t) d,À (t)
]- -,
: Jr- f (t)dt'
Remargues
1) Retrouver la densité f par dérivation de F ou F par intégration de f n'a donc
de sens que pour les v.a. continues.

2) Ona:
(t)dx: Jrn f 1

Cela correspond à la propriété P(O) : 1 : F(+oo) ; en effet :

:
{n f (^tdx: PX(IR) P(Q) : 1

Pour une v.a. discrète, de probabilité élémentaire f, on a :

Z f (x) : 1

x€9[

sf Jf t (t) dt : F (b)- F (a)

PH. TASSI S. LEGAIT


LES VARIAB LES ALEATOIRES

1 .3 Moments
, D"n: tout ce qui suit, res diverses intégrares et sommes sont écrites sous
réserve d'existence, en utirisant re symbore d;intégration
sans orstinguer v.a. dis_
crète ou continue.

Définition 5

on appelle moment non centré d'ordre k de ra v.a.r. X ra quantité


:

rr. : Jo xk op
En passant dans l'espace-image :

r* : JIR xk dpx 1x1

Si PX admet une densité f par rapport à une mesure p sur lR, on a :

rr : JtR xk i 1x; cp 1x;

Si X est absolument continue :

rr, :fI t1"; 0,,


^k
Si X est discrète ;

-n: Px (lxl)
^èuxk
Pour k : 1, .t n'est autre que l,espérance E (X).

Définition 6

On appelle moment centré d,ordre k de la v.a.r. X la quantité


;

ttr. : 1e tX - E (X)lk dp

lrr : JtR (x - m.,)k opx (x)

Pour k :2, le moment p2porte lenomdevariancedeX.notéeV(X)


:

V(X) :E(X-E(X))2

PH TASSI S LEGATT
t5
LES VARIABLES ALEATOI RES

Par simple développement, on établit le résultat suivant, conRu sous le nom


de théorème de KOENIG :
V(X) : E(X2) - E2(X) : mz- m|
La quantité a (X) : firc s'appelle écart-type de X. Elle est mesurée avec
la même unité que X.

Définition 7
Onappellemomentfactorield'ordrekdelav'a'Xlaquantité:
/[r]: Etx(x-1) '.. (X-k + 1)l

Propriété 1

Soit I I'ensemble des fonctions mesurables déf inies sur (Q, .4 ' Pl à valeurs
dans (lR, fr,1, intégrables. I est un espace vectoriel sur lR ;
pour (X' Yl € 92'
ona:
r E(X+Y) : E(X) + E(Y)
o Va € IR E(aX) : aE(X) et V(aX) : a2 v(x)'
Ces résultats découlent directement de la linéarité de l'intégrale.

Propriété 2 : Inégalité de Bienaymé-Tchebichev'

Pllx-al > si < **, v€ > o, Va € rR

Preuve
E(X- a\2: lA (X-a)2 dP
E(x- al2 : I (X-a)21t1*-al < €) dP + -l(X-a)2 ltl*-ul>eldP
En minorant la première intégrale par 0, on a :

E(x- alz 2 Î(X-a)21t1*- al> eldP > ! t' ltlx-al)e1 dP

d'où:
E(x- a\2 > e2 P{lx- al>El
corollaires.. lls varient selon le choix de a et de la v.a. considérée.
a) Pour a :0, on obtient :

P(lxl >rr .3 t'


PH TASSI , S. LEGAIT
16
LES VARIABLES ALEATOIFES

b) Pour a :
E (X), on obtient ra formure *crassique,. déjà vue au chapitre
2,
de Bienaymé-Tchebichev :

P(lx-E(x)l > 6) < v(x)


E,
cette formule donne une majoration de ra probabirité pour que X prenne
des
valeurs hors de t'inrervaile lE (X) - €, E (X) + e[. Le principe ÀCrn"
de ta démons_
tration donne une idée de la qualité de cette majoration. Par exemple.
si X suit une
loi binomiale g fiOOO,+), on montre (cf. chapirre 4) que E (X) : bOO et
2
V(X):250;pourr.: b: p(lX-bOOl > 5) << tO,cedontonsedoureapriori,
puisqu'une probabilité est à valeurs sur
[0, I ].
Supposons que X suive une loi uniforme à valeurs sur
densité f (x) : 1to, (*) ; on montre (chapitre 4) que :
[0, 1 ]. %rc, r1, d"
r1

E(x) :] : v(X)
1

"t 12
L'inégalité de Bienaymé-Tchebicheu f?urnit. pou, ;

:t,1_111
,
p(lx -11 >T) <E
alors qu'il est trivial que
:
:

P(lx-]t
2', o
"1,2

1.4 Fractiles
Définition 8
On appelle fractile d'ordre a de la loi de X {O < a < 1) le nombre réel xo tel
que :

xd : sup {x,zF" (x) < a}

PH, TASSI . S
LES VARIABLES ALEATOIRES

Dans le cas d'une v.a.r. X continue, F* est strictement croissante et continue.


et donc xo est l'unique nombre tel que :
F*(x/:a
Exemple d'une v.a. discrète
Soit X à valeurs dans (lN, 9l(lN))de loi de Poisson de paramètre 3 (cf. chapi-
tre 4) : X - > I (Sl. ta lecture de la table 4 nous f ournit les valeurs de F", et donc
son graphe: _

0,1992
0,0498
X

Ainsi pourO < x ( 1 : P(X<1) : P(X:O) =


F*(x) 0,0498. Pour
a: O,5, ontrouveXo,s: 3 ; poura: 0,1992, lefractilevautl.
Notations :
o Pour a:0,5, xa estappelémédiane;poura: O,25 (resp.0,75). xoest
le premier (resp. troisième) quartile
o Pour a : k/10 (k entier de 1 à 9), x^ est un décile
o Pour s : k/lOO (k entier de 1 à gg),"xo est un centile.

1.5 Changement de variables


Théorème 2
o Soit X une v.a.r. absolument continue, de densité f . 1 g par rapport à À,
g
étant un ouvert de lR"
o Soit g,une application g; - g (g étant un autreouvertde lR), inversi-
ble, continÛment différentiable ainsi que son inverse (9 est un
difféomorphisme).
o Y: po X est une v.a.r. absolument continue, de densité g par rapport à i :

g (y) : focp-' (y).l(e-')' 1v)1 . 1 7(y)

18 PH, TASSI S LEGA]T


LES VARIABLES ALEATOI RES

Exemples

a) X suit une loi exponentielle de densité :

f (x) : e-x 1
,*_ (x)

On considère la v.a. y : r,&, par l,application g de lRi


- lRi définie par
e fu) = r,6. tr est évident que g vérifie les hypothèses du théorème 2.

u:lRi' (ç-'|(v):2v
d'où:
g (y) = 2y e-v, l rn; (V)
b) soit X une v.a. suivant une roi uniforme sur lo, 1 de densité
[ :

f (x) = IIo,,,t(*).

soit p:x--xtdel0, tI dans ]0, 1[ uneapprication inversibre,continûment


différentiable, ainsi que son inverse
a pour densité
e-, :x * ,,,& de lO, rIoans tô, ii . y: i;'
:

g(y) : 1
1ro,r1(v)
Z6-
c) ll est parfois possibre de déterminer ra roi de y: 9 (X) par re carcur direct
de la fonction de répartit'on de y,

Soit X de loi normate N (0, 1) (cf. chapirre 4), et y = g(X) = {


2

Fy(Y) :
< Y) = O
P(Y si y ( O

Fy(y) :P(Y<y) :P(X'<ZVl si y)O


: p(-,/2y < x < \/2y) : Fx tt/Wl _ Fxî\6)
Par dérivation, on obtient la densité f, de y :

ry (y) : J' t* 6/2y y t,^. (v)


.,Æ

f.Y(y) :
,n1 :
" -IVil 6 "-Y
lR. (Y)
+ Y-1/2 e-
' 1,n; (v)

PH. TASSI . S. LEGAIT 79


LES VARIAB LES ALEAIOI RES

2 VECTEURS ALEATOIRES

: (A, .4, P) * (lïp, g.p)


Soit X ; on notera par X, ;" |ème coordonnée du
vecteurX(i : 1àp).
On munit lRo, 8,o7 de la mesure de Lebesgue iD ou éventuellement, dans le
cas discret, de la mesure de comptage-produit.

2.1 Fonction de répartition


La f.r. de X est une application de lRp dans [0, 1 ] définie par :

F (x'' ' xo)


: :';" .::_,ï'. ",
l-,; :':,, , xp (",) . "o]
P {X., < x,. ..., Xp . *o}

2.2 Densité de probabilité

Si X: (Xr, ...,X0) est un vecteur aléatoire absolument continu par rapport à

À0,il existe une fonction mesurable positive f :(lRp, n'pl'1lR*, fr'*l telle que
PX : f . Àr;f est la densité de probabilité de X.

Théorème 3 : Lien entre densité et fonction de répartition

ôP F (x'. ..., xo)


f (xr,
. ...,^o) : :----:-
P ôx, ôx, ... ôx,

Ainsi, dans le cas n : 2, la f.r. au point (xl, x2) est l'intégrale de la densité sur
le Pavé D : l- -, x, I X ]- -, xz[ soit :

F {x,, xr) : Jlo f (u. v) du dv

BO PH TASSI . S. LEGAIT
LES VARIABLES ALEATOIRES

Exemple
Soit (X, y)de densité f (x, y) : + to (x, v)
x"A
où:
A : {(x,Vl;x 2 l,y 2 O,y ( x}

On définit les domaines suivants :

B : {(x,y) ; x ( 1 ou y < O}
c: {(x,Yl; x} l,y ) x}
D: {(x,yl x21,0 < y ( 1}; E: A-D
F est définie par :

F (x' Y) : "lâ -;-


1
du dv
i r- -, xlxr - -. yl
o V(x,y) € B

F(x,y) : g

o Soit (x, y) € D

o Soit (x, y)
F(x,y)

e E
: 4 # r{ out o, :
ir-I,
F(x,y) :d'jï#our ov+{'{#dur dv

F(x,y) t- t
- I - 2x' - 2v
PH. IASSI - S. LEGAIT
B1
LES VAFIAB LES ALEATOIFES

. Soit (x, Y) € C

F(x,y) :4
'Jï#duldv.{l{#duldv
1
-1 ;
Remargues
a) Jpn f (xr, .... xo) dx, ... dxo : 1

b) si (Xr, ..., Xo) est un p-uple de variables aléatoires discrètes, sa loi est
définie par la donnée des valeur" P,., . . ,0, P,, . ;o € JO, 1
't :

P,,, ... io
: P [Xr = *t,r, *, : ^2i2, Xp : xlp]

avec :

Xr (O) : {^1. ; i. c ljl


J'i r

et: : rl "rP
i1€11 io€lo

2.3 Moments
a) Espérance
On appelle espérance de X : (Xt, ..., Xo). le vecteur

/ e rx.r\
E(x) : /'\
[ e. I

\ x'r/
où E (X,) : lO X, dP sous réserve que l'intégrale existe'

b) Covariance

Définition 9
soient X et Y deux v.a.r. ; on appelle covariance entre X et Y, notée Cov (X' Y)
la quantité :

PH. TASSI - S, LEGAIT


B2
LES VARIABLES ALEATOIRES

cov(X, y) : lo tx- E (x)lly- E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x,y)
ou
Cov(X, Y) : E {tX - E (X)1. ty- E (y)l}
Remarque.' Dans le cas discret
Cov(X,Y) : \^" yeU
!-. (^-E(X)) (v-E(y))p[N:x ; y:y]
xe#
Propriété : On montre aisément que :

o Cov (X, Y) : E (Xy) - E (X) E (y)


o V (X 1Y) : V (X)+ V (Y)+ 2 Cov (X, y)
c a et b étant des réels quelconques :

Cov (aX, bY): ab Cov (X, y)


Théorème 4 : (Cauchy-schwarz)
X et Y étant deux v.a.r. p-intégrables :

E'(xy) < E(x.).E(yr)


Démonstrafi'on : sous réserve d'existence des intégrares, pour a € rR querconque,
E(X+6Y12 2 L

E(X+6yl2 : E(X') +2aE(Xy)+a2 g1yz;


ne sera positif que si le discriminant de l'équation du second degré
en a est négatif
ou nul :

e2(xy) - E(x').E(yr) < o


Corollaire
En appliquant I'inégalité de cauchy-schwarz, non pas à X et y mais à x
et Y - E (Y), on trouve :
- E (x)

cov2 1x.y) ( v(x).v(y)


Définition 1O
on appelle coefficient de corrélation linéaire entre x et y la quantité :

Cov (X, Y)
P(x'Y) :
o(x).o(î
Du corollaire du théorème 4, on déduit :

-1<p(X,Y) (1
PH, TASSI - S. LEGAIT
B3
LES VARIAB LES ALEATOIRES

c) Matrice de variances-covariances

Définition 11
On appelle matrice de variances-covariances du vecteur X la matrice (p, p) de
terme général a,, :

o,j [(Xi- E (Xi)) . (Xj- E (Xj))]

I peut donc s'écrire :

r: E {tx- r (x)lttx- E (x)1}

Remarque
La diagonale de I est composée des variances V (X,), ..., V (Xp).

Propriétés
Soient u et v deux vecteurs quelconques de lRp, X un vecteur aléatoiie'.de
dimension p; on a :

o E(tuX) : E(tXu) : tu.E(X) : telX;.u


oV(tuX) :tuIu
o I est une matrice définie positive
o Cov (tuX, tvXl : tu I v

Démonstrations
Elles sont fort simples. Ainsi :

V ('iuX) :
'1':,; l::1,, ,,T1îriJ;":',:'lu - e ..xu)r]
Remargue
p p
V(> X,) : : v (xi) +Z I Cov (X,, X,)
i:1 i:1 ii
i+j
Corollaire
Soit T une application linéaire de lRp dans lRq, représentée par une matrice
A (q, p) ; Y : AX désigne le vecteur de dimension q transformé de X par l'application.
Alors :

E(AX) : AE(X)
V(AX) : AV(X)tA : R>tn
B4 PH, TASSI - S. LEGAIT
LFS VAFIABLES ATEATOIRES

. En particulier, puisque I est définie-positive. I-1 Jlest aussi, et on sait ou,il


existe une matrice symétrique
Ç^telle que'c2
: r-1 lc sera note'f.Èj ;;;"];;
faisant le choix A:\-t./2, V 12-ttz : lo,et le vectew y fl.e - ,"'.rlàj"irli
a toutes ses composantes non .Il
corrélées. I

2.4 Changement de variables

Théorème 5

o Soit X: (Xr, ....Xo) un vecteur aléatoire : (A,.4, p)- (tRp, ge.pldedensité


g
f .1 par rapport # étant un ouvert de lRp;
^ o,
o soit(p: g - g c Rq - g ouvertdeRq - inversibre.continûment
différentiable ainsi que son inverse. Arors : y :
aléatoire de dimension q, de densité par rapport à
eox est un vecteur
,Ào :

g (y) : tocp-. (yl lJ (p-t)l l srr (vl

où J (p-1) est le jacobien de rp-t, c'est-à-dire le déterminant de la matrice


des
dérivées premières.

Rappelons que J (rp-1) n'est autre que J-1 (rp).

Exemple

Soit (X, Y) un couple de v.a. de densité

f (x,y) : À2 e-À(x+v) l*îxFî (x,y)


ondéfinit lesv.a. u : X+y et V:X-y. oueileest ra roi de(U,v)Z
L'application ç (x, ù: (x + y, x - y) est de classe cr, ainsi que son inverse p-,:
_i u+v u_v
e'(u,vl:( z_, 2 |

1/2 1/2
J (p-') : 1

1/2 -1/2 2

et:
(p (lRi x lR|) : {(u,v)/v } - u er v( u} : D
d'où :

g(u,v): 1
e-^u io(u,v)
2 ^2
PH. TASSI - S. LEGAIT
B5
LES VABIABLES ALEATOI FFS

Remargue : Méthode de la fonction muette


Soit X un vecteur aléatoire à valeurs dans (lïp, g.pl et p une application de
lRp dans lRq. On pose Y : g (X). S'ii existe une application f de Rq dans lR telle
que pour toute fonction muette mesurable positive h (sous réserve d'existence des
intégrales) :

Eth(p(X))l : J_^ h(p(x)) dPx(x) :.1_^ h(y) f (y) diq (y)


tRp lRq

alors f est la densité de Y par rapport à io.

2.5 Lois n'larginales

Soit X de dimension p. On appelle loi marginaie la loi de tout sous-vecteur


(Xr, ..., Xq) (q < p) extrait de X. ll existe donc C1 : o lois marginales d'ordre 1
(correspoîoant à q : il.C: hcis marginates d'orcife z, àrc.; au total, un vecteur de
dimension p permet d'eng'endrer 2p - 2lois marginales. Les plus utilisées sont les
lois marginales d'ordre 1.

Le calcul de la densité marginale de (X.,. ...,Xr) n'est qu'un cas particulier du


2.4, où g est une application de lRp dans Rq définie par :

ç (Xt, ..., XJ : (X1, ..., Xq)

Théorème 6
Si f est la densité par rappoft à Ào d'un vecteur X:
(Xr, ....Xo), alors (X.,. ..., Xo)
(q < p) est un vecteur aléatoire admettant par rapport à io la densité :

g (x1,...,r0) : J,*o_o f (*.,,..., xo) dxoo, ... dxo


Démonstration
Soit h une fonction muette :

J h (ç(xt,..., xo)) f (xr....,x0) dx,, ...d"0 : J,*oh (*,,,....n0)


lRp
tJ,*o-o f (xr' "" tof d*o*, "' dxoJ dx,, " dxo

d'où le résultat.

Application : loi d'une somme de v.a"


p
Soit à déterminer la loi de la v.a. Y: X,, où (X,,, ...,X0) sont p v.a.r.
,1,
PH TASSI - S, LEGA1T
LFS VARIAB LES ALEATOIRES

Une méthode usuelle eonsiste à définir l,application p : Rn * fin

/*'\
l\/\ l*, \
lJ'-{l
\ l- \',-'/
\*o/ \v I
Ayant calculé la loi de p (Xt,....X^),il suffit alors d,intégrer sur - 1 pour
obtenir la loi marginale de y. t t)' lRp

2.6 lndépendance

Définition 12
(),1
..., Xn) n vecteurs aléatoires où X est défini sur un espace probabilisé
lj't
@,.4, P)et à vateurs dans (lRPi, fipi).
(X'),
<,<n est une famiile de vecteurs aréatoires indépendants si :

1Y,t {&p\1.,<i<n est une famille de tribus indépendantes.

D'après la définition 13 du chapitre r, res (X,)sont indépendants si :

vAe &p,,p(xr€A1,...,Xn€A") : rl p(x, €Ai).


" i=1 |

Remargue

supposons que les v.a. X1, ..., Xn soient toutes des variabres
en prenant A,: {x,}, on obtient sous i,hypothèse d'indépenejance réeiles discrètes;
:

n
P(Xt:"t,...,Xn:xn) :.fl p(Xi :xi)
t-l
.
Théorème 7'

X1, ..., Xn sont n vecteurs aléatoires indépendants o p(Xt,...,Xn) _ ô pxi


i:1
PH. TASSI - S. LEGAIT
LES VARIABLES ALEATOIBES

Démonstration :
On considère la classe :

G-I,i,^'nezaef
D'après lethéorème4du chapitre 2 : A gBoi : slGl
' 1(i (n
De plus, G eststable par intersection finie. Soient X1, ..., Xn n vecteurs aléatoires
I indépendants.
" Xn) et â Pxi coÏncide nl sur G '
ll suff it de montrer que Pfit' '
i:1
n
p(xr, ',*") t fi
i-i
A,) : p(Xr € A1,..., xn€An)'
t- I i=l

: pxi 141 =Ë pxi t 11 A,)



i:f i:1 i:1
donc
- â pxi
:
..., X6) (théorème 1, chapitre 2)
,(x1,
t
Réciproquement, si , ':
...' xn)
P(xl' - Ë Pxi
i:1
ona:

: ''xn) (,i.,
vAi € glip(Xr € A1,...,xn € An) P(Xt' o,,

: â p*, r rl A,) : Pxi(A,)


i:1 i=1 'Î
i-1
n
: P(xi € Ai)

'!,
Théorème 8
X,lorsqu'elle existe; F (resp. f)
on note par F, la f.r. de X,et Ral-1, la densité de
est la f.r. (resp. densité)dè X: (X;, ... Xn) n
X,....Xn sontindépendants <+ F(xr,...,^n) :1!., F'(",)

PH, TASSI - S, LEGAIT


BB
LES VARiABLES ALEATOI RES

ll est clair que [imprication + est une conséquence


de ra
" définition en pre_
nant pour A l'intervaile ou re pavé ouvert étémentaiàJ" rnor"
l- -.^,, [x ... x] - *, *0,[
On admettra la réciproque.

Théorème 9

Si les v a. (X'), i : 1 à n, sont continues par rapport


aux mesures de Lebesgue
io,' on a :

a)f désignant la densité de X. par rapport à io

X1, ..., Xn indépendants =à f (x,, .,., xn) : ti f,(x,).


i:1 r'r'
n
b) o f (x.,, ..., : s,{^,)
"n) ,1., + X1, ..., Xn sont indépendants et
o g densité de probabilité pXi : q..,À
(i :1àn) P;

Remargues
a) Ceci n'est bien sûr réalisé que si les densités f sont
définies sur tout lRpi.
Ainsi, pour des v.a.r. X et Y, la densité f (x, y) : (x+y)
2 e-' 1,.. \^r n,est oas
séparable, c'est-à-dire ne peut être mise sous
les v.a. X et Y ne sont pas indépendantes.
ra forme d'un orotJ;'iii^I ;iri;;
b) La densité d'un n-upre (x., ..., X-) de v.a.r. indépendantes
produit des densités des v.a.r. x.' Le caÊur n'est donc que re
de ra roi oe'ta somme de v.a.r. est arors
simplifié.

Exemple
Montrons que si X et y sont deux v.a.r. indépendantes
y (p,0) eT y @, d)de densités respectives (cf. suivant res rois gamma
chapitre 4) :

(x) : _
1
p-' op 1 (x)
l-(p) e-d* x
f.,.
^ -.
,H;'''

fy(v) : e-ov yq-'dq I,n- (y)


+
alors X+ Y suit une loi y b + q, 0)

PH TASSI -S TEGAIT
LES VARIABLES ALEATOI RES

Démonstration
f Y;(x' v)
: 1
e -d(x+y) 1n-1 UO-1 ?P+q 1Ri x Ri (x, y)
11' r (p) r (q)

/x\ /tt : x \
Soit T :

(,j (u: *-r)


On en déduit la loi du couPle (U, V) :

f yy(u, v) : 1
uP-l (v - Ll;o-t eP+q 1{v)u)o}
1r,r, r (r) r (q) "-vd
d'où :

fu(v) : là t,r,v1 (u, v) du, Vv ) o

e-ve |p+q
r(p).r(q) { uo-t (v - u)a-1 6u

Posons I: u/v'.
dp+q vp+q-1
fu (v) : "-v0 Jl ,o-t (1 - tlc-r 6,
rtp).r(q)
B (p, q)
: e-vavp+q-1 dp+q
r (p) r (q)

où:
B (p, q) : 1[ tn-t (1 - t1o- t6,

: I*f#
Or:
B(p,q)
d'où :

fv (v) : 1
uP+Q-1 ap+qlR* (v)
|- ,, _ d "-dv
Théorème 1O
gl, intégrables'
Soient n v.a.r. (Xr, ..., Xn) indéPendantes, définies sur (O, '4,
Alors: n
E (Xr,...,Xn) : , {*,t
,!,,
PH. TASSI - S. LEGAIT
90
LES VARIABLES ALEATOI BFS

Démonstration (n: 2)
E(X1 X2) : JX'Xrdp
: -f-i xr x, f ,, (x,,) f, (xr) dx., dx,
: J xr f ., (x.,)dx., . I xzf
zgr) dx.-
: E(X1).E(X2)
Corollaire I
Soient X et Y deux v.a.r. indépendantes
: g;.
; alors Cov (X, y) : O (et donc
r (X, Y1

Remargue
La réciproque est fausse en général. Ainsi, soit X une v.a.. discrète
de loi :

px{-Z} : px{- 1} : px{1} : px : 1/+


{2}
Y: X2 suit la toi pY{1} : pY
{4} : 1/Z
E(X) :0 E(XY) : E(X3) : O
donc:
E(XY) - E(X) E(Y) :0
Or X et Y ne sont manifestement pas indépendantes.

Corollaire 2

. Soient n v.a.r (Xr, ...,Xn) indépendanres, définies sur (e, .4, p), intégrables;
alors:

n
V (X., + ... + Xn) : .I. V (X,)

Corollaire 3
si X : (Xr, ..., X/ est composé de p v.a.r. indépendantes, ra matrice de variances-
covariances de X est diagonale.

2.7 Lois conditionnelles


1 Présentation
Nous allons adopter une présentation simple et intuitive en reprenant la
défi-
nition d'une probabilité conditionnelle (cf. chapitre 1). Nous considérerons
succes-
sivement le cas de deux variables discrètes puis de deux variables continues. puis

PH. TASSI - S. LEGAIT


91
LES VARIABLES ALEATOIRES

nous présenterons une formalisation plus théorique d'une loi conditionnelle, qui
pourra être omise en première lecture.

soit un couple de v.a.r. (X, Y). Le principe est de connaître. la loi de Y sachant
: x'
qu'rnl-re"tisation de la v.a. i a fourni ie résuttat x, dite loi conditionnelle YIX

a) Cas de deux v.a. discrètes

onsuppose que la loi du couple (X, Y) est connue. D',après la définition du


chapitre 1. on a :
P[X:x et Y:y]
P[{Y:y}l{X:x}]: ----.-P [X: x]
La variable YIX: x est donc une v.a. discrète dont la loi est parfaitement connue'

Application aux tableaux statistiques


Soient X et Y deux variables statistiques discrètes prenant les valeurs {x.', "', xn}
pour X et {Yr. ..., Yo} pour Y. Observant sur une population Q de N individus les
valeurs prises par les deux variables, on peut constituer le tableau de contingence
suivant, qui donne la Structure de la population selon les deux critères X et Y :

vj Total
X

X. n.. n.
I U
l.

Total n.j N

On note : n,, le nombre d'individus tel que X prend la valeur x,, Y la valeur Y, :
nppn
*: n'i;ni : n'iini n'i
jIr jIt ilt
'],
PH TASS1 S, LEGA1T
LES VARIAB LFS ALFATOIRES

quantités {n., 1 ( i( n} er {n , I < j< p} consrituent tes marges du


tuOt"jult

La loi du couple (X, Y) est connue puisque lon sait carcurer res probabirités :

P{X:*i,y:yj} : pij : ,t < i < n, I ( j < p)


*
Les lois marginales de X et y sont déterminées de la façon suivante :

V1 < i( n, p(x:*i) = Fi.:,Ë. 0,, :.9. p(X:"i,y:yj)


j:l '' j:1

v1 < j( p, P(Y:yj) : pj :,!., 0,, :,!., ,(*:^i,y:yj)

p(y:y,lX:x,): P
')' X :
(Y: v.. x.)(

P (X: x,)

P (Y :yjlX: : P'i : n'j


x,)
Pi ni.

Cette expression n'a de sens que si p (X : x,) # O.

On trouverait de même :

P'j : n'j
P(X:xlY:y,) : (p,+O)
' P.j n.j l

Remargue.' Si les variables X et y sont indépendantes, alors :

P[X :x. Y:y] : P[X:x]. P[Y:y]


et;
P[Y:yl X:x]: PIY:yl
La probabilité de l'événemenr {y : y} ne dépend pas de la réalisation de
l'événement {X: x}.

PH. TASSI - S. LEGAIT 93


LES VARIABLES ALEATOI FES

Exemple numérigue (E)

I
I 2 3 4 n.
L
X

1 9 21 35 31 96

2 18 3 8 10 39

3 22 31 9 3 65

n 49 55 52 44 N :200

On a, par exemple, la loi marginale de X :

P(X:1) :0,48, P(X:21 : 0,195, P(X:3) :0,32S


La loi marginale de XIY: 1 est :

9 18 22
P(X:1lY:1) : ;;, P(X:2lY:1) : -t-_ ,, (X:3lY:1]l: 49

On remarque aussi :

P (X: 3, Y: 2l :
31 P (X: 3) . P lY :2) : 65 55
2OO+
-2OO -2OO
Les événements {Y: 2} et {X: 3} sont donc dépendants.
Réflexions sur l'indépendance

En analyse statistique. au vu d'un tableau répartissant une population Q de


taille N selon les variables X et Y, on se pose souvent la question de savoir si ces
critères sont indépendants ou non.

PH TASS]-S LEGAT
LES VARIABLES ALEATOI RES

A côté du tableau. observé, o, à n rignes et p coronnes, que [on peut


assimirer
à une matrice (n. p) d'élément courant-n 1o, p,, : n,,./N si
on travaille en fré_
quence), on constitue le tableau théoriquàl T qu"''l,on
onli"noruit sous lhypothèse
d'indépendance, d'élément courant :

n. n.
nll : Pi. F.j : -fi
ou:
pij : pi pj
Si X et Y sont indépendantes, res tabreaux T et o seront identiques. En prati-
que, les deux tableaux ne seront jamais égaux, et
on utilisera un critère d,écart
ô (T, o) entre le tableau théorique ét le tableau observé.
on peut penser. par exem_
ple, à :

np
ô(T.Q) :
ou bien :
i:l j:l
np
ô(T,Q; : :
i :1 j:1 n1.
U

ce dernier indicateur a en prus ra propriété d'avoir une roi rimite connue


fixe lorsque [\ * oo, la loi du khi-deux (cf. chapitre 4). et

b) Cas de deux variables continues

Soit (X, Y) un couple de v.a. continues, de densité f (x, y) par rapport


mesure de Lebesgue ÀreT soir f, ra densité (marginare) oe à la
x.'Là roi J"ïix:
admet pour densité : ^
f (x'
f (ylx) : Y)

f* (x)
lntuitivement, on écrit :

f (ylx) : |;n'r f (ylx ( X < x+dx)


dx*0
Or:
F(yl x(X<x+dx) : P{Y<y, x<X<x+d1}
P{x(X<x+dx}
Ft*,
1(^
+ dx, y) - F1x, y1(r. v)
F" (x + dx) - F" (x)

PH TASSI . S. LFGAIT
LES VABIAB LES ALEATOI RE S

a
Fr*,y(* + dx, y)- # F(x.ï (x, y)
f (ylx) : lim
ôv
dx*O F* (x + dx) - F* (x)

àâ
: lim
u, l^ F(x'Y) dxl fx,l (", y)

dx-O F" (x + dx) - F" (x) f* (x)

Remarque

Si on note 7/l'ensemble des valeurs possibles pour le couple lX,Yl, '//xla section
de T par x, valeur fixée de X :

f (x, v)
f" (x) : lr^1 (x, v\ dy et f (ylx) :
I lr^t (x,vl av

96 PH TASSI - S. LEGAIT

L-
LES VAFIABTES ALEATOIRES

Formule de Bayes: en écrivantf (x, y):f (ylx). f"(x) : f (xly).f"(y), on a:


f (x I fu(v)
y) f (x y) fu (v)
f(ylx) :--
I
--l--:
f* (x) îy f (xly') f, (v)dv

Remargue
ll est clair que les résultats énoncés pour des v.a.r. (pour faciliter l'écriture)
sont généralisables à un vecteur (X, y) de lRpx lRq:dans ie cas continu, on aura
par exemple :

2 Définition générale d'une loi conditionnelle

Définition 13
On considère un c_ouple de v.a.r. (X, y) : @,,rd,p)
- (lRr, fr.21. Onnels p(x,y)
la loi de (X, Y) et px la loi de X; supposons qu,il existe une application :

P];Ox,t(-tO,il
telle que :

o Vr^r € O, Pt (ar, .)est une probabitiré sur (O,,dl


. VA € .4,rL (.. A)est une appticarion mesurable définie sur (e,.dy
o p(X€A1' y€A2) : p(x,v) 1A1 xA2) : _r^ pLg,A2l dpx(x).
Ators on note pl (x, Ar) : pY/x: * tnr) Lt pytv -x esr appetée loi
conditionnelle de y sachant X: x.

Application
I Lorsque X et Y sont discrètes, en considérant les événements A,, : {x} et
Ar: {v}, on retrouve ;

P{X:x; t: yJ : 7Y/x:x{Y:y}. P{X:x}


: P(Y:yl X:x) P(X:x)
o Lorsque X et Y sont continues, on peut écrire :

P[x € A,;Y€A2]: Jo., (x.y)dxou:JAr ,tort(x,y)dyl dx


"o,f
PH TASS] S. LEGAIT 91
LES VARIAB L tS ALEATOIRTS

Or:
Ptx €A1 ;Y
=or, to1 t"'x-* (Az) oPx(x)

I Jo, ,",x = * (Az) f" (x) dx

d'où :

dx:,1^ pYlx:* (Ar)f*(x)dx


A1t"i^
"|". f(x,y)dyl
A2 At

et ce quel que soit A1q- ,tq on en déduit (cf. propriéIé 25.3, chapitre 2) :

y) dy - x: : if {xtYl
A,
""1"^
f (x, PYI " (Az)2' f*^'(x)," À presque partout donc
f*(x)
esr ta densité
par'rapport à .À de la loi de YIX: x.

3 Espérance conditionnelle
Soit le couple de v.a.r. (X, Y). de loi P ; on notera Px et PY les lois marginales
de X et Y, pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.

Définition 14
Si l'express'on J,* y dPYlx existe, on l'appelle espérance conditionnelle de Y
sachant X: x. On la note E (YlX: x).

Exemples
a) Lorsque X et Y sont discrètes :

E(Ylx:"i) : ,, P(Y:v,lX:"J :ï u, 0,, :+ u, n,,


iË,, I ]
b) Si Yl X : x est une v.a. continue de densité f (ylx) :

E(YlX-x) : Jyf (ylx)dy


Remarque; E (YlX : x) est une fonction de x.

Théorème 11

Si g est une application de lR2 dans lR et sous réserve d'existence des inté-
grales, on a :

98 PH' TASSI S' LEGAIT


LES VARIABLES ALEAIOI RES

E : -i I I ç (x, y) opvlx = " (y)l oex 1x;


(ç (x, y))
E (p (x, Y)) : (p (x, y)l x : x) dpx (x)
"[ Ê
On note de façon mnémotechnique :

E (p (X, Y)) : Ex E (p (X, y)lX)


En particulier. E {y) : E* E(yjX), ce qui permet de
calculer E (y) en passant
par un conditionnement bien choisi, puisque
X dépend de rutirisateur.

Application au tableau statistique précédent (E) :


Le calcul direct donne :

1
E(Y) @9 + Zx 55 + 3- x 52 + 4x 44):
:rOO 4g1
à
Utilisons la formule de décomposition :

E(Y) : EX E(YIX)

E(YlX:t; :;t,t 1
x9+2 x21 +3x3s+4x31y : JP
de même, -" 96

E(ylx = 2) :#. E(ylx:3) :#


1
E(Y)= (96 E(YlX: t)+39 E(yl
IOO X:2)+6s E(ylX:3))
: -l:- (2go + gg + 1._-,
1

231 :
491
200 200
On retrouve, bien sûr, le même résultat
obtenu les moyennes partieiles ; notons cependant que nous avons
tà"-u"reurs de X, ce qui peut fournir une
information intéressante. Par exempre,
"eton si v est te
d'activité socio-professionnete, on sataiie o ïrn" nomencrature
à ié saraire ,"t;;;;r;roi"rrron, qui permer
des analyses et des comparaisons plus approfonOies.

Définition 1S
on appelre courbe de régression de la v.a.r. y
en la v.a.r. X ra courbe :

{(x, fl: Y: E (YlX: x)l


PF TASSI-S LÊcAlI
uo
L ES VARIABLFS ALEATOIFES

4 Formule de la variance
X et Y étant deux v.a.r. définies sur (Q, *41, soit à calculer V (Y) ; P désignant
la loi du couPle on a :
v (Y) = "1"(v - E (Y))2 dP (x. v)

: J,u t J,* (v - E (ï)2 dpYlx (y)l oPx 1x1

Or: y- E (Y): y- E (YlX1+ E (YlX)- E (Y)


ll s'ensuit :

I ly- E(ï)2:(y- E (YlX))2+(E(Ylx)- E (Yll2+2(v- E (YlX) (E(YlX)- E(Y))

,l-(v - E (Y))2 opYlx (y) : -i (v - E (YlX))2 oRYlx 1t1

(ï)2 lx (y)
+ -[ (E (Y I x) - E dPY

+ 2 ! (y - E (Ylx)) (E (Ylx) - E (Y)) deYlx 1u;

Comme E (YlX) est une fonction de x, cette dernière intégrale est nulle après
factorisation de E (Y I X) - E {Y) qui est indépendant de y. D'où :

.'-0
'v0 :-f cpvlx (y)l dPx (x) + .f (E
t-i (v - E (Y I x))2 (Y I X) - E (Y))2 dex 1x;

v (Y) : -t v (Ylx) dPx (x) + -[ (E (Ylx) - Ex (E (Yln))2 dPx 1x1

soit :

v (Y) : Extv (Ylx)l + vx tE (Ylx)l

Lorsque X et Y sont discrètes, on dit que I'on décompose la variance de Y


selon les strates {X: x,}. Pour chaque strate, on note :

: E(YlX: *i) :
1P n'j Y'j
Vi ' ,t.,
^ J:l
ni.
tP
o'i : V (YlX: x,) : j j:1.
i. n,, (V;1* 1)2
'' n,.

On a, de Plus :

E(Y) :V:*,r,,1np1! n'i u,, :


,:,, ,:1n'.v,
1oo PH TASSI - s LEGAIT
LES VARIABLES ALEATOIRES

La formule de la variance donne :

v(Y) : -=lnln
N i:1 I r N i:t '' "i

V (Y) : variance ointra-strates> + variance <inter-strates>


: moyenne des variances + variance des moyennes

Application au tableau statistique précédent (E)

. o1 : V(YIX: 1)

: ;:1 (1 ..^
X9+ 4x21 +9X35+ 16X31)- (:28A2 8384
Yo 96 )
9 2i2

De même :

o'r: v(ylx : ,l :#, o3: V(ylx - 3) : #


La formule de décomposition donne :

\_/lV\
1 I. 8 384 ! 2474 r 2746\r 1 rr_ 78400
-_
200 96 39 65 ' 200 ' 96

7 774 T
15129 _-
491 2

l-t ,
39 --
65 200

1 ^__. 491 " 1 44t 491 ' : ql 11g :1'18


' zoo ' 2oo -( zoo ) 4oooo

Définition 16

On appelle rapport de corrélation cje y en X la quantité :

,
'tY x
vtE(Ylx)l
\//v\
V (Y)

PH. TASSi - S. LEGAIT


LES VAÊIABLES ALFATOIFES

Remargues:
a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéaire
p (x, Y).

b) Ona:
e< nï*< 1

c) Si Y et X sont indépendants, la loi conditionnelle de YIX est identique à la


loi de Y, et E (YlX) : E (Y), et donc : vtE (YlX)l : VIE (Y)l est la variance d'une
constante; X X

4ï": o

102 PH. TASSI - S, LEGAIT


EXERCICES

3'1 Soit X une variable aléatoire réelle absolument continue de densité f et de f.r. F strictement
croissante. Ouelle est la loi de F (X) ?

lndication
P tF (x) < yl : v donc ta densité de F (X) est fr1x1 (v) : rlo, (y) (roi uniforme sur
r1 [0, r ]).

3'2 soit X une v.a.r. absolument continue de densité f* et de f.r. Fr. soit y la v.a. définie par:
Y:X si X)x 0
Y:x-UO siX(x
Donner la loi de Y. Calculer E (y).

lndication

Y: X l{*:'ro} + xo'lfr=xo1;donc Y: sup (X, xo)

0n dit que Y possède une masse de Dirac au point xo.


+oo
E(Y) : x f, (x) dx + xoP{X(xol
{(
3.3 Soient X, Y, Z trois v.a. réelles,rttrroqu, ,

o X suit une loi uniforme surl0, l[, de densité :

f (x) : lto. r1
(r)

r la loi conditionnelle de y pour : x fixé admet pour densité


X :

fvlx:, (y) : (y-x)e-(v-*) 11x,+_1 (y)


o la loi conditionnelle de Z pour (X, y) : (x, y) fixé admet pour densiré :

Fzlrx,
vt= 1r. r1 (z)
: (y - x) e- z (v -') 1,*- {z)
1) Calculer la densité du tripler lX,y,Zl.
2) calculer la densité de Z et celle de la loi conditionnelle de (X, y) sachant
Z : z.

3) Calculer :

E(VY-XlZ:zl er rlv{-xt
PH. TASSI S. TEGAIT
LE S VARIAB LES ALEATOI RES

0n donne :

1+æ
:
1

r(7) Jo tJ t e- udu : Vn

4) 0n pose u: Y - X et V: Z (Y - X). Montrer que les trois variables X, U, V sont


mutuellement indépendantes et exprimer les densités de U et de V.

lndications

1) f1y,v1{x,v):(Y-x) s-(v-x)10(x,v)

frx,v,z) ('' Y'zl: (y-x)' s-(v-x) {1+z) 1ot,r* (x'y'z)

2l frQl: ii rl-- (t,-')t g-(v-x)(t*') dt,l d'

f (z) :
i..1,^*(z)
(v-x) (1*4 1o (x'
f(x,vtlz=, (x, vI : z)t (t, - xl" e-
f, t'+ v)

3)
1- 15 ,["
''
E (/t- xlZ:zl: i I I ot/ r^ tt+ i)3 (v - *)' (y-xl {z*lldxdv' - u
--
16 Vz+1
{" t- J V7r
E1 1Æ-T1 : EztE/T-l 7ll : Ez (*
_-- ,4 \/z+ 1

144 PH TASSI S. LEGAIT


LES VARIABLES ALFATOIFES

4) Changement de variables :

A $,v,2) : (y -x, z(y-x),x):{u,v,w) J(p-t) : 1-


U

La densité de (y - X, Z (y - X), X) esr :

g(u,v,w) : u2e-'-u I 1^ (u,v,w)


U.
où: A: } 0;v } 0 et 0 <w<1}
{(u,v,w)/u
g(u,v,w) : ue ,llo,*_1 (ule-u llo,**1(v) 110,'|1wy

d'où l'indépendance de U, V et W: X et:

fu (u) : u e-'1 (u), fv (v) : ,-n t,o, * _1 (v)


,0, * _1

3'4 Soit X une v.a. réelle continue représentant la mesure d'un phénomène physique
dans une unité
donnée. 0n donne sa densité g e- À*, (x): x) 0,,À ) 0. 0r ra donnée observée est en
réalité [X], où [.] désigne la parrie enrièrc de X. ^
1) 0n pose Y : Ix]. Donner ra roi de y, son espérance et sa variance.
2) Oue dire lorsque ra donnée observée est, cette fois, r'entier re prus proche
?

lndication
1 ) Y est une v.a. discrète où :

Vne IN P{Y:n} : p{n(X(n+1}: d*1 g(r)dx:e-na11 -s-a1


n

E(Y) : i nP{Y:n}:J-
n:0 e'' - I

v (Y) : ,À
('l _ 1r
2) Pourtxl <X<[X]+0,b, onobserveZ:[X], er pourtXl+O,S<X<[X]+ t, on
observe Z: +[X] t

P(Z:0):1-e 7^
n*0, P(Z: n): P(n-0,5(X<n+ 0,b):r-rn1r7^^- u-a I

E(Z):2sh-.
À e-^
-- 2 (1 -e- ÀY

PH.IASS] S LEGAIT
LES VARIAB LES ALEATOIRES

3.5 Soient X et Y, deux v.a. indépendantes de densilés respectives f et g et de f.r. respectives F et G.

Donner les densités de U :


Sup (X, Y) et lnf (X, Y). V:
0énéralisation
Soient X,,, ...,Xn n v.a. indépendantes, de même loi, de densité:
f (x)= t,o.,, (x).

Ecrire les densités de Un: X, et U, : *,


l:ltn
'='Én
lndication

Fu(u):P(U(u): P(X(u et Y<u): F(u).G(u)

d'où :

fu(u):f (u) G (u) + F (u) g (u)

De même :

: I -P(V2ul : 1 -P(XlvetY2ul : I -(1 -F(v)) (l -G(v))


Fv(v)

d'où: fv(v): f(v)(1-G(v))+s(v) (1-F(v))


0n en déduit :

Fun(u) : Fn(u) où F (u) : u 1to,,l(u)* 1lr,*-1(u)


est la f.r. des X,. Donc :

Fun (u) : un I (u) + 1


lr, * -t
10. rJ

et:
flr (u) : n un- 1 1lo,,t (r)

De même:

Fvn (u) : (1 - (l - uln) I


to, ,1
(u) + 1,', *
-1
(u)

et:
fvn(u) : n (1 - uln-1 1,0,,, {u)

106 PH. TASSI - S. LEGAIT


Chapitre 4
Les lois de probabilité usuelles

La pratique des probabilités dans la modélisation statistique passe très sou-


vent par une parfaite connaissance des lois usuelles ; le probabiliste-statisticien
a
en effet besoin :

- d'identifier la ou les lois de probabilité des variables engendrant les don_


nées observées
* de connaître et interpréter leurs caractéristiques fondamentales
(espérance,
écart-type , médiane, etc.) en fonction des paramètres qui interviennent
dans l,ex-
pression des densités ou des fonctions de répartition
- de pouvoir approximer ces lois par des comportements asymptotiques limi-
tes apparaissant dans un certain nombre de situations.
ce chapitre répond à querques-uns de ces objectifs. La partie asymptotique
sera vue ultérieurement au chapitre 7, car elle néceisite des outits mathématiques
suppiémenta ires.

LES LOIS DISCRETES

On rappelle qu'une v.a. est dite discrète si elle prend ses valeurs sur un
ensemble fini ou dénombrable de points. par extension, la loi de probabilité
d'une
v.a. discrète sera dite également discrète.

1.1 La loi de Dirac


Définition 1

soit a e R, un point fixé. on appeile roi de Dirac au point a ra probabirité ôa


définie sur lR par :

ôu(x) : 1 SI X:A
ôu(x) :0 si x*a
La loi de Dirac est la plus simple probabilité existante, associée à un phéno-
mène déterministe X dont le résuitat de toute expérience est a. C'est, par
exemple,

PH, TASSI S. LEGAIT


141
LES LOIS DF PROBABIL]TE USUELLES

à la pétanque, la loi de probabilité de la variable X mesurant la distance entre une


bouie visée et le point d'impact de la bouie tirée, lorsque le tireur ne fait que des
<carreaux> : X suit une loi ô-.

Application
Soient n réels distincts fixés (a',. ..., an)et n réels (pr, ..., pn)tels que :

n
O<pi<1, i: 1 àn, et.t. O,: t
l:l

On sait. d'après le chapitre 2, que la combinaison linéaire :

n
o' ô',
,f ',
est une probabilité P associée à une v.a. discrète prenant ses valeurs sur {ar, '..,
an], et telle que :

P (X: a,) : p;

Si p, :
1
pour tout i. la loi de X est dite uniforme.
'n -,
Moments
E(X) : a, V(X1 :9

1.2 Lci indicatrice (ou loi de Bernoulli)


Définition 2
On appelle variable indicatrice X la variable à valeurs dans {0, 1 } telle que :

tx1t1: o

Px{o}: q(q:1-P)
(p € t0, 1l)
On note :Â 11,p) la loi de la variableX et on I'appelle loi indicatrice ou loi de
Bernoulli de paramètre p. Par extension, la loi de Bernoulli est la loi du résultat
d'une expérience ne pouvant prendre que deux résultats possibles {a, b} quantita-
tifs ou qualitatifs:une porte est ouverte ou fermée, une lumière allumée ou
éteinte, etc.

Moments
E(X):p V(X):pq

108 PH' TASSI - S. LEGA]T


L[S LOIS DE PROBABILITE USUELLES

1.3 Loi de Foisson


Définition 3
La v.a. X suit une roi de poisson de paramètre À (À i o) si o : rN er:

Vx € lN px1x1 - s-a ^x
x!
On nore :X -) .4 (^1.
comme nous re verrons dans re chapitre consacré aux processus, ra roi de
Poisson apparaît, sous certaines hypothèses, dans les phénoÀènes
de comptagà
d'événements pouvant survenir Bendant une unité de temps donnée:
nombre de
voitures passant devant un observateur, nombre d'entrées ou de sorties
d'une salle
d'attente, etc.

Moments

E(x) : i r"-^1:^ î À'.' :À î


x:0 x! x:1 "-o(x_1)! " yIO "-olr
- yi
E(X) :2
Plus généralement, carcurons re moment factorier d'ordre k :

/rr.l: E (X (X - 1) ". (X - k + 1))

: ; x(x-1)...(x-k*1)e-^ i
x:0 xl
æ :X k
ik ; e-À À ' :
oo

x:k (x-k) ! Àn - yl
U:O
/1L1 : ,1
k

D'où :

Ft2t: E(X(X-1)) : E(Xt)-E(X1:22


E(X2l :
et donc : ^2+À
v (X): 2
ll convient de remarquer que la loi de Poisson est la seule loi discrète à avoir
l'espérance égale à la variance, quelle que soit la valeur de,À. La
table 4 donne les
valeurs des probabilités d'une loi de poisson.

PH,TASS] -S LEGAIT
109
LFS LOIS DE PROBABIL]TE USUELLES

1.4 Loi binomiale


On considère n tirages équiprobables, indépendants dans une population
composée de deux types d'éléments, le premier (l) en proportion p, le second (ll) en
proportion q : 1 - p. Soit X le nombre d'éléments du premier type présents dans
l'échantillon de taille n ainsi obtenu ; X est une variable aléatoire à valeurs dans
{0, 1, ., n}. La loi de X est appelée loi binomiale de paramètres n et p, et est notée
!4 (n, pl.
Supposons qu'à l'individu no i de l'échantillon (i : 1 à n) on associe la v.a. Y'
qui prend la valeur 1 si le ième individu est du type l. et 0 sinon :
P(Y, :1) si i€(l)
P(Y, :O) si i€(ll)
Alors, il est évident que le nombre X d'individus du type (l) dans l'échantillon vérif ie :

n
X_: Yi
i:1
Comme Yi -) gJ (1, p), on peut écrire que la loi binomiale !/J (n. p) est la
somme de n lois de Bernoulli indépendantes. ll s'ensuit :

E(X) : : E(Y')' V(X) : : V(Y')


i:f i:1
soit :

E(X) :np, V(X) :np(1 -p)


Une définition explicite de la loi JJ (n,pl est la suivante:

Définition 4
Une v.a. X suit une loi binomiale de paramètres n et p si :

Px 1x1 : Cx p" (1 - p)n-x pour x e {0, 1, ..., n}'


La table 3 est consacrée aux probabilités élémentaires d'une loi binomiale.

1 .5 Loi multinomiale
ll s'agit d'une généralisation de la loi binomiale. Considérons une population
composée d'éléments de m types, chaque type j en proportion :
m
pi, 1(j(m, Pi)0, t. o,:1 l
j:1

110 PH, TASSI - S. LEGAiT


LES LOIS DE PROBABILITE USUELLES

On tire, dans cette population, de façon équiprobable


échantitton de taite n, et on définit ra varia'bre et indépendante, un
dg,ns {9, 1,...., n }, représentanr re nombre
arà"ioii"ï, tr iik-ïi,;;;;;;
J'étéments oé tvpJ i iigrr"n, dans r,échan_
tillon' on dit que re ve*eur(N,,
pr, ..., p,n, notée .t/ (n, pr. ..j, :..,^f ,.,,')suir une roi murtinom,rî,É'i"
nn.t. nrr3'"rticitemenr, on a ;
oiil;!il'Jl,
Définition 5
Le vecteur aréatoire 1= (Nt, .... N.n) suit une roi murtinomiare de paramètres
:

m
n,pr pr;pj >0, V j=1,...,r,,In pj :1
si: J-l
nl
Px(n.,....
tm, n)= oft... on'
n.!...n
tm !

ou: m m
:n,
j:1 )
j:1 t

n!
n' | ... n.!
est le nombre de (n.,. nr. ..., nr) - partages d'un ensemble de n éléments, avec:
m
îi :D
iIr
Propriété 1 : La loi marginale de N est une loi gB
h, p).
En effet, un érément tiré est soit du type (avec probabirité
i ra p,), soit non
!1 - iype j aans r,échantiron;;l; jdil;;;'i;;
pi) ; te nombre totar d'éréments du
binomiale 4 h, p;). Retrouvon. par re carcur. vvr(rsr
t - soit r,événement A. défini
paf : ""ie*rili I

R, : [(n,,, .... nj_.,,nj*.,, ..., n.,n), Di : tr: n - n,]


,ij
p (N, : n,) nfr o-."
A.
J

;r
nl
il*un
n.
jr(1 - Pi)
n
"*t
-n.J>
(n - n,)!

A; nr l...nj-r ln,*.1 !...n,,nl


nr n,,"
ill p.'
n
Pr' ...p

(1 - pj)n-nj

PH, TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

ll s'ensuit :
- nj
P {Nj: n,): cll eli 1t - pj)n

Conséquence
E(Nj) : nFj (Ni) : npi(l -pi)
lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soient
non corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,
(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'un
élément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :

(N, Nr) -> "U,


(n : pl p/

: n!
E (NjNr)
(ni- )!(nr- 1)!(n - n,- nr) 4, oi, t'' - pi- pr)n-nj-nr
(nj, nrl !

nj+nt(n
:n(n-1)pipr
d'où :

Cov (N,, N/: - n Fj p,

La loi multinomiale en statistique :

Soit Y une v.a.r. continue, I son espace de valeurs. (f (y) sa densité,


(Yr, ...,Yn) un échantillon de n observations de Y. ll est très fréquent (tranches de
i"ù"nr, ti"âncnes d'âge)de partitionner U enclasses.C,, i : 1 à K :

g - :K C..r' la classe C. déterminée par C, : [e _,,, e,[


i:1 I

r (v)

112 PH. TASSI . S. LEGAIT


LES LOIS DE PROBABILITE USUETLFS

on définit les K v.a. Ni.i: 1à K, où N, dénombre res points de (y.,, ....yn)


dans C,.

Le vecteur (Nr. .... N*) suit une loi multinomiale ) pt, ..., F*) avec
'b 1n :

o,: Jj,,_., f (v)dv

1 .6 Loi hypergéométrique

on considère un tirage équiprobable sans remise de n éléments dans une


population de taille N (n ( N) ;on s'intéresse à un type donné (l)d'éléments de la
population, que I'on supposera être en proportion p (Np est donc entier). soit X le
nombre d'éléments du type étudié, présents dans l'échantillon de taille n obtenu.
La loi de X est appelée loi hypergéométrique de paramètres N, n, p, et est notée-
Jf,(N, n, pl.

Une définition explicite de la loi J(1N, n, p)est la suivante, à partir du dénom-


brement "cas favorables./cas possibles, :

Définition 6

X suit une loi hypergéométrique de paramètres N, n et p, si :

tNP /'n-x
uNq
Px (x)
'x
-
cft
pour Max(O. n - Nq)(x( Min(n, Np), avecq : 1- F.

Moments
E (X): nP

N-n
V (X): npq
N-1
Démonstration

Soiteo, a:1 à N, la v.a. associée à tout individu a de la population telle que :

( Eo:1 si a appartient à l'échantillon


I
ro: O sinon.
t
PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES

Comme il y a Cft-11 échantillons de taille n contenant l'individu a, et Cfi


échantillons possibles de taille n :

(eo:
cil-l n
P 1)
Cfi
On peut écrire :

: Yorox-
a:1
où Yo prend la valeur 1 si a est de type (l), Y : O sinon.
N
E(X) = I YoE(eo)
a:'l
Nn
:
a:1 aN
N
puisque : Y- : Np, nombre d'individus de type (l)dans la population.
d:l

De même:
N
V(X) :
G:l aTp

EEoe,.\:P (toeO: 1) : P(€a: 1, eO: 1l

- P (€o: 1). P(c, : 1,/to: 1l

n(n-1)
N(N-1)
n(n-1) n' n(n-N)
Covrc.E-l:
N(N-1) N2
-: N'z(N-1)

V(sa) : Ele'?al_ Ez leol:+ - É


En outre nN
tq:r>. YJt: N'P': a:l " a*Ê

PH. TASSI . S. LEGAIT


LES LOIS DE PROBAEILITE USUELLES

D'où :

V(X):
n
(1 * nN ^ n{n-N}
Y'+ (Nt
N
N -)
N a:1 r'r,N - t) Pt - : Y2,
al
a:1
N N
En remarquant que : y?
a
:: Yo : Np, on obtient
q:1 a:1
:

V (X): pz*Nprffi # (l n
*)l
: lll-r*,
N-1
p,_ Ll,l-.N) p
N-l
d'où :

v(x): N-n
noo
N-1
. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hyper-
géométrique (resp. loi binomiale), oria :

V, N-n
<1 dèsque n)l
Ç: N-1
En particulier, si n -- æ, [\ -* *,,N
n V
-O; les
Ë-1;souscesconditions,
tirages avec remise et sans remise sont équivalents en terme de variances de X.

1 .7 Loi binomiale négative


on considère une popuration dont une proportion p est composée
d.éréments
d"un type I donné. on désire obtenir n érémenis du ifi";n procédant à une
suite de tirages équiprobables et indépendants. Soit ";Y la variable aléatoire dési-
gnant le nombre de tirages nécessaires pour obtenir
les n éléments voulus. La loi de
X: Y - n est apperée roi binomiare négative de paramètres n er B, g tÂ,il
De manière plus explicite, on a ; ".tÀi
Définition 7
X suit une loi binomiale négative de paramètres n et p si ;

Px(x; : CII_.
nf x- |
pn q* pourx € lN
'

PH. IASSI - S. LEGAIT


1t5
LES LOIS DE PROBABILITE USUELLES

La forme de Px (x) est obtenue en remarquant que {X : x} signifie que


x tirages ont donné un élément d'un type différent de (l), n tirages (dont le dernier)
ont dônné un élément du type l. Sous l'hypothèse d'indépendance, la probabilité
d'un tel événement est qx pn, et il faut multiplier par le nombre de tels échantillons
de taile n+x soit C[l_,1 .

Remargue
L'analogie avec le schéma binomial est intéressante. Dans celui-ci, le nombre
de tirages esi tlxé, et c'est le nombre d'individus de type I qui est aléatoire. Dans la
loi binàmiale négative. ou, plus exactement pour la loi de Y, c'est le nombre d'élé-
ments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire.
De telles approches sont parfois utilisées en statistique, notamment en théorie des
sondages [6], en biométrie. épidémiologie et essais thérapeutiques.

Moments
: n oq
- : n-;
E(X)
pp- V(X)
Cas particuliers : dans le cas n: 1, la loi de la variable Y désignant le nombre
de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte le
nom dà loi de Pascal, ou loi géométrique de paramètre p. Sa définition explicite
estPY(y):pqY-1 poury e N - {0}
Ses moments sont :

E(Yl : 17, V (Yl : q/p2

2 LES LOIS CONTINUES CLASSIOUES

2.1 Loi uniforme

Définition I
X suit une loi uniforme sur le segment Ia, b]. a
( b, si sa densité est donnée
par :

f (x) :.- 1
1t., (*)
b-a ul

x-a €
On note * -, *r",u1i la f.r. est F (x) b-a
pour x [a. b].

116 PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILIIE USUELLES

Remargue

x-4,
En faisant lechangementdevariables x* on est ramené à une loi
b-a
uniforme sur le segment [0, 1 ], de densité g (x): l,o, ,,, (x).

Graphes

Moments

.%rc,tj, E(x) : +t v(x) :+


.%r^,ntt E(X)=
+,V(x) : \{
Rappelons (cf. chapitre 3, exercice 3.,l)que l'image par sa propre f.r. de toute
v.a.r. continue X est une v.a.r. de loi Ql.ro,
r1. cette
propriété est très utile pour
simuler - ou engendrer - des échantillons extraits de la loi de X (cf. 4.4).

2.2 Loi gamma

Définition 9
X suit une loi gamma de paramèrres p et 0, p) O, e> O. notée y (p, d), si sa
densité est :

f (x) :
j= xp-i 1n + (x)
"-,,
PH, TASSI - S. LEGAIT
LES LOIS DE PROBABILITF USUELLES

ou:

r(p) :.f +co


e-x xp-1 dx
0

Remargues

a) Si le paramètre d'échelledest égalà'1, on écriray (p, 1)ou f (p);si 0+1,


la v.a. Y : dX suit r (p). La densité d'une loi r (p)est :

f (x) : 1
e-^ 1,r*
=i-
r (p) "n-1 1x)

b) Si p:1, la loi gamma Y .1, d) porte le nom de loi exponentielle de


paramètre 0; saI.r. est F (x) - 1- "-0x.
Forme de la densité de y (p)

o<p<1

1<p<2

Propriétés de I- (p)

l-(p) : (p-1) I-(p-1), Vp ) 0 (parintégrationparparties)

l-(p) : (p* 1) !, Vp € lN - {0}


T (1/21 : G
Do
l-(p+1) -(-l't/2rP (1 +- 1

)(P-.+-)
e tzp

PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELTES

Moments
SiX suir une loi y (p, 0), on a:
l- (p +
E (X') : r")

o'f (pl
On en déduit :

E (Xl : p/0 V (Xl: p/Ê


Démonstration
+cÔ 0P - .** 0p u r+p-l
E (Xr) = J" ;;l -
e- ëx xr+p-l dx
^ v^: -[ 1 e- u (71 1

0 r(p) o r(p) 0
du

E(Xr) : 1 1
r(n+r1
ot ffi
Dans le cas de la loi exponentielle, on a :

: 1 :l
0Ëet vrXl
E(X)
Le paramètre d est donc interprétabre comme |inverse
de ra vareur moyenne de X
ou l'inverse de son écart-type. ceci donne naissance à une forme
différente de ta cjensité, parfois utirisée, où d esr o,r""tÀ*"nii,e1per"n""régèrement
type :
ou r,écart_

I (x,0) : u-.rt ,,0"


I (*)

ou plus généralement :

I (x, 0, pl : J= -t
t (p) e-x/s 0-p xp I R;_ (x)
'"'

2.3 Loi de Weibuil


Cette loi est due au mathématicien suédois W. Weibull
t211.

Définition 1O
X suit une loi de weibuil de paramètresûet 0, a) o, e>0, si sa densité
donnée par : est

f (x) : a0 xa-1 e-o^o 1,*. (x)

PH. TASSi - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

Fonction de réPartition

. Fr(x) = 1-e-o^o
La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En
effet, si a: 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit
p (X ) x) : e-d*. Pour décrire des phénomènes dont l'ordreplus de grandeur
d'apparition d'événements extrêmes du type {X ) x} est beaucoup faible que
e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.

Remargue
La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi
exponentielle par le changement de variable '1
**1 /a.

Moments
rt1 +1)
r 1x1 :----- o -
/a
Q1

2^1
+-) +-)
a.a-
l-(1 l-'(1
v(x) =
62/a

Démonstration
+oo +oo
E (X) : J' x a0 xa-1 e-e ^a dx = .f e-d ** dx en intégrant par parties'
oo
E(X) :J ^t- e-'^1 (;)
.r.L-"o
du
1 1 1 1 - 1

Oaqaf/aqag1/ad
+æ -- +oo
E (X2y : l' *" a0xa-1 e-d"od* : 2 t x e-d*' dx
oo
: 2 rt?l- 1 ,1',*Zl
a
o g2/ag2/a d

d'où
+-l2^1- r' 1t +-)
:

t-(1
: aa
V(X)
02/a

PH, TASSI . S, LEGAIT


LES LOIS DE PROBABILITE USUELLES

2.4 Loi bêta


Soient X et Y deux variables aléatoires indépendantes suivant respectivement
f (p)et f (q). p ) 0, q ) 0. Nous allons chercher ta loi de ta variabte Z:X/y.
La loi du couple (X. Y) a pour densité :

f,r,", (',y) : ;;+ e*(x+v) xp-1 yq-1 1,^.


r (p) r (q) IR; x il,+
".(x,y)
Considérons la transformation g : lR* x lR+ * lR+ x .lR;- definie-paï :

/x\ s lu:X \
\rl-\r:*,r)
Le jacobien J (S-t)de la transformation g-t est u/22 ; d'où la densité du couple
(U, Z), d'après le théorème 5 du chapitre 3 :

frr,r1(u, z) : --j- e-u 1r * |t up-l (l lo-t -y-


r(p) r(q) z z'

f (p) f (q) zq+l

Pour obtenir la loi de Z, il suffit d'intégrer par rapport à u :

ce qui conduit à :

On pose :

rlP) ' r (q)


B (p, q) - r(p+q)
d'où :

L' ':
f-121
B (P, q) (1 + 210*e rR* ' '

PH TASSI - S. LEGAIT
LFS LOIS DE PROBABILITE USUELLES

Délinition 11

Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de seconde
espèce. On la note É (p; q).

Rappels
+ æ xp-l 1

B(P,q) : J : J" x.P- 1


(1 - x)a-1 6*
O --dx
(1 + 11n+o 0

: 11
(-, :7f
B(p,q) B(q.p) B
;
22 -)
Définition 12

La variable aléatoire f : -!- suit une loi bêta É (p, q)sur [0. 1] dite loi bêta
1+Z
de première espèce de paramètres p et q, p > 0, q ) O.

T est une v.a. à valeurs dans t0, 1 I En faisant le changement de variable


dans f, (z), on trouve facilement la densité de T :

fr(t) : -t)q 11ro..,r(t)


,.hrn-r 11

La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie sur
tout intervalle Ia, b] par le changement de variables Y: a + bT.

Remargue
Dans le cas p: 1 et q :1,f r(t) : lto, 1l (t) : P (1,1) : %rc, tl.

Forme de la densité de T :

Elle varie selon les valeurs des paramètres p et q (voir les graphes page
suivante).

Moments

: q)
B (P + r' B]gj::f: tt
E (Tr) E rzr\:
B (p, q) B (p, q)

En effet :

tr+p-1 (1 _ t)q-1 B(P+r'q;


E(rl : J"1 dt:
0 B (p, q) B (p, q)

122 PH. TASSI - S, LEGAIT


LES LOIS DE PROBABILITE USUELLES

p>1
q)1

De même pour E (Zr), à condition que q ) r afin d'assurer |existence de


l'intégrale.
On en déduit :

p pq
E(T) : V(T) :
p+q (p+q)'(p+q-1)
E(zl : --o (q> t)
p(p+q- 1)
:--_____-____;_DOUr(q
q- v (z) >2)
| (q - 1)'(q - 2) '
La variable Z n'a donc de moments d,ordre 1 et 2 que pour q ) 2.

Théorème 1

Soient X et Y deux v.a. indépendantes suivant respectivement f (p) et f (q).


p ) 0, q ) O. Alors ta variabte ï:
espèce. i-X + Y suit une toi bêta É (p, q)de première

Le résultat est immédiat; il suffit d'écrire


X/Y
T sous la forme et utiliser
les définitions qui précèdent. 1+X/Y

PH. TASSI - S. LÊGAIT 142


LES LOIS DE PBOBABILITE USUFLLES

2.5 Loi de Gumbel

Définition 13
X suit une loi de Gumbel si sa densité est :

f" (x) : exp (x - ex), x € lR

Sa fonction de répartition est :

Fx (x) : 1 - exp (- ex)


Moments 2
Tr
E(X) : -0,57722 V(X)
6

où O,57722 est la constante d'Euler.

Remargue
La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas
confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répar-
tition de Y sont :

fy(y) : exp(-y-e-Y) Yc lR
Fy (y) : exP (- e- Y)

2.6 Loi normale unidimensionnelle

Définition 14
X suit une loi normale de paramètres m et o (o) O) si la densité est donnée
par :
2
(x-m)
t*(xt :;fr"-T (x € rR)
On note X -) N (m. a).

Les paramètres m et a sont aisément interprétables. En effet, calculons E (X) :

2
(x-m)
1 ^*æ - -------r-
2o
E{X):-----
o t/2t
J xe dx
- oo

124 PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

En posant u : x-m on obtient :


o-

E(x):
^ -=-f*-,
VZlr - æ "-u"/2du:m
car la fonction à intégrer est impaire.

De même :

(x-m)
E (Xz)
^1^+æ
:- l' xt e zo2 dx
o \f27r "- *

: mt+ 2^o !** -5- u'/2 6u *L J** Uz


_2
/2 6u
- æ :/2r " ,/Zo - oc "-u

^ 2o2 ^+æ
: m'+
----=-- J v1l2 e-udv
t/r o

o20'3
= m- + ----/_ l- (= )
t/n 2

Comme:
|_3
(t) :t1 , (t t- 1 ,,F
2

ona:
v(x) : o.2

Les paramètres m et a représentent respectivement I'espérance et l,écart_


type de X.

Loi normale centrée réduite

. v'a' u
X-m
La - suit une roi normare d'espérance nuile et de variance 1,
notée N (0, 1), dite loi normale centrée réduite de densité :

-
2

fr,(u) :p(u) :
1 -u2
,:e (ue lR)
" r/2r
PH. TASSi S. LEGAIT
125
LES LOIS DE PROBABILITE USUELLES

La f.r. de U est notée O, et définie par :

o(u) : ^u1
J__ W "-
t'/2 dt

Les valeurs de <D sont données à la table 1 ; la table 2 fournit les fractiles de
la loi N (0,1).

Forme de la densité

Cette forme est celle d'une courbe en oclocheo.

Remarque

La loi normale N (m, o) converge vers la loi de Dirac au point m lorsque a tend
vers O.

Approximations
De nombreuses approximations de la f.r. <D (x) ont été données dans la lit.tera-
ture. L'une des plus précises (erreur de I'ordre de 1O-5) est :

O(x1 : 1 - ç(x) (au + bu2 + cut)


(x)O)
1 + 0,33267 x

a : 0,4361836 b - - o,'t201676 c : 0,937298O


Plus simples sont :

0,5
O1x1 : 1- (x)O)
(1 + ax + b x2 + c x3 + d xo)o

126 PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

avec une erreur de l'ordre de 2,5. lO-a et :

a:0.196854 b:0.11b194 c: O,OOO344 d:0,019527

1
Q8l:;+b;-cxndf (x ) o)

avec une erreur de l'ordre de 2 . 1O-3 et :

a : 2,490895 b= 1.466003 c : 0,024393 d : O.t7gZS7

Théorème 2

1_
La v.a. ;2 U'suit une loi y (1/2,1).
Démonstration
En appliquant, par exemple, la technique de la fonction muette, on
a :

1 ^+oo u' -i2du :Jîto u' -+'2du


ft ^** h(it"
JGI_-h(;) e

: ,8.t"*- n (y) e- t #
1
: +æ
,fr lo h (Y) Y- 1t2 u-Y (Y

: y-1/2 e-y h(y) dy


{-" +
r(t)
On en déduit :

r+1

E(!u'f/':"
--2 ''
r(1)
,2
(d'après le paragraph e 2.2).

PH TASSI S. LFGAIT
LES LOIS DE PROBABILITE USUELLES

D'où :

r( r+1.
z )

E (lul') - 2r/2
r (tl
1

Les moments de U et de X s'en déduisent :

o Vr e N, impair:
E(Ur) : E(X-m)':0
oVr € lN,pair:
E(U') :Trl2r/2 r+1
Z I

or 2r/2 r+1
E(X-m)':-G-r( Z I

Polynômes de Hermite

Partant de la densité g (x) de la loi N (0,1), on a :

9'8):-x9(x)
e., Vl : (x, _ 1) p (x)
g,.,(^) : -(x.-3x) 9(x)
Un simple raisonnement par récurrence permet d'établir que la dérivée d'or-
dre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degré
n, noté Pn (x), et que pour n pair (resp. impair), Pn (x) ne comporte que des puis-
sances paires (resp. impaires) de x :

,ln)1x) : pn (x) o (x)

Définition 15

On appelle polynôme de Hermite d'ordre n le polynôme Hn (x)défini par :

,tn) 1x)
: (_ 1 )n H n (x) rl (x)

c'est-à-dire, avec les notations précédentes :

Hn (x) = (- 1)n Pn (x)


Par convention, on pose Ho (x) : 1.

128 PH, TASSI S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

Exemple

H,(x) = x, Hr(x) : xt-1, :x.-3x, Ho(x) :xo-6x2+3


H.(x)

Hu(x) :xu - 10x3+ 1S, H6(x) :xt- 1s xa+45 x.- 1s, etc.

Propriélé 2

u'
Hn (x) est le coefficient de Iun dans le développement de
LIX-
e -2
n!
Démonstration

Soit u un réel quelconque :

9(x-u) : 1 - {.;d
2 : p(x)
u,.-
e
{
2

-Jrr"
co , irn
:
n:O n!
æun
: : p(x)
n!
n:O -Hn(x) |

en faisant un développement de Taylor et en utilisant la définition 15. on en


déduit :

2
u^^
: ; un
"'^--, Hn.(x),
n:O n!
2
u
-7
ll s'ensuit que Hn (x) est le coefficient o" 4 dans le développement de .
n! ""
Remargue
u"
ux- --
Dérivons e 2 par rapport à x; on obtient :

,r-i æ un+t æ rr^


ue 2 - n' '
n:O n! n:O nl
PH. TASSI - S. LÊGAIT 129
LES LOIS DE PROBABILITE USUELLES

En égalant les coefficients de un, on a :

Fl (x) : n Hn*., (x)


De même, en dérivant par rapport à u, on a :

u
æ Un-1
(x-u) e 2=
n:1 (n-1)! n"

d'où, en égalant les termes en un-1 :

Hn (x) Hn-r(x) Hn-z(x)


(n-1)! -^ (n-1)! (n-2) !

Hn(x)-xHn_1 (x)+(n- 1)Hn_Z(x) : 0

En multipliant cette dernière égalité par n et en remarquant que :

Hn(x) : n(n-1; Hn_r(x)


on a, pour n22:
H"(x) - xFl.,(x) .' nHn(x) : O

Propriété 3

Soient Hn et Hn deux polynômes de Hermite, Hn (X) et Hn (X) les v.a. images de


X par Hn et Hk, X de loi N (0,1); on a :

E(H^(X)) :0
V(Hn(X)) : n!

Cov (Hn(X), Hr(X)) : 0

Démonstration

a) g[{* e(x)dx] : o: o(n){") o"


dxn {*
t-l)" {n Hn(x) o(x) dx

(- 1)n E (Hn (X))

PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITF USUELTFS

uk,
n : l* tn (x) Hn (x) p (x) dx avec k( n. En intégrant par
^^-.,:) on
parttes, l_n._o.n.
a:

uk,
n : (- 1)n
"i Hn {x) e(n) {x) dx

-l +-
: (- 1'" f p(n-tl tx!__ * (- 1;n*r j,, tn (x) 9(n-r)1x;dx
Ltn(x)

: o+(- î1n*t O l,* tn_r (x) p(n-r) 1x; dx

: k ,k-r, n-l

ll s'ensuit :

: kl uo, n-n
.uc
"
Si k <n:
uo,n-k:.f Hn_r(x) p(x) dx: O et uk,n: Cov (Hn(X), Hk(X)) : O

Si k: n,
uo,o:1 et un,n:V(H.(X)) :n!

2.7 Loi normale multidimensionnelle


Soit X un vecteur aléatoire de (lRp, fr.o1, ae coordonnée courante X., i :
1 à p.

Définition 16

Soit u : 1 Ït \ un vecteur quetconque de tRp.

\,0/
X est un vecteur normar (ou gaussien) si, vu, u'X est une v.a.r. normare.

Remarques
a) on en déduit que si A est une application linéaire de lRp dans lRd, et si x
est normaldans (Rn, 9/l9l, alors AX est normal dans(lRd, fr,d1.

PH TAsst - s. LEGAIT 131


LES LOIS DE PBOBABILITE USUELLES

b) Si u, : 1 et ,j : o, j+i, xiest unev'a'r' normale'


La loi normale multidimensionnelle peut être également définie par sa densité :

Définition 17
Soit m € lRp et I une matrice (p. p) réelle symétrique positive. X est un vec-
teur normal de dimension p si sa densité est donnée par :

1. I
s-2 '{"-m) r '
(x-m)
f" (x) :
(2rP/2 \6At
Propriété 4
E (X) est le vecteur espérance m et > est la matrice de variance-covariance et
on note la loi de X : N (m, I).

Démonstration
I étant une matrice réelle symétrique et positive, il existe une matrice ortho-
gonale S et une matrice diagonale D telle que :

ts>s:D
Si af, .. , af Oesignent les valeurs propres positives de I (non nécessairement
toutes différentes), D : Diag 1oi, , oil
Effectuons le changement de variables défini pat Q i
(x1,..:,xrl4> y: (y1,...,y0) : tSx
":
g-1 (y) : sy car tS : S-t (S est orthogonale);
lJ(p-')l :lDetSl :t
On note :

g: tsm;t(*-m) >-t (x-m) : t(y - g)ts >-1 S (y - rr)


: t(v- ti D-1 (y-p)
p1
:,I, 7 lv'-u')'

132 PH TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

d'où :

I p 0i-u)2
2 ti'' ,1
g (y1' ..., yn)
u = (2ùe/276- e-
1 Ni- u)2

s (v1, ..., yoi : f, --! T "1


' i-1Vzroi "-

donc Y.,, ..., Yo sont indépendantes et suivent respectivement N (g,, a;).

On note : Y: (Y.,, .... yO).

Ona:
1r et V(Y) : D
E(Y) :
où V (Y) désigne la matrice cJe variance-covariance de y, d'où :

E(X) = E(SY) = SP: m


V(X) : V(SY) : SV(Y) tS: SD tS: X

Propriété 5

Vu € lRP, tu X -> N (tum, tulu)


ce résultat vient directement des propriétés du paragraphe 2.3 du chapitre 3.
En particulier :

V (Z u X,) : u, u, E (Xi- mi)(Xj- mj) : tu V (X) u


It,l
Définition 18

La loi t\ (O, lD) est appelée loi normale (multidimensionnelle) centrée et


réduite, de den'sité :

1 (xr, ..., Xn) : 1 (t2l2x1


--e
(2rlPtz
Théorème 3

Soit X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sont
indépendantes <+ Xr et X2 sont non corrélées.

PH.TASSI -S LEGAIT 133


LES LOIS DF PROBABILITE USUELLES

Démonstration

Si X, et X. sonl indépendantes, alors X., et X. sont non corrélées, quelle que


soit la loi de X, et X2 (cf. chapitre 3, théorème 10). La réciproque est fausse en
général mais est vérifiée dans le cas gaussien.

En effet supposons que :

c'est-à-dire que Cov (X.,. Xr)


X-)N
: O. [;r ) (r3,)]
La densité de X s'écrit :

f(xr,xr) : 1
_I (*.,-m.,)'
_1 (*.-Ti)'
^ o1 o2
z7r
expl
,o1r"Z
-
2
(xr -
-t 1

o't
mr)
2 -n
1
(x2 -
2
m2)

:_ô 1 1 C2

',/z' o', 1/2t o,


On conclut que X., et X2 sont indépendantes et suivent respectivement les lois
N (m,, af let N (mr, o7l.

Remargue

Deux variables gaussiennes non corrélées ne sont pas forcément indépen-


dantes : pour cela, elles doivent nécessairement constituer un couple gaussien.

Exemple
11
Soit X de loi N (0, 1) et une v.a. c définie par P {c = 1l:;;Ple:-1]:-
telle que X et c soient indépendantes. On pose Y: e X. 22
FY(Y) : P{Y<":
;i;.;", ::'1,..i:-:i; ll ,,
: 11
,*(vl+ P{X>-y1:F*(y)
i ,
donc Y -> N (0. 1)

134 PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

Cov(X,Y):E(XY)-E(X) E(y) : E(Xy) : E(cX2) : E(e)E(X2;:6


donc X et Y sont non corrélées.

supposons que X et y soient indépendantes ; arors re coupre (X, y) serait


o
gaussien de loi N ((^), lz)er X + y suivrait ators une loi N (0,
o vâ).
Or:
P{X+Y:}: P{e:-1}: 1

2
ce qui est absurde puisque la loi N (o, \/r) est continue. Donc X et y ne sont pas
indépendantes tout en étant pourtant non corrélées.

ll conviendra par ra suite de ne pas confondre deux variabres gaussiennes


avec un couple gaussien.

2.8 Loi log-normale


Définition 19

Soit Y une variable aléatoire suivant une loi normale N (m, o). La v.a. X définie
Far X: exp Y suit une loi log-normale.

La densité de X esr :

fx (x) : exp (- (L"gl=ry' I 1 (x)


=:-\/27r
ox 20' R+
I

La densité de X se déduit de celle de y par le changement de variables : y


- ey

Forrne de la densité

PH. TASSI _ S. tFGAlT


135
LES LOIS DE PROBABILITE USUELLES

Moments
Ê (X) = /2
"^*o"
V (X) : 1so' - 17
"2^nc2
En effet :

+oo 1 - latr-rrt
Yr )o 1, E (Xr) : E (erY) : .[ srvs 2o' ' dy
^!-
t/2ro

+co 1 fu rr-(+ ,rto"l' *t+-,P-


- 2o' *
E(Xr) : f_*àe
o" ,"
E (Xr) :
l-
"t'*

2.9 La loi du khi-deux


On considère n v.a. (Xr, ...,Xn) indénendantes suivant toutes la loi normale
N (0, 1).

Définition 2O
n
La variable aléatoire U- :
(n). "
liberté, notée X2 i: 1 '

1^1 loi , (1 , 1) (cf


Déterminons sa densité:on sait que Xf suit une :

t
paragraphe 2.6). Or la somme de deux v.a.r indépendantes suivant respectivement
f h, 0l et f (q, d) suit une loi f b + q, 0) (la démonstration de ce résultat est
proposée au chapitre 6, paragraphe 3.1).

1n^n
I Xf suit r ( ,,ll
Donc,engénéralisantàunesommedenv.a.r.'-
On en déduit la densité Ùn : 2 i:1

r..
un trt
: "-i **-' lrR. (x)
--f
Z"rrf (t I

136 PH TASS] -S LEGA]T


LES LOIS DE PFOBABITITE USUETLES

Théorème 4

soir un vecreur aréatoir.ex dg (rRp, /tÊp), de roi : N (m, r). La v.a. y: \x -


I- t (X - m) suir une toi Ou X, (p). m)

on peut se limiter au cas m : 0 : ir suffit de centrer re vecteur. Avec ies


mêmes notations qu'au paragraphe2.T :

tX:-t X: tXSD-ttSX
On note Z - tS X ; Z est un vecteur gaussien d,espérance nulle et de
matrice de variances-covariances D : Diag
@?, , oft, ot, o? : y (2,1.

tx :-' x : 9_
i:l 1oi
par définirion une toi yz (p).
"uit

. La loi du x2 possède une interprétation géométrique : soit X un vecteur nor-


mal de dimension p, M le point (aléatoire) danJRp de co'ordonnées (X.,. -
..., Xoi:

D
llOwll' : t X|, carré de ta distance à l'origine du point aléatoire normal M,
i:l I

suit une loi du y2 à p degrés de liberté.

PH TASSI -S. LEGAIT


131
tES LOIS DE PROBABILITE USUELLES

Forme de la densité

n:2
n:1

Moments
De la relation existant entre les lois;2 (n) et y (n/2l1, on déduit :

E(Uj) :r''(t*'l
r (+)

d'où :

E(Un) :n V(Un) =2n


Les fractiles de la loi du khi-deux sont donnés à la table 5.

2.1O Loi de Student


Définition 21
Soient X et Y deux variables aléatoires indépendantes suivant respectivement
N (0, 1) et x2 (n).
On appelle loi de Student à n degrés de liberté la loi suivie par le rapport :

?_
X
/Y
V;
Cette loi est notée Tn

PH TASSI . S. LEGAIT
LES LOIS DE PROBABILITE USUELLES

Densité

Pour trouver la densité, il suffit de remarquer qus Ë : { est aussi te


X YNY
rapport de deux variables et indépendantes et suivant respectivement
1nz t
r(vlety(rl.
T2
n
n
suit donc une loi bêta P(t' 1 n
^
2
) de seconde espèce. La densité de
Tn est :

n+l
f.'n (x) : 1
(1 +
x2 - -=--
z

Forme de la densité "6


e tl, i;t -)n

La courbe représentative de la fonction frn (x) est symétrique par rapport


à
l'axe des ordonnées, de forme (en croche> eomme pour ra roi normare.

Moments

E (Tn) : 0 (symétrie) (n > 1)


n
v(Tn) : (n)2)
"_2
Les moments s'obtiennent à partir de ceux de la loi bêta de seconde espèce
(cf.2'41' d'où les conditions d'existence sur le degré de liberté n. Les fractiles
sont
donnés à la table 6.

PH. TASSI - S. TEGAIT 1?O


LES LOIS DE PROBABILITE USUELLES

Cas particulier : loi de Cauchy

Pour n = 1, T, : -+- où X et Y suivent indépendamment, respectivement


N (0, 1iàt x'tr t. ' VY

La loi suivie par T1 porte le nom de loi de Cauchy ; c'est aussi la loi du rapport
de deux v.a. normales c'entrées réduites indépendantes (cf. exercice 4.2).

Sa densité est :

fr' (x) :
n(1 +xzl

Tf suit une loi p (+ , ll O" deuxième espèce et les conditions d'existence des
moments de la loi bêta de seconde espèce font que T., ne possède aucun moment,
donc, a fortiori, ni espérance, ni variance. Sa f.r. F est donnée par :

F(x) :t *; Arctgx

2.11 Loi de Fisher-Snedecor

Définition 22

Soient X et Y deux v.a. indépendantes suivant respectivement les lois x' (n) et
x2 (m).
X/n
La variable F : suit une loi de Fisher-Snedecor à n et m degrés
,^
de liberté notée Fn, ,.

--nX/2n
m
F- suit une loi É (7 -) de seconde espèce.
2

La densité de F s'en déduit :

*n/2 - 1

f, (x) : 1
nn/2 1,** {*)
m ^m/2 n+m
r(+ 7t (m + nx)

PH. TASSI - S. LEGAIT


LES LOIS DE PROBABILITE USUELLES

Forme de la densité

Remarque
Tl, carré d'une variable de student à n degrés de liberté. suit une loi de
Fisher-Snedecor à 1 et n degrés de liberté.

Moments
E (F-
'n'm' -) : -!(m > 2)
m-z
2m2(n +m-2)
V(F
'n,ml -----im>4,
n(m-4]l (m-212
Propriété 6
On note fo (n, m) le fractile d'ordre a de la loi F (n, m)
Ona:
t"t-a' (m. n) : 1

fo (n, m)

Démonstration
Nous aurions pu définir, à partir des v.a.r. X et y de roisyr
1n; ety, 1m; 1it n,y
a aucune raison de privilégier X comme numérateur) la variablé'V par :

Y/m
' -
l,
-
x/n
Par définition, V suit une loi de Fisher ll est évident que I'on
Fn.'',
n. a UV :
avec U -) Fn,* et V-) F.,n ; U et 1./Vontdonc même loi.

'n,m_<f-(n,m))
P(F_ q' : a

PH. TASSI S tEGA]T


LES LOIS DE PROBABILITE USUETLES

Ona:
P(-
'F
1
<f-(n,
a
m)) : a

d'où :

'm,n <_):1_a
P(F
fo(n,m) '

ft -o(m' n) :
f"(n, n-')

Les fractiles de la loi de Fisher-Snedecor sont en table 7.

Exemple

Soit Fu,, dont on cherche le fractile d'ordre 0,05.

Ona:
fo,os (5,8) : 1

fo,e5 (8,5)

On lit sur la table f.,ss (8,5) : 4,82 et donc fo,ob (5,8) : O,2O7 .

3 LES PAPIERS FONCTIONNELS

Les deux paragraphes précédents ont présenté diverses lois de probabilités et


leurs propriétés. Toutefois. lorsqu'on dispose d'un échantillon (X,,..., Xn) d'une
v.a. X, c'est-à-dire d'une suiie d'expériences indépendantes où X, est le résultat de
fexpérience no i, t" toi p Oe X n'est, a priori, pa, même si farfois le contexte
de l'étude peut guider le statisticien-probabiliste "onnre,
vers tel ou tel type de loi de
probabilité.

ll importe donc d'utiliser au mieux un certain nombre de pratiques de la statis-


tique descriptive afin d'orienter le statisticien à spécifier I'hypothèse que P est une
loi bien définie ; il s'agit là d'un problème d'adéquation à une loi de probabilité,
pour lequel existent des outils relevant de la statistique mathématique (cf. par
exemple [ 19] ou [20]).

Cependant, en première approche, un diagramme en bâtons, un histogramme,


le graphe de la fonction de répartition empirique, et surtout l'usage d'un bon papier
fonctionnel peuvent être des auxiliaires précieux.

142 PH. TASSI - S, LEGAIT


LES LOIS DE PROBABILITE USUELLFS

3.1 Principe des papiers fonctionnels


Soient X.,, ..., Xn, n v.a.r. indépendantes représentant n réalisations d,une
v.a. X continue de loi p, de fonction de répartition F.

Fn désigne la fonction de répartition empirique :

Fn(x) :+ :,, r,*,.*,


proportion observée du nombre de réalisations dans (Xr....,Xj strictement infé_
rieures à x, introduite au chapitre 3.
ll arrive fréquemment que lespace .w des vareurs de X soit partitionné. par
exemple par l'usage d'une nomenclature (tranches d'âge, de revenu, etc.),
tel què :

s- j:1j c, '
C,de limites de classe (e,-,', e,). La fonction Fn est alors évaluée en e,,l: 1 à k.
L'idée est de faire apparaître une relation détermiste simple entre F (x)
et x,
caractéristique de la loi p; dans la plupart des cas, on cherche ùne relation
de type
linéaire entre des fonctions h (F (x)) et g (x), h et g à déterminer :

h (F (x)) : g (x)
Dans un repère arithmétique usuer, si.ln nole (e,) en abscisses et h (Fn (e,))
s
en ordonnées, le nuage de points (c (e,), h (Fn (ej))) aura à peu près ra forme
d;une
droite.

si, au lieu d'utiliser un repère arithmétique, on emploie des axes cléjà gradués
par g en abscisses et h en ordonnées, re nuage de poinis (e,,
F^ (e,)) aurà rà même
forme tinéaire. Le papier ainsi gradué par reè fonciions
fonctionnel (h, g) adapré à la loi È.
s'di hi;dilJË r; ;;;i;;
. cetlg propriété permet alors, quand on dispose de n réalisations d.une expé-
rience aléatoire, d'indiquer, selon la forme du nuage si ces réalisations
";i;;Cet
chance de provenir du modèle probabiliste représenté par le papier fonctionnel.
indicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la
théorie
des tests d'adéquation non paramétriques de la statistique mathématique ([1
1]).

3.2 Exemples de construction de papier fonctionnel


a) La loi normale : droite de Henry
ll s'agit de l'exemple le plus célèbre. soit X de loi N lm, o), de densité et de
fonction de répartition :

PH, TASSI - S. TEGAIT


143
LFS LOIS DE PBOBABILITE USUELLES

(x-m)
: 1 - zo
^,
f (x) e
--=:-
o1Fzn

F (x) :J X
f (t)dt
-oô
En notant par Ô la fonction de répartition de la loi N (0,1 ) :
x-m
: O(---)
F(x)
o
qui conduit à :

<D-
-' : x-m
1F 1x;1
o

ll existe donc une relation linéaire entre :

(F (x)) : Ô-
h
1 (F (x))et
s (t) :.I-Jr_
t
OrF(x) € tO,1l et <D-'(f (*))n'estautrequelefractileur,",d'ordreF(x)delaloi
N (0,1).

Le nuage de points (t, ur (r)) sera donc représenté par une droite dans un
repère arithmétique usuel ; si, pour simplifier, on gradue I'axe des ordonnées par la
fonction O-', le nuage (x, F (x)) aura pour image la même droite. Ce papier à échelle
arithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gausso-
arithmétique : un échantillon donné aura de fortes chances de provenir d'une loi
normale si le graphe du nuage (e,, Fn (e,)) est ajusté sur une droite dans un papier
gausso-arithmétique (voir page suivante). Cette droite porte le nom de droite de
Henry.

b) Loi exponentielle
Xsuit la loi r (1, 01, dedensitéf (x) : 0 e-tu(x)0, d>o) ; F (x) : 1 - e-tu.
1-F(x) :
"-tu
Log(1 : -6t
-F(x))
ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage de
points (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithméti-
que ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère
arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier
fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier
semi-logarithmique.

PH TASSI - S. TEGAIT

1
LES LOIS DE PROBABILITE USUFLLES

o
l
.g
.o
s.ÈE
L
(o
o
ô
-c
uJ

o
b
'o

a
a
q
v,
a
ù)
o
a.

a_

qræ rr)o
C
O)orJ or)O)
O o)-o)
srq E E FFËHE=F E S=ËÈ=
6.O
=O
C oo- o'o o o
=
o d-dSè'co-
=
o- - ----é=-;-
aa
O(t'
LIJ c')

PH. TASSI - S. LEGAIT


LËS LOIS DE PROBABILITE USUELLES

Remarque
Le papier serni-log sert également à identifier un modèle multiplicatif
X- : m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série
tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à
un modèle additif à saisonnalité stable.

c) Application nurnérique
Les températures relevées à 1O heures, sous abri, en mars 1953, à la station
météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ci-
après. L'unité est le degré Celsius, avec deux décimales'
0.60 9 6.44
0.1 1.74 0'A2 2 34
4.OB O.17 .16 1 1.23 1 '74 0.55
o.25 3.43 1.64 5.32 3.80 1'27
0.68 2.22 2]7 2.85 3.67 0'26
2.48 4.08 1.23 0.35 5.05 3.22
o.00
Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire
l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ?
On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où
les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21'
+ oo['
12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ;
Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont
sont issues lès données est une loi exponentielle de paramètre égal à la pente de la
droite en valeur absolue.
1-F en échelle logai'ithmique
1

0,9
0,8
0,7
0,6
0,5

0,4

0,3

0,2

1,5 2 2,5 3 3,5 4,5 5


(Echelle arithmétique) PH. TASSI . S, LEGAIT
LES LOIS DE PROBABILITE USUETLFS

3.3 Cas de variables discrètes


Lorsque X est une v.a. discrète, on peut rechercher des relations caractéristi-
ques vérifiées pour une loi bien définie, et étudier dans quelle mesure
les données
observées satisfont à cette relation. Nous allons citer deui exemples.

a) Loi binomiale
On sait que siX suit une loi fi fi, pl:
P(X:x) : CIP" (1 -P;n-* x:0, 1,...,n
ll s'ensuit :

P(X:x+1) :h(x) P
P(X=x) - 1-P -.il-x
*;
(o(x(n-1)
si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est la
restriction à {0, ... n - 1 } de t'hyperbole :

p(n-x)
(1 -p)(x+ 1)
b) Loi de Poisson
Soit X de loi I e) :

:h(x) : ^ , x€lN
P (X: x) x_1
si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera
la restriction à lN de l'hyperbole
x+ 1
En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et si
f1 Û : t à K) est la fréquence relative d'apparition de a dans l'échantillon observé
(Xr, ...,Xn), on porte en ordonnées :

f.'j
_ 1

t'*'' h (aj)
et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage de
t1
points (a,, .7) est à peu près linéaire; comme
r h (a,)
:

1 - r*1
h (x)
À peut être approximé par l'inverse de la pente de la droite.
^^

PH, TASSI - S. LEGAIT


LES LO S DE PF]OBAB]LITE USUFTLES

4 DIVERS

4.1 Création de lois de probabilité


Toutes les lois de probabilité usuelles n'ont pas été présentées dans les para-
graphes qui précèdent ou dans les exercices. ll en existe de nombreuses autres, et
ie tbcteui iniéressé pourra se reporter, si besoin est, à l'ouvrage de référence de
l'ingénieur statisticien qu'est [8].

Peut-on dégager une préseniation synthétique des lois de probabilité ? En


première approximation, trois modes de génération semblent exister :

a) Schéma d'urne
ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type
nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise,
nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non'
Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des
exemples de ce mode de définition.

b) Variabtes données par une caractéristique (densité, fonction de répartition)

ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les
v.a. continues. Ces variables sont souvent en liaison avec un problème physique
concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de
mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi
de Weibull en fiabilité, la loi log-normale dans les études économiques sur les
revenus, etc. Dans cette classe prendront place les lois définies par leur fonction
caractéristique (chaPitre 6).

cJ Variabtes définies comme fonction d'autres variables


C'est une façon très fréquente d'engendrer des lois de probabilité. Nous I'avons
utilisée, par exemple, pour les lois log-normale, du khi-deux, de Student, de Fisher-
Snedecor.
Cette rapide classification mériterait d'être affinée. Par exemple, nous verrons
au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométri-
qr"r. Èn outre, il semble a priori très simple d'engendrer des lois de probabilité; il
suffit de considérer une fonction f positive, suffisamment régulière (chapitre 2) ;

alors :

f (x)

I"IR f E) d-

148 PH TASSI - S. LEGA T


LES LOIS DE PROBABITITE USUELLES

est une densité de probabilité d'une v.a. continue. De même, sous réserve d'exis-
tence, toute fonction f développable en série entière à termes positifs :

f(?l.: x
x€lN
peut être utilisée pour donner naissance à une loi discrète :

P(X:^1 : -u-" -
r (0)

De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans les
modélisations probabilistes des phénomènes physiques, socio-économiques ou
autres ?

Exemple
Considérons le développement en série des fonctions ch et sh :

oo U2n oo ,2n+1
chu:
n:g (2n) ! n:g (2n + 1) !

On a donc: ôo 1 U2n
1-
n:0 ch u (2n) !

oo1 ,2n+ 1

1- :
n-O shu (2n+1)!
On peut donc définir deux lois de probabilité discrètes associées aux v.a. X et
Y, définies respectivement sur 9, ensemble des entiers pairs, et J. ensemble des
entiers impairs, par :
Àx
P(X:y) : (x€0),.ÀctR*
ch .À x!

P(Y:Y) :
1
(y € J). ,l € lRi
sh,À ^v
yl
En outre :

E(X) : : ^x
xeA ch .l x!

z= ^ ^x
x€J ch,À x!
d'où :

E(X) :
^rhÀ
PH. TASSi - S. LEGAIT 149
LES LO]S DE PROBABILITE USUELLES

Une telle construction n'a de sens statistique que si la loi engendrée peut être
mise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de Poisson
I (l) à l'ensemble des entiers pairs (resp. impairs).

4.2 Les coefficients de symétrie et d'aplatissement


X étant une v.a.r., nous noterons respectivement par mk et /k les moments
non centrés et centrés de X.

a) Les coefficients de Pearson


u^
n-
Pt- A-Fq
P2 2
3
u^ lJz

Lorsqu'une distribution est symétrique, les moments centrés d'ordre impair


sont nuls ; É.' est donc nul. Le coefficient P1. dit coefficient de symétrie (on emploie
très fréquemment le terme anglais de oskewness,) est un indicateur de symétrie de
la loi de X.
Le coeff icient B, représente le degré d'aplatissement ("kurtosis,) de la loi de X
en un sens précisé ci-après.

b) Les eaefficients de Fisher


Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher,
Y1 el Yr:
Y,, : JB, Yr: Bz-3
L'interprétation de f1 est identique à celle de É., (skewness). La définition du
coefficient de kurtosis fait référence à la loi normale. Calculons F"pour N (0,1).
On sait que :

rt**pl
E (X2$ : 2n
r ttt
_.5.
I lZ)
lJa : Âa: 4
_^
_J

r ttt
et donc :
Fr: 3

150 PH. TASSI - S. LEGAIT


LES tOIS DE PROBABILITE USUFL-LES

d'aplatissement de Pearson. pour une loi no?male N (0, 1


) :

Y1:Y2:O
c) Valeurs de y., et yzgour quelques lois usuelles

o Loi binomiale
q-P 1-6Pq
t't /2:
\,6pq npq

La distribution est symétrique (r., : o) si p : q : +, résurtat d,ailleurs


intuitif. - 2'
e Loi de Poisson

Y':,r,D Y":
^
On remarque que, si ,À - + co, les coefficients de Fisher de g (,1 )tendent
vers O, c'est-à-dire ceux de N (0, 1).

o Loi log-normale
En notant ar : exp or, on obtient:

\/,r 1
Y, : -r*2- y": eo + 2u3 + 3u2 -6

o Loi gamma y (p, tl

26
: -7-
Yt
vP Yz:
- -p
o Loi bêta É (p, q)

2(q-p)v[;l-J
\/:
I2
p+q+2
3(p+q +11 t2(p+q)'+ pq(p+q-6)l
Yz: pq(p+q+2) (p+q+3)

PH TASSI -S LEGAIT
151
LES tOIS DE PROBABILITF USUELLES

Loi uniforme

Y't:O Yz: -1'2


Loi de Fischer F (n, m)

2n+ m_"2 8(m-4) (m)6)


Yt: m-6 n(m+n-2)
121|m - 2l' (m - 4l + n (n + m - 2) (5m - 22ll
(m>8)
Yz: n(m-6) (m-8) (n+m-21.

Loi de Student T n

y.,:O Yz: n*4 (n)4)

o Loi du x2 (n)
Y'r : IB Yz
12
n

4.3 Une structure générale : la famille exponentielle

De nombreuses lois de probabilité, discrètes ou continues, prennent place


dans une vaste famille de lois, dite famille exponentielle (à ne pas confondre avec
la loi exponentielle vue en 2.2).

Définition 23
Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite
appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonc-
tions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la
densité f (x, 8) de P, par rapport à g vérifie :

I a; (d) T, (x)

l(x,01 :c(d) b(x)sj:1 '


)

r
Logf(x, 0l : y(d)+P(x) + I a,(d)T,(x)
j:1 ) )

PH. TASSI S LEGAIT


LES LOIS DE PROBABILITE USUELTES

Exemples

r Loi binomiale

f (x, p) : CX p" {1 - p;n-x

f (x, p) : cX (1 -p)n( . o )*: cI (1 J;


" 1-p n' -p)n e^t"n
d'où :

T(x) : x
h(x) : Cf
c(p) : (1 -p)n
a(p) : f-og lLr-p
o Loi de Poisson
f (x,'À) : e-i ^x
x!

c(,1) :"-'r h(x; :1. a(,À) :Log,À T(x) :x


x!

o Loi normale :

(x-m)
f (x, m, a) : e 2o2
-!o-t
t/2t
mx
^' ^"
o-, e ;7 ;7. 7
1

x/2n "-
T,(x) :x2 T2(x) :x h(x) :1 c(m,a) -o-1 e-m2/2o2

a., (m, o) : - 1m :
ar(m,
2", "l 7
r Loi exponentielle :

rg,0,pl:-fro I,** (x)


"-dx "P-1

PH, TASSI S LEGAIT ] 53


LES LOIS DE PROBABILlIE USUELL ES

0p
Tr(x) :* Tz(x) :Logx h(x) :1,r.(x) c(d,p) :
r(r)
a,(0,o1 --0 ar(0,o1 :P-1

e Loi uniforme :

(x,ol : 1
, (*)
'f
i to, rt
Elle ne se met pas sous la forme exponentielle.

o Loi de Cauchy:
Ladensité:
t(x,01 :- 1 1

T;S_6
ne se met pas sous la forme exponentielle.

4.4 Génération d'échantillons aléatoires


Nous avons vu que, si X est une v.a.r. continue de f.r. F continue strictement
croissante, la v.a.r. Y: F (X) suit une loi uniforme %ro,r,.

Propriété 7
Soit xo (resp. y/ le fractile d'ordre a de X (resp. Y) ; alors :

Yo : F (xo)

Démonstration
P(Y< Yol : a: P(F(x) < YJ : P(X<F-t (YJ)

d'où : Xo : F-1 (vol, vo: F (xo)

L'une des applications de ces résultats est la génération d'échantillons aléa-


toires suivant une loi donnée de f.r. F continue Strictement monotone.
Supposons que l'on dispose d'un échantillon (y.,. ..., Yn) d'une loi uniforme sur
,l1,
tO, on peut en déduire l'échantillon (xr. ...,xn)Qui est régi par la loi de fonction
de répartition F, avec xi : F-' (yi).

'I
h4 PH' TASSI - S' LEGAIT
LES LOIS DE PROBABILITE USUETLES

: F-r (y,i

L'obtention d'un échantillon extrait d'une roi %ro,


,lest possible par l'utilisa-
tion des tables de nombres au hasard (cf. table B). Ces tables, dont un extrait est
reproduit ci-après, vérifient la propriété d'uniformité au sens où :

P(x) : 1

10,x:oàg
P (xy) : 1
xy: OOà99
100
I
p (xyz) :- I
xyz : 0OO à 999, etc.
1 000

49943 30139 07932 29267 01 934 19584 13356 35803 90284 97565
71559 30728 83499 65977 37442 72526 53123 99948 59762 19952
75500 16143 79028 81 790 57747 87972 54981 10079 17490 15215
59894 59543 1 3668 27197 51979 38403 23989 38549 82968 53300
29757 26942 08736 '15184 73650 51 130 59160 89866 06030 88929
Pour obtenir une réalisation d'une loi uniforme sur [0, 1], on fait le choix
d'une précision et on normalise les chiffres regroupés selon cette précision ; ainsi,
si l'on souhaite 4 chiffres après la virgule, on regroupe les éléments de la table par
paquets de 4, qui constituent la partie décimale :

0,4994 0,3301 0,3907 0,9322 etc.


ll suffit ensuite de transformer par F-1

Exemple f
Soit X de loi exponentielle :

F(x) : 1 - e-^ F-t 1x; : 1-nn


1-x
PH.TASSI -S LEGAIT r55
LES LOIS DE PROBABlLITE USUELLES

Echantillon uniforme (x) Echanti llon exponentiel

o,4994 0,6919
0,3301 0,4006
0,3907 o,4954
o,9322 2,6912

Exemple 2
Si X suit une loi normale N (0.1), de f.r. Q, (y., ..., y^)désignant n réalisations
d'une loi uniforme sur [0, 1], (O-t (v.,), ..., O-' (ir")) esi un échantillon de la loi
normale centrée réduite. De telles tables ont été calculées ; celles qui suivent sont
issues d'une publication de la Rand Corporation [ 1B].
.661- .654- .379- .759- .804 .282 .317- .219- .318- .580-
1

1.231 .337- J25- 1 .373- .535- .1 9 .775 .254- .598 .200


1 1

1.117- .871- .187- .543- .421 .311 .493 .574 j45- 2.332-
.551 .335 1.746- .235 1.455 .251 1.024 .062 .O09 .676
.743 1.076 .766 .O52- 1j94 .517 .401- 1.292 .280- .540
.329- .277 1.736 .175 .401- .665 .479 1.322 .O72 .867-
1.264- .970 .639- .761- .502- 1.559- .249 .1 19 .065- .812-
2.092- 1.610 1.423- 1.O71- .642 .759- 2.276- .133 .976- 1.506
1.447- .154 1.464 .O32 .1076- .327 .378- .055 .521- 1.404-
.018 .533 .558 .593 .737- .189 1.876- .140- 1.380- .303-
1.445- 1.357 1.657- .837- 1.417- .548 .423- .398 .167 .147
.002 1.537 .113 1.008- 1.080 .772- .368- .290- 2.146 .539-
.576 1.201- .108- .334 .659 .192 .1 9 .861 .856 .O18-
1 1 1

.1 08 .385- .228 .1 66 .1 69- 1.099 .914- .462- 1.132 .266-


1

.233 1.043- .852 .746- .046 .395 .735 1.526- 1.065 1.450
1.239- .155 .090 1.130 2.623 .81 1 1.372- .647 .858 .740-
.928- .802 .043- .463- .985 .395- .386 .465 .372- .278-
.670- .821- 1.092- 1.062 .601 2.509 .557- .814- .220- .019-
1

.643 1.339 1.287 .446 .O42- .593 .366 .640 .850- .847
2.503 .162- 1.125 1.241- 2.226 1.063 .085 .016 .786 .766-
.895 2.238- 1.7't1 .640 .067- .o88- .031- .1 84 .550 .417
1 1

.070- 1.367- .659- 1.025- .475 o.59 .792- .468 .284 .185-
.891 .903- .213- 1,847 .223 1.640- .772- .324 .O13- 1.757
1.170 .340- .295- .451 1.081 1.073- .073 .477- .397 1.282-
.130 .205 .665 .306 .790 .851- .935 .502- .650 .254

156 PH. TASSI - S. LEGAIT


tES LOIS DE PROBABILITE USUELLES

.591 1.342- 1.194 1.428 1.470_ 1.202- .450- .668- .212 1.161
.487- ' .792- 1.453 1.465- .390 .796 2.186- .461 .848 .236-
1.048- 2.550- .241- .109_ 1.385_ .066- 2.523- 1.270 .914 .157-
.984 .357 .563 .624- .614- .566 1.292 .776
't.217 .976 1.516-1.177_ .371
.737_ .O18 .768- .712 1.O01- .O12 .456-
1.008- .849- 1.272- .903 1.192- 2.081- .157 .708 2.132- .297-
.596- .219- .726- .417_ .214- .625 .699- .276 1.505 .672
.315- .999- 1.788 .592 .640 .677 .965- 1.066 .189- .657
1.441- 1.171 .192-
1
.315_ 1.714 1.131 .OO1- .342- .039 1.486
.413 .269- .602 .O85 .848- .207- .396 2.358- .045- .087-
Si X suit une loi N (m, a), l'échantillon gaussien sera :

(m +ao-' (yr). ..., m + o o-t (yJ)


De tels échantillons nau hasard non uniforme> sont fréquemment
utilisés pour
simuler des comportements aréatoires. on pourra se reporter, par exempre,
pour des applications de la simulation et à à t9]
nombres aléatoires.
[b] pour un irès détailié ,rr.'i"J
""poré

PH. TASSI - S. LEGAIT


EXERCICES

4.1 Génération de la loi logistique

Soient X et Y deux v.a. indépendantes suivant chacune une loi de Gumbel (cf. 2.5). Donner la loi de
Z:X- Y, dite loilogistique. En déduire E (Z)et V (Z).

lndication.'changement de variables : S (x, y) : (x, x - y) : (u, 4.

ftu,
ry
(u, z) : exP l2u - z - e' (1 + e-t)l
,(zl
: e-z Jf eu {1 + e-')1 du
'u-eu
En posant t: eu (1 + e z) :
tz?l : e_z
Vz €lR
(1 + s-212

f, est la densité d'une loi logistique. 2

E(Z) : g er v(Z) : 7T

Remarque

La loi de la dilférence de deux v.a. indépendantes suivant la loi de Weibull, au sens où elle a été
définie dans la remarque du paragraphe 2.5, suit également une loi logistique puisque cette dernière
est paire ;
e-z ez

(1 + 9-212 (1 + szl2

4.2 Lol de Cauchy


X
Soient X et Y deux v.a. indépendantes de loi N (0, 1). 0n définit la u.a. Z :
- .

'l) Exprimer la densité de la loi de Z, dite loi de Cauchy. Comparer les positions respectives de la loi
de Cauchy et de la loi N (0, 1 ).

2) La loi de Z admet-elle des moments ?

3) Calculerla densité de lav.a. U : 0+ oZ (d€ IR,a)0)?


lndication
X
1) 0n effectue le changement de variables: h (x, y): (x, z) où
v

158 PH. IASSI - S. LEGAIT


LES LOIS DE PFOBABITITE USUETLES

- l4
I

l.r 1n-r11
z
et ftr,
,r
(*' Yl : L
2r
,-i [^" + y"l

d'où :

1-tx x
2

f(*, (*' t) :
I -- 2'
+ ,l
z" lxl
z)
2r z
2

.1^0 _l x' I
_1
lr(zl: - 2"r, J__ *t 1l + ^,
+ ---- ^
1+- ,"1t*11
zdx
2 z
dx
2r z'
f
-0 xe 2

t, (zl : --l--
' n (z'+ 1)

Pour comparer les positions respectives de Ia roi de


etP{X)1}.
cauchy et de N {0, r), on compare p {z > l }

P(z> 1) : l:*1 -:
n 1z'+ ^
dz: o,2s
11

P (X> l) : 0,1587 (cf. table 1).

0n dit que la loi de Cauchy est <à queue plus épaisse> que (0,
N l).

1/\En

2) La loi de Cauchy n'admet aucun moment car les intégrales


:

J^*æ n(z'+11
zk

-æ -. ,.
dz (k211
sont indéfinies.

3) fr(u) :
"l,-.æ;A
PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES

4.3 Montrer que si X et Y sont deux v.a. indépendantes de loi N (m, a) alorsX+ Y etX- Y sont
indépendantes.

lndication

(;t;):(t;)(i)
donc (X + Y, X - Y) est un couple gaussien.

ll suffit de prouver que X + Y et X - Y sonl non conélées pour assurer I'indépendance.

E((X+Y) (X-Y)) : E(X2)-E(Y21 : g

E(X+Y; :2t et E(X-Y1 :g


Donc Cov(X+Y, X-Y): 0

4.4 Loi de laplace

_ I'l
Soit f (x) : k e 0,0êlantunparamètreréel strictementpositif.

1) Déterminer K de façon que f soit la densité de probabilité d'une v.a.r. X.

, :
X
2) 0n pose .Déterminer la loi de Y. appelée loi de Laplace normalisée.
7
3) Calculer E (Yr), Vr € lN*. En déduire E (Y) et V (Y).

lndications

^+oo -4e + K-
I
1) J'_Kr dx:l
n
2) La densité de Y s'écrit:

s (y) :7 1

e-lvl

3) E (Yr) : d:+ ,r ,-lvr 6v


-æ L

Si r est impair, la fonction à intégrer sur lR est impaire et donc E (Yr) : 0. Si r est pair, la fonction
à intégrer est paire et :

oo
E(Y') : JO
^*
yr e-Y dy: l-(r+1) : r!

d'où: E(Y) :0 et V(Y) :2

160 PH TASST _ S LEGATT


LES LOIS DE PROBABILITE USUETLES

loi de Pareto

La v.a. X suit une loi de pareto si sa densité


est donnée par :

a0a
f (x) == 114*-1(t) (a)o'd)o)
,r-,
l) Calculer E (Xk) en précisant les conditions d,existence,

2) Déterminer le mode et la médiane de X.

lndication

r) E (Xk; : l)* o e, dx

n'existe que si a- k+ I > l, c,est_à_dire si k<a.


Alors :

E(Xk) : a1o[- 1 I +oo o,ok


(a - k)
lg - a-k
xa_k
d'où:

E(x) ::. o@)t) et v{X) : Ê @>zl


q_l (a-21@-11"
2) Le mode est en d.

agd 0a
Vx)d:F(X) =$ dr : I _(_)
1a+1 X

F(x) : I
21/a 6 donc la médian e est en 21/a 0
-(è1:
2

4.6 toi du khi-deux décentrée

soit x : (xJ,:, :
,n, un vecteur aréatoire gaussien de dimension n, de roi N (0, rJ. soit d (d;);:16n
un vecteur de lRn, 0n définit la variable aléatoire
:

Y: llX+0ll'= n
(x. + 0il2
i:l
PH TASSI S LFGAIT
LES LOIS DE PROBABILITE USUELLES

Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou de
décentrage) :

n
t Ê,:ll0ll'
^- i:l I

0n la note : X' 1n, À1.

1) Montrer que la loi de Y ne dépend que de la norme de d et non de d lui-même.

2) Calculer son espérance et sa variance.

3) Si (X;);=16n sont n v.a. indépendantes de lois respectives N (m,, a,). 0n dit que U: I X]suir
une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).

lndication

1) Soient 0:10.1,-'un et d' : (dilt:,.n deuxvecteurs de lRntels que lldll : ll0'll

Soit Z:X+0: Z-> N(d,ln)


z' : x + 0' .. z' -> N(d" ln)
2 et
Montrons que llZ ll llZ'll2 ont môme loi.

lld ll : lld' ll = f Anrn orthogonale telle que 0' : A0

d'où :

llZll': llAZll2 : llAX+AAll'? : llAX+0'll"


0r:
AX -> N (0, l.) ; AX + â', -> N (4" ln)

Z' et AX + d' ont même loi, donc llZ ll2 et llZ'll 2 ont même loiX'? (n, lle li'?).

zl E(Y) : J. r1x]f + 2ï. 0 E(X,) + 1. s2 : n+ À


t:l I I

V(Y) : vt i- lx?I +27iXill:


I' : tV(Xlt+ 40?ulxil+4d,Cov(XÎ,Xi)l
i:l i:l '

V(Y) : V(IXÎ) +4À:2n+4À

162 PH.TASSI .S LEGAIT

I
I
LES LOIS DE PROBABITITE USUELLES

3) E(u) =.{, tu(X,) + E21x,}J: zo2 + 2m2


t-l

v (u) : i tt tx]t - r' txJt


i:l .
Comme :

X,-fi,
( --) suit y= 111, on déduit E (Xi- mi)4 - 3 oai
d'où : I

V(U) : :nnl3oa+6n'.o7 *r1I @1,+n?y21 : t Zo:,@?,* 2n1J


i:l ' I I
i:l

4.7 soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités :

X.
p, : t, {t) dt
{'

Montrer que P : - i 2 Log p suir une loiy2 (2n).


i:l '

lndication

P,
.1, F (X,)donc P, -? Aro.r, (cf. exercice 3.1, chapitre 3). 0n effectue le changement de
varraDle:9lx'l : - 2Logx.'
La densité de - 2 Log P s'écrit :

s (t,) : I ,- 1i0, * (v)


2 "' -J
donc - 2 Log P -) X" el; les X sont indépendantes. les p aussi, donc:

i:1

. PH TASSI S. LEGAIT
163
I
Chapitre 5
Géométrie des variables aléatoires

Ce chapitre aborde deux aspecis différents des variables aléatoires. Le premier


est relatif aux propriétés des v.a. admettant espérance et variance ; le second établit
les bases de la géométrie des v.a. ayant une variance finie, et les approximations
de v.a. qui engendreront la régression statistique.

1 ESPACES DE VARIABLES ALEATOIRES


Dans ce paragraphe, nous ne considérerons que des espaces probabilisés ; la
formulation la plus générale fait référence aux espaces mesurés (voir, par exemple,
t 16l)

1 .1 Les espa ces 9 t et L1

Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., si
aucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, inté-
grables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oéga-
lité P - presque sûrement, est une relation d'équivalence sur 9.,.

Définition 1

On appelle L.' (Q, ué, pl l'espace quotient de 9., par la relation d'égalité
P -ps.

L, (Q, ol , e) est donc l'ensemble des classes d'équivalence de 9., par la


relation d'égalité P - presque sûrement. On le notera L, par la suite. En assimilant
v.a. et classe de v.a., L1 est l'ensemble des (classes dei; v.a. admettant une espé-
rance. Par exemple, la loi de Cauchy (cf. chapitre 4) n'appartient pas à L,.

Théorème 1

Ll est un espace vectoriel sur lR normé par :

llxlll : Jlxl dP: E(lxl)

PH TASS] - S LEGA T 165


GEOMETRIE DES VARIABLES ALEATOIRES

Notons que J XOp a un sens pour X € Ll ; on fait la confusion de symbole


entre X et sa classe d'équivalence, car si X et Y sont dans la même classe, on a :

E(X) : E1Y1

ll est facile de montrer que L., est un espace vectoriel. En outre :

o vÀ € rR llixll, llxll, : l,1l .


.llx+Yll,: -ilx*vl op<"flxl dP+Jlvl up:llxlll + llYlll
o llXll., : 0 <+ X : O; en effet, on a vu (chapitre 2) qu'une CNS de
négligeabilité de X est E (lXl) : 0.

On peut alors introduire une notion de convergence dans L.,.

Définition 2
Soit (Xn) une suite de v.a. de L.,. On dit que Xn converge vers X au sens de L.,
L-
(noté Xn + X) si :

llX--Xll, : -llX--Xl dP----> 0 (n*-1


Remargue f
lJ xn on - J xdPl : l-f (Xn - x) dPl < "f lx^ - xl dP

d'où :

L.
Xn-) x '+ E (Xn) E (x)

Remarque 2
->
Plus généralement. on peut montrer que l'espace L1 (O, e' p) est un espace
de Banach, c'est-à-dire un espace vectoriel normé complet. Ce résultat est connu
sous le nom de théorème de Fisher-Riesz.

1 .2 Les espa ces I z et L2


Définition 3
On note 9r(Q,.4, n l'espace des v.a. réelles de carré intégrable. L2(A,,t4, Pl
est l'espacè quotient de 9, par la relation d'égalité P - presque sûrement.
noté Lr.

166 PH TASSI -S LEGAIT


GEOMETRIE DES VARIABTES ALEATOI RES

. L" est donc l'ensemble des (classes de) v.a. admettant un moment non centré
d'ordre 2 (v.a. de second ordre) :

E(X2; : Jx2op < æ

Théorème 2

L, est un espace préhilbertien. c'est-à-dire un espace vectoriel sur lR sur


lequel I'application L2 X L2 ----> lR définie par :

(x, Y)-> <x, Y> : E (XY) : J XY dp


est un produit scalaire.

ll est faciie de montrer à partir des propriétés de l'intégrale que forme


<x, Y> est bilinéaire symétrique strictement positive, c'est-à---dire eit unlaproduit
scalaire.

Conséguence
La norme au sens de L, est notée llX ll, et définie par :

llxllS: JX'?dP ou llxlir: Glx't


La notion de convergence dans L, s'en déduit :

Définition 4
soit (Xn) une suite de v.a.r. de Le ; Xn converge vers ra v.a.r. X au sens de L,
L^
(noté Xn é) X)si :

llXn - X ll, -----> O

i.e E(Xn-X)2-> O (n*-)


Très utilisé en statistique, ce type de convergence porte aussi re nom de
convergence en moyenne quadratique (m.q.).

Exemple

soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, p).on définit, pour
chaque n, la variable aléatoire ofréquence empirique, :

X
-n

PH TASSI S. LEGAIT
167
GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES

x_ ^ 1 . 1 :}: p(1 -p)


t(ï-p)':Ër,*"-np)': , V(Xn)

Fn converge vers p au sens de Lr.

Considérons le cas particulier où la limite est une v.a. constaRte a :

E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2


: V (Xn) + 1E (Xn)- al2

Une C.S. de convergence dans L, de Xn vers a sera :

( ri,.n E(X") :a
lnl
I
I lt'.n V(Xn) :o
(n
Théorème 3 (Cauchy-Schwartz)
Soient X et Y deux v.a.r de L, ; on a :

llxY ll, < llx ll, llY lln

Théorème 4 (Minkowski)
Soient X et Y deux v.a.r. de L, ; on a :

llx+Yll, < llxll, + llYll,


Les démonstrations des théorèmes 3 et 4 seront abordées dans un cadre
général en 1.3.

Remarques
a) Dans le théorème 3, si l'on prend Y : 1 (ps)' on obtient :

llxll, < llxll,


Donc L, C L, et toute v.a.r. admettant un moment non centré fini E (X2) pos-
sècle une espérance finie;L, est l'espace des v.a.r. ayant espérance et variance
f inies.

b) Si, dans le théorème 2, on remplace X et Y par X-E (X) et Y-E (Y), on


obtient :

<X-E(X), Y-E{Y)> : Cov(X,Y)

PH, TASSI S. LEGA1T


GEOMETRIE DES VAR]AB LES ALEATOIRFS

c) Plus généralement, on peut démontrer que L, est complet, c,est-à-dire


possède une structure d'espace de Hilbert.

.3 g
1 Les espa ce ^ppet L_
Définition 5
ge(A, u(, n désignant t'espace des v.a.r teiles que E (lXpl)< * (1 ( p < -),
Lo est l'espace quotient de 9 la relation d'égalité p-ps.
rpar
La norme sur Lp est :

llx ll p : (-f lxl P dP)t to

Les trois propriétés suivantes sont classiques et généralisent celles qui ont
été énoncées ci-dessus.

Théorème 5 (croissance)

X <Y =à llxll p < llyllp


Ce résultat est issu de la croissance de l,intégrale.

Théorème 6 {inégaiité de Hotder)


p ) 1, q ) 1, 1/p + 1/e: 1 :ilXyli,<llxllp llyllq
Démonstration

i) Soita ) 0, /3 > O, a+p - 1.

Montrons que pour f et g mesurables déf inies sur (O, ,rl , pl, on a :

I fo gÊ dp ( I"l" tdttlol! sdpll


Si J fdp : -, l'inégalité est triviale ; de même si I tdp : O, alors f est
g-négligeable, donc fa gÉ également, et I'inégalité est vérifiée à l'égalité. Considé-
rons le cas général 0 < J fdg ( *. On sait que, par ia concavité de la fonction Log :

Ya ) 0, b > 0 Log(aa + Bblè a Log 6+pLogb


our sa + Êb2 a"bB

PH TASSI S LEGAIT 169


GEOMETRIE DES VARIABLES ALEATOIRES

Posons :

lrdp -[sds

fd gP f *B
g

I jrdpY ll sdttlq
.----\u
lrdp l sdp
En intégrant par rapport à p, on obtient :

1r" sB ds ( (a + pl I l fdpl" t-l"sdplq


d'où le résultat annoncé puisque a + F : 1.

ii) Prenons p: P, t: IXIP, s: lvlq, o: +, P: +; onobtient:

J lxYl dP < t"i lxlp dP11/p t"i lYlq dPltzo

Cas particulier
Soit p : 2, q : 2: on retrouve llxYllt
I'i négalité de Cauchy-Schwarz.

Théorème 7 : (inégalité de Minkowski)

Yp21 ilx+Yllp <llxll


" "p
+llYll
" "p

Démonstration.
i) Pour p = 1, on retrouve E(lX+Yl) < E(lxl) + E(lYl).
ii) Soitl<P(oo:
lX+ylo : lX+YI .lX+YIe
< (lxl +lYl).lX+vln-1
: lxl .lx + vlo-1 + lYl .lx + Y;n-t
En prenant I'espérance :

Jlx+vlpdP < "f lxl lX+Ylp dP + -f IYI lX+Ylp-'oP


Or, d'après le théorème 6 :

"ilxl lx+Ylp dP : llx.(x+Yl)p-'ll, < llxllp. ll(x+Y1o-11;o

110 PH. TASSI S. TEGAIT


GEOMETRIE DES VAÊIABt ES ALEATOIRES

lX*yle dp< llyllp.tl(X+y)p lltq


"l"lYl
avec :

11
_+__1,soit p
q p Q:_p-l
d'où :

Jlx+vlpdP: llx+yllB < |lxllp + llyllp) il(X+y;o-1110


Or:
ll(X+ Y)P-1 ll! : J llx + y11 (o-l)a 6p

: -f lX+YlPdP
r.e.
ll(X+y)p- t ll o : llX+y1;n-i
Soit :

llX+ YitB < |lxll p+ llyll J. llX +y11 0-t


et donc :

llx+Yllp < llxllp+ llYlle

2 UN PEU DE GEOMETRIE
Le fait que L. ait une structure d'espace de Hilbert, c'est-à-dire qu'il existe un
produit scalaire. l'orthogonalité, etc., peut nous autoriser à y faire de la géométrie.
Avant de travailler sur I'espace des variables aléatoires du second ordre, nôus allons
rappeler l'interprétation géométrique de quelques-uns des concepts de la statisti-
que descriptive.

2.1 Statistique descriptive géométrique


soit une variable réelle quantitative X dont on possède n réalisations (x,, .... xn).
La statistique descriptive propose un certain nombre d'indicateurs résumant l'in-
formation contenue dans l'échantillon, en particulier :

I la moyenne quadratique

PH.TASSI -S LFGAIT 171


GEOMEIRIE DES VARIABLES ALEAIOIRES

o la moyenne arithmétique :

1n :x.
X:
n i:1 |

. la variance empirique :

s,r- 1

n
I(x -i)2

o la variance empirique modifiée


n^
st :-i
n-1. r(x -x)2 |
n-1
Si sur le même échantillon, on a les réalisations (y.,,...,yn).d'une seconde
variable Y, on peut calculer le coefficient de corrélation linéaire empirique :

I (xi i) (yi - V)
r(X,Y) :

ll existe de nombreux autres indicateurs de tendance centrale ou de disper-


sion:lamédiane, lernode, lesfractiles. l'écartabsolumoyenl tf*i-il, l'éten-
n
due, les intervalles interfractiles, etc. Nous ne présentons ici que ceux qui ont une
i nterprétation géométrique.

A noter également que i, S'2 ou r ne sont que l'espérance, la variance ou la


corrélation linéaire théoriques de X (ou (X, Y))calculées par rapport à la loi discrète
uniforme :

1n
P-
n
n i:1 xi

nommée loi empirique.


Dans lRn, l'échantillon (x', ...,xn)(resp. (yr, ...,v])est
représenté par un point
X (resp. ï ; Ë désigne le vecteur bissecteur, de coordonnées (1 , ..., 11.
Soit H (resp. O) la projection orthogonale de X (resp. Y) sur le sous-espace de
dimension 1 engendré par Ë. Le produit scalaire. Ol,a ) est égal à :

<o1" Ë> : r*, : oX..v6 cosa


OH
aveccosa:
-,d'où:
OX
I*, : OH.\Â; Ott: 16 i

112 PH TASSI . S. TFGAIT


GEOMETRIE DES VARIABLES ALEATOIRES

Dans lRn, pointHadoncpour coordonnées :

H-t.l
/,\
,i.e. OH:i.Ë

\ "/
1
La moyen quadratique q est, près, la longueur OX:
à
- Vn--

OX' : :n x'. - nq'


i:l I

a:.16
1
oX

Comme OX > OH. on en déduit : q ) i.


La variance (ou l'écart-type) est également facilement interprétable :

XH2 : : (xi i)t : ns,t : (n _ 1) 52

ou: XH : .16. S,

PH TASSI S. LEGAIT
113
GEOMETBIE DES VARIABLES ALEATOIFES

Calculons maintenant <HX, OY) :

<HX, OY> - > (xi- x) (yi- i)


: .6s; . .v6s; cos a
où Si et Sidésisnent les écarts-types empiriques de (xr, .. ,xn)et (y.,, ...,yn) :

> (xi i) (vi - v)


cosd: :
ffi r(X,Y)

Le coefficient de corrélation linéaire empirique n'est autre que le cosinus de


l'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennes
respectives.

2.2 Géométrie dans L,


Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégra-
ble L, (Q, .4, gl, muni du produit scalaire de la covariance :
<x,Y>: JxYdP: E(XY)

On désigne pare lavariablealéatoiretelleque e(<..r):1 Va.r €A, P1R):1 '

e engendre le sous-espace de dimension 1 des v.a. constantes, inclus dans Lr.

On sait : E(X-E(X)) :0
E(X-E(X)) : <X-E(X), e):0 + X-E(X) Ie
ll en résulte que E (X) est la projection orthogonale de X sur e.

Remargue

Soit X telle que E (X) : O; alors x I e.

114 PH. TASSI S, LEGAIT


GEOMÊTRIE DES VARIABLES ALEATOI RES

comme dans le paragraphe 2.1 , on peut interpréter géométriquement un cer-


tain nombre de concepts probabilistes.

(x)

V(X) : E(X-E(X))': llx-E(X)ll;


L'écart-type a (X) est donc ra rongueur (dans Lr) du vecteur x - E (x).
Si Y est une autre v.a. ;

<X-E(X), Y-E(Y)>:Cov(X.y) : o(Xl .o(Y).cosd


où dest I'angle formé par les vecteurs X- E (X) et y- E (y).

Ona:
Cov (X. Y)
cosd = o(Xl .o(Yl o(X.Y)

coefficient de corrélation linéaire entre X et y.

2.3 Approximation dans L,


a) Approximation par une v.a. constante
Soit Y une v.a.r. de loi connue ; peut-on I'approcher au mieux (au sens de Lr)
par une v.a. constante ?

PH TASSI. S, LEGAIT 115


GEOMETRIE DES VARIABLES ALEATOIRES

Soit donc à chercher une constante k minimisant le carré de la distance entre


Y et k.llY - k ll; : E (Y - k)t. Le calcul peut être fait directement :
Min E(Y-k)'<+ Min k2-2k E(Y) + E(Y2;+ k: E(Y)
kk
La constante approchant de façon optimale Y est son espérance E (Y).

Géométriquement, la constante la plus proche de Y est la projection orthogo-


nale de Y sur le sous-espace des v.a. constantes engendré par e ; en utilisaFt
I'interprétation géométrique précédente, k : E(Y).

b) Approximation par une v.a. guelcongue


Soit (X, Y) un couple de v.a.r. On cherche à approcher Y par une variable X
proportionnelle à X, I : kX. On considère le s.e.v. engendré par X.

La variable kX la plus proche de Y est la projection orthogonale de'Y sur X :

écrivons que Y-iO( est orthogonal à X.


E ((Y - kX)X) = o: E(xY)-ke(xt)
d'où :

E (XY)
k- E (X')

176 PH. TASSI S, LEGAIT


GEOMFTRIE DES VARIABLES ALEATOI RES

X : E* (XY) . X est la meilleure


"explication lin€laire, de Y par une v.a. colinéaire à X.
E (X')

Nous n'avons fait a priori aucune hypothèse. L'examen du résultat montre


qu'il faut connaître au moins E (x2) et E (Xy) pour résoudre le problème.

c) Approximation affine
soit (X. Y) un couple de v.a.r. on cherche à expliquer y de façon affine par
une v.a. appartenant au sous-espace engendré par e et X, L, (e, X). cela revient à
chercher des constantes â et b telles que la distance ent-re y et âe + bX soit
minimale.

L, (e, X)

ll est clair que Î : âe + bX, projection orthogonale de y sur L, (e, X), est le
point de L. (e, X) le plus proche de Y. Les paramètres â et b sont leJcoordonnées
de Y sur e et X (pour que le problème ne se ramène pas au cas précédent, il faut
supposer X non colinéaire à e, c'est-à-dire X non constante).

Ecrivons que Y -î -J- e, et y - 1-J_ X :

E(Y-âe-bX1 :9
E((Y-ae-ôXlX) :0
â+b e(X) : E(Y)
âE (X) + br (X') : E (XY)

La résolution de ce système en â et b conduit à

E(X'?) E(Y) E(XY)


a: -E(X)
V (X}

PH TASSI S LEC:AIT
GEOMETRIE DÊS VARIABLES ALEATOI RES

^u: Cov (X, Y) : o (Y)


P(x'Y)
wR ooa)
Cov (X, Y)
Y: E (Y) * (X - E (X))est la meilleure approximation affine de Y.
V (X)
Remarque
ll faut, ici, supposer connus au moins E (X), V (X), E (Y). E ff'?), E (XY).

Approfondissement : qualité de l'approximation


lntuitivement. la qualité de I'approximation de Y par un élément de Lr (e, X)
est d'autant meilleure que Y est proche de L, (e, |). Cette proximité est mesurée
par le coefficient de gétermination R' égal à cos' 0, 0 étant l'angle formé par les
vecteurs Y - E (Y) et Y - E (Y).

Remarquons que E (Y) : E (1 par application du théorème des trois per-


pendiculaires.
rrÎ- E llrrÎ
R2
ilY_E(ïil3
Projetons X sur e en Ë (X) et menons de l'origine le vecteur équipollent à
X E (X). Alors, par le théorème de Thalès, la parallèle à e menée de Y coupe
-
x-E(x)enb(x-E(x)). et doncl- e 1Ît b (X- E (X)) :
ll s'ensuit :
V(X)
R2: b2
V (Y)

Appliquons le théorème de Pythagore au triangle rectangle ff,1, E ff)) :

llY-E(ïil3: ilÎ-Et?ttt3 + llY-Î11;


Or llY - E (Y)ll! est la variance V (Y), dite variance totale, llÎ - E (Î)ll3 est ta
variance de ?, Oite variance expliquée par l'approximation affine.
Ën remarquant que, avecZ: y - Î, E lzl: o, llY - ?1; ! est la variance de Z,
dite variance résiduelle. On obtient alors la célèbre formule de décomposition dite
d'analyse de la variance :

Variance totale : variance expliquée + variance résiduelle.


Le coefficient R2 mesure donc la part de variance totale expliquée par la
variance de l'approximation Y :
variance expliquée V (V)
R2
variance totale V (Y)

PH. TASSI . S. LEGA]T


GEOMETBIE DES VARIABTES ALEATOI RES

L'approximation affine sera d'autant meilleure que V (î) est proche de V (y),
c'est-à-dire R2 proche de 1, c'est-à-dire d proche de O.

Généralisation

on peut chercher à approximer une v.a. y par une v.a. située dans le sous-
espace de Hilbert L engendré par (e. x1, ..., xe), où X,, ..., Xo sont des v.a. telles que
L est de dimension p + 1, c'est-à-dire que, quel que soit i : 1 à p, X. n'est pas une
constante et, quels que soient i et j, X. et X, ne sont pas proportionnelles.

9, la meilleure approximation de Y dans L, est telle que :

î:âo*,Ë., ,, *,

où les paramètres âo,âr,..., âo sont calculés en écrivant que :

v-?re
Y-îrx Vi : 1àp
' En écrivant Q la matrice (p + 1. p + 1) de terme général :

@k,n:E(XkXn)
où k, n : 0 à p, avec la convention Xo : e, et en notant ;

â-ltil/:.\ lEn\I /"\


q-['[,1"1,/ o:/elx,v1 *:/{,\
\ âe// \E(xDy) / \x_ I
\ \ / \"r/
PH. TASSI S. LEGAII 119
GEOMETRIE DES VARIABLES ALEATOIRFS

Oâ: b

â: Q-l b,
d'où : 1:t"Q-tb

2.4 lnterprétation des lois du khi-deux et de Student

Soient X', ..., Xn, n v.a. indépendantes de même loi N (0,1); le point X de
coordonnées "cartésienneso (X.,, ..., X") se déplace dans lRn de façon aléatoire, chaque
coordonnée étant au uhasard gaussiënu.

Avec les notations précédentes, la coordonnée de H sur e est X, de loi


N (0, +
1

); la longueur OH : r,6 X suit donc une loi normale N (0,1).


vn
n
La position de X étant aléatoire, OX2 : ,:. X1 est une v.a. dite, par définition,
t- |

suivre une loi du khi-deuxxt (n) (ct. chapitre 4).


Le vecteur Èl
".t
de coordonnée courante X, - *, i : 1 à n ; il estfacile de

voir que X,- i suit une loi normale N (0, / ); en effet :

180 PH, TASSI - S, LEGAIT


GEOMETRIE DES VARIABLES ALEATOIRFS

. E (X -X) : O car Ë estorthogonal au sous-espacede dimension n - l


contenant H1
o V(X,-X) : V(X;)+V(X) - 2Cov(X,.X)

12
1+ (n-
; - ;
(u(Xi) + 1) Cov(Xi, Xj))

-1- n
Pour la même raison d'orthogonalité :

Cov(i, X,-x; : g Vi : 1àn


a) Loi de f; : nSlSçz

Lemme préliminaire
Soient X,, ...,
In n variables aléatoires telles que Cov (X,, X,) : O Vi, j, i+ j
et v (xi) : o'vi. on effectue un changement de base orthogonar, et on note
(Y,. , Yj les transformés de (X,, .... Xj ainsi obtenus.
Alors:Cov(Y,,y,) : O Vi, i i +j.
Démonstration
soient fr, ... f^ les vecteurs de la nouvelle base. Dans l'ancienne base, la I

matrice F du changément de base représente la transformation orthogonale :

/n' rnr\
t:
F- [ t,, rr,
:\
\:t.," .l I

\ ,
^^,/
Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformation
est orthogonale si le système d'axes orthonormés initial est transformé en un
second système également orthonormé), et donc Y : F'X.

ft'\ : (l; l:\ ft'\


\'/ \,^, ,.",/ \-^/
PH, TASSI S. LEGAIT 181
GEOMETRIE DES VARIABLES ALEAIOIRES

.n
Y-
' k:1

Cov (Y,, Y,) : Cov tn !., f


,n
Xn, t,, *,1
,1,,
Or : Cov (Xn, X,) : O Vk ;r 1

Cov(yyl
'r't' : >>f.f,, Cov(Xk,Xt)
k I'n
: >f f. V(Xk)
k'*JK
: o't f..f..
rKlK
:o k

d'après les propriétés des matrices orthogonales.

Théorème de Fisher

Soient n variables aléatoires (X.,,...,Xn) suivant indépendamment la loi nor-


male N (0,1).

n
Les variables 16 Xn et t . (xi - X)t : (n - 1) Si - nS;' sont
l: I

indépendantes et suivent respectivement N (0,1 I et X'(n - 1)

Démonstration
Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée.
n
Le vecteur unité Ë peut s'écrire I ei.
i:1 |

X représentant le poinr t(x.,, ....Inl,on sait que <On, é/\6> : 16 Xn. \Æ Xn


est donc la coo-rdonnée de X sur le vecteu, +Vn unitaire.

Effectuons alors le changement de base tel que f^ :


'nVn +
Nous avons '. "

n
X-
j:1 I t

182 PH, TASSI S. LEGAIT


GEOMETRIE DES VARIAB LES ALEATOIRES

X-Ynfn : X-.6 *"t" : t,t,


:!]
J- |
D'autre part :

n n
X-VnX-t::
' X.e ol --F-
1

n n
l:l -'-i- '-6 Vn i:1 |

n
: -X n'lte
i:1 |

n _ n-1
D'où : : (X,*X)e:
| n'
i:1 ' j:1 I l
Les variables (Xr, ...,Xn) étant non corrélées, le lemme préliminaire permet
d'affirmer que les variables"(y.,,...,y^) sont non corrélées. comme images de
(Xr,, ,Xn) par une appricatiori linéaire, y,, ...,yn sont des v.a.r. normales
.normales
et donc iôdépendantes.

lesX suivantN(O,t),onvoitaisémenrquey ->N(0,1),Vj : t à n. 1


s-,^^^,111'",
ensutt :

. Yn : n6 X" suit N (0,1), résultat que nous connaissons déjà.


o Yn est indépendant de Yr, ...,yn_r et par conséquent, est indépendant de :

n-1
j:l l
n-1
. .
I _ YÎ suit, par déf inirion, une loi du ;2 (n - 1).
j:l '
r L'application orthogonale conservant,les distances ;

n-l n

j:l r i:1
n
et donc
i:1 |

une loi N (m, a) :

Corollaire
Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors :

(Xn - t)
t6 oo, "t rn -rt 5
suivent indépendamment une loi N (0. 1)et une loi X2 (n - 1).

PH TASSI S LEGAIT
GEOMETRIE DES VARIABLES ALEAIOIRES

Démonstration
ll suffit de se ramener au théorème de Fisher en l'appliquant aux variables
centrées et réduites :

X.-m
w-l
t-
to

b) lnterprétation de la loi de Student

soit X,, ..., Xn, de loi N (m, a). on a :

(X
'n -m)
,6 o
->N(0,1)

S2
n-
o"
-ln-1 x2$-1r
Donc, la v.a.r. :

.,6 (x. - r) :n
S

U t

suit le rappor:! d'une loi.N (0,1) sur une loi . /-[Vt" -tt . numérateur et dénomina-
V n-1
teur étant indépendants (cf. chapitre 4).

D'où : .u6 (x. - rn)


-)T(n-1)
n

Où la loi de Student intervient-elle géométriquement ? D'après le théorème


de Fisher, HX2 : (n - 1) Sl suit une loi X' F - 1). On a, en revenant à la figure
précédente :

OH
cotg a : suit
-
HX

d'où N (0,1)
: T(n-1)
:

\Â-lcotga-)

L'interprétation de y2 etI est simple : si X varie aléatoirement et <normale-


mento dans I'espa"", s"s coordonnées polaires également : la loi de p2 : OX2
s'appelle la loi du X2, celle de vGJ cotg d, où a est l'angle (OA, Ë) suit la loi de
Student.

184 PH. TASSI - S, LEGAIT


Chapitre 6
Un outil : la fonction caractéristique

Le calcul des probabilités repose essentiellement sur l'étude des variables


aléatorres. Les chapitres 3 et 4 ont présenté un ensemble..de définitions
propriétés; d'autres' comme.les convergences, seront vues dans et de
le chapitre suivant.
Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique
pour
étudier le comportement des v.a. (somme, indépendance. limitéi: la
fonction caracté-
ristique (f.c.).

1 DÉFINITIoN ET PRoPnIÉrÉs
D'UNE FONCTION CARACTÉRISTIOUE
1.1 Définition
Définition 1

Soit P une probabilité définie sur (lRo,;fo) ; on appelle transformée


de Fourier de
P l'application g, : lRn --+ 0 définie par :

pp(u) =J 6P 1*1
"it'*
Remargue
Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1).
-
confusion avec la fonction caractéristique ne saurait exister.
Néanmoins, ra
soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension.
on appeile
transformée de Fourier de f la quantité :

er(u) = -i eiu" t(x) d,i (x)

ll en est de même si f est une apprication intégrabre à vareurs réeiles.

Remarque
Sous réserve d'existence, on montre aisément en intégrant par partie
:

er(rl(u) = (-1)k (iu)k <pt(u) pour k > 1

PH.TASSI -S LEGAIT
185
UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE

Définition 2
Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? o) : on appelle fonction caractéris-
tique de X, la transformée de Fourier de Px:

çx(u) = çpx(u) = Jsitux 6px (x) = E lsituxl

Avec des notations évidentes, on a :

(i Ë ,, x,)
j=1
91 (u1, .'.'uo)= E e

En particulier, si X est une v.a.r. définie sur (Q.,4,P\,

v u elR, <px(u) = E 1eiux1 : J siux dPx (x)

Remarque.'Y = tu X est une v.a.r. dont la f.c. est:

çy(v) = E (e'uY) = E (evtuxl

La f.c. de X vérifie donc : q (u) = etul(1).

Exemples
a) Soit X une variable aléatoire à valeurs dans (lN, cl (lN)) :

tpx(u) = 2siuxP{x="} .u€lR


x€N

Ainsi. si X est à valeurs sur {1. ..., n} et uniforme :

n n

çx(u) x eiux
= x=1 1 x (eiu1x
n n x:1
n-1
: e'u t (e,u)*
l'l x =O

= eiu 1-"iun
n 1-eru
b)Soit X une v.a.r. absolument continue de densité

f (x) = À e- À' lRi (x)

186 PH. TASSI - S. LEGAIT


UN OL'IIL : LA FONCTION CARACTÉRISTIOUE

On montre, en utilisant l'intégration dans le plan complexe que :

çx(t)= 1

1-Àit
Un cas particulier : la fonction génératrice
Soit X une v.a.r. discrète à valeurs non négatives ; on appelle fonction généra-
trice de X la fonction :

Gx (u)= E (ux) = p(X = x)


"3*u*
définie pour tout u € O, lu I < t.
On a I u* PX = x)l < | u l*, et la série de terme général u" p(X = x)est donc
absolument et uniformément convergente pour u appartenant au disque unité.

La définition de G* revient à remplacer formellement eiu par u dans la fonction


caractéristique de X : tpx (u) = Gx (eiu).

En pratique, néanmoins, les utilisations de G* (u) seront faites avec u réel,


- 1 <u< 1. On remarque en outre que G* (1)= 1

Exemples
a)Si X suit une loi de Poisson de paramèrre À : p [X = *]:
"-i x!
^i
G"(u) : i u*e-i Àx-"-iuu,i:s.À(u-1)
x=O x !

çxft)=ei(eit-1)
b)six est discrète uniforme à valeurs sur
[1, .... n]. le calcul du a)montre que :

G*(u)=u(1 -un)
n(1 -u)
1.2 Propriétés
Théorème 1

Soit X une v.a.r. de f.c. ç, on a :

a) <p(o):1
b) lç (u)l < 1

PH TASS S LEGAIT
UN OUIIL LA FONCTION CARACTÉR ST OUE

c) q(-u)= tpGr)

où la barre horizontale désigne la conjugaison dans C.

Ces trois résultats sont immédiats, et généralisables sans difficulté au cas de


vecteurs aléatoires.

Théorème 2
Soit X une v.a.r. de f.c. g ; g est continue.
Eléments de démonstration
I ç (u +h)-q (u)l = I r ("i"x 1"ir,x - t1)l <r (leinx - t l)
gl. l"ftrx
- 1l= 2lsin hXlO'o,i
2
te résultat, généralisable au cas vectoriel.

Par ailleurs. suriR, il est possible d'établir la continuité uniforme de rp ([16]).

Théorème 3
QaX + b (u)
: eiun çx (au)

En effet,
gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1

Théorème 4 (injectivité)
Si P et O sont deux probabilités définies sur (F.0, ,1lol :

9P= 9O <=> P= O

Si X et Y sont deux vecteurs aléatoires : (Q,,r/, P) + ( 13o,7/?v1

9x= Qv <> Px: PY

Voir la démonstration en [16].


Le théorème 4 établit une liaison biunivoque entre f.c. et lois de probabilité.
Néanmoins, si, possédant une loi, on peut déterminer sa f.c., le problème inverse est
digne d'intérêt : peut-on trouver une probabilité (par sa densité, ou sa f.r.) lorsque
l'on possède une fonction caractéristique ? Le théorème 5 répond en partie à cette
interrogation.

Théorème 5 (inversion)
Si X est un vecteur aléatoire à valeurs dans (lRP,,îel, de f.c. ç (u)intégrable
par rapport à À o. la loi de X possède une densité continue f (x) définie par :

f (x) : (2 î)-P -ç s-itux ç (u) d o


(u)

188 PH TASS - S LEGA T


UN OUTIL : LA FONCT]ON CARACTÉF]STIOUE

En particulier, pour une v.a.r. :

f(x)= 1 I e-i,"p1u;du
2n _*
Dernier point que nous aborderons : comment savoir si une fonction
plexe d'une variable réelle est ou n'est pas une fonction com-
caractéristique ? plusieurs
résultats existent à ce propos.

Théorème 6 (Bochner,1932; t13l)


Une condition nécessaire et suffisante pour qu'une fonction
ç; lR -+ c soit
une f.c. est que soient vérifiées :

a)
ç (u) continue

b)Y N ; V (u,, ..., us) € RN, V (21. ..., zx) € CN :

NN
X X p(ui -u.)2,2,
i= 1 j= 1

est réelle et non négative.

c) ç(0)= 1

Le théorème de Bochner est d'une application peu aisée. on pourra lui


préférer une condition suffisante, par exemple :

Théorème 7 (Palya, t 93a ; It 3l )


Soit I (u) une fonction continue. définie pour tout u réel.
Si q (u) satisfait aux conditions :

a) ç(0) = 1

b) .p(-u) : ç(u)
c) - g (u) convexe pour u ) O

d) lim ç (u)= 0

alors ç est la f.c. d'une v.a.r. X absolument continue.

PH. TASSI S. LEGAIT


r89
UI\ OUTIL : LA FONCTIOI\ CARACTÉR|SIIOUE

1.3 Un exemple de loi définie par sa f.c.


Nous allons utiliser le théorème 5 pour engendrer une famille de lois de
probabilité définie par sa fonction caractéristique.

En 1925, Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par:

Log s (u) = iôu -y lulo [1 + i Bù* (u, a)]


ou: u e lO,21, BG [- 1, 1], y € lR*, ô € iR.

Its+qpourc*1,
w (u, a)= J'
[ +t"nlulpou,o=
On remarque que :

a) pour a= 2,8= o, r = +, ô= o:Log ç(u)= - {,rfu\= e-uzrz

La loi de Paul Lévy se ramène alors à la loi N (0. 1). (cf. 2.7).

b)pour u= 1, B= O, y = 1, ô = O: Log ç (u)= - lu I

On retrouve la loi de Cauchy.

Détermination de la densité
Les conditions du théorème 5 étant réunies, en notant f (x, e. B, y' ô) la
densité de la v.a. de f.c. 9 :

f (x, a, B, y, ô) : J__ e-i'* ,p (u)du


î;
En développant, on a :

f (x, c, B,y, = -Bv luloËlwlu' al e-rlulao,


ô)
* çeil(ô-x)u

--cos

- 1 1\
Jo t(ô - x) u - By w (u' a) ,'1 s-Yue du

Pour a = 1, on obtient donc :

f (x. c, B.y, ô) I li-cos [(x- ô)u +BY uotg qn ]e-vuddu


- 11 .

PH TASSI . S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE

Particularités de la densité
c f (x + ô, a. B, y, ô) : f (x, a, B, y, 0) ; on peut prendre ô = 0, par simple changement
d'origine.
o f (x. a, B. y)= f (- x, o,- B.y).
c f (x, a, B, y) = \- 1/" f (-j-,
t/o
a, B, 1)
\
o f (x, a, B, y) = (3- 1/o f (di, a, B, y /t3)
o f (x. a. B. y) = (By)- t/c f (x/(By)1/u, a, B, 1/{3)
On peut standardiser la loi de Paul Lévy en prenant ô: 0 et y = 1. La densité est
alors :
*-"o,
f (x, c. B)= I f (xu + B uo tg -qI)e-uo du.
7Io2
2 FONCTIONS CARAETÉRISTIOUES
DES LOIS DE PROBABILITÉ USUELLES
2.1 Loi de Dirac
On établit immédiatement : çd-a (u)
: eiua

2.2 Loi de Bernoulli


Si x ->y4 (1, p) :

px (u)= p . eiu + q . 6iuo= p ei' + q


qx(u) = Peiu+q

2.3 Loi binomiale


nn
ox(u)= x^ uiuxçxp*(1 -p)n-^ = t C|(peiul*qn-x
x=0 x=O

ax (u) = (pei' + q)n


2.4 Loi de Poisson
si x -)901:
i uiux Àxe-À -eÀr (Àeiu) *-e-ÀeÀ"i'
çx(u) = x=o
x! - x x!
{eiu - 1}
ç1 (u) = 'l
"
PH. TASS] S. LFGAII 191
UN OUTIL : LA FONCTION CAFACTÉFISTIOUE

2.5 Loi uniforme continue


si x -)?/ p, 1: çx (u)
=
g-
IU

2.6 Loi gamma y (p, O)


çx (u)= (1 - Oiu)-P

2.7 Loi normale


Si U -> :N (0, 1) qu (u)= e-'2/2
Si X->N(m,cr): X= m+oU:
(m +au)) = sium gu (uo)= dum u*u2 2/2
gx (u) = E (siu

2.8 Loi du x 2 (n)


six->x2(n) ' çr(u)=_4
r^ r''
ftziu)tz

2.9 Loi de Cauchy


Si X est de derrsité f (x)= -l--:
n (1 +xz)

9x(u)= s-lul

2.1O Loi de Laplace


Soit X de densité f (x) = e- l* l, x € iR
+
.px(u)=
' *2 |o-"-(1+iu)dx.{ J]-"-x(1 -iu)6*
20
+@
= 1 to
l*-
[e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.e-xdx
i
En intégrant par parties :

çx(u) = [-e-*cos ux]fr-u Ji sin uxe-xdx

= 1-u "f0 sinux.e-xdx

192 PH. TASSI S. tEGA]T

i
I
i

t
UN OUTIL : LA FONCTION CAFACTERIST|OUE

= 1+ u [e-x sin ux]f- - u2 { cos ux. e-x dx

= 1-u2çx(u)
d'où : ex (u) = 1

1+u2

2.71 Loi normale multidimensionnetle


Soit X à valeurs dans lRp, de loi N (m, X) ; u étant un vecteur de Rp, tuX une
v.a.r. de loi N (tum, tu Xu). La f.c. de tu X est :

gtu* (v) = siv fum) s-(u Eulv2/2

d'où . qx (u) : çtux(1)= situm s-ruDu/2

2.',2 Loi multinomiale


Soit X = t(Nr. ...., Nr) un v.a. de dimension k de loi multinomiale
t6h: p1. ...., pp) (chapitre 4); la f.c. de :

k
tuX: t uj Nj
j=1
est:

9t,* (v) x pÎ, plk eiu,=51,,"


= ---J-]-_ --

où la somme porte sur tous les k-uples (nr, ....,nn)vérifiant I n, : n.


j=1

Qt,* (v)= x (p1 eiu'')n'.." (ppeiu'r'1nt


o'fî
k
=( t pj eivur )n
j=1

Env= 1: k
9x (u):( X pi ei'i ;n
t=1

PH. TASSI S. LEGAIT


1 93
Ù\ OIJTIL : LA FONCTION CAFACTÉRISTIOÙE

3 APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE


Outre son utrlisation dans le cadre de la convergence en loi, qui sera étudiée
au chapitre 7, la f .c. aide à établir un certain nombre de résultats parfois laborieux
à démontrer par usage direct des définitions. Nous en développerons trois.

3.1 Loi d'une somme de vecteurs aléatoires


Théorème I
Soient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp,;4p),
de f.c. respectives ex et gr:
Çx n y (u) = çx (u) çv (u)

Démonstration :
gx *y (u) = E (situ (x*YD = E (eitux situvl

Par séparaton des


i"iii:;i:i:il l',1,i,"1 ;:iïiiff'
Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires
indépendants. Si (X,), i = 1 à n, sont indépendants. qi étant la f.c. de X', alors :

qlu) = ftçi (r)


Xxi i=1
Exemples:
a) Les calculs faits en 2.3 et 2.4 montrent qu'une v.a. de loi binomiale
l3F, ù est la somme de n v.a. indépendantes suivant la loi de Bernoulli.'/(1, p). De
même :

7Bb, pl + ,/J (, p) = J3 (n + 1, p)
b) Si X et Y suivent deux lois de Poisson indépendantes de paramètres
respectifs À et p, alors :

Qx * v (u)
: çx (u) çv (u) = u( À + u) lsiu -11

qui est la f.c. d'une loi 9(À+p). D'après le théorème d'injectivité, si X et Y


suivent indépendan"rment des lois de Poisson g( el 3(pl, alors X + Y suit la loi
,?(À+ p). ^)
c) Soient X et Y deux v.a.r. indépendantes de lois respectives v (p. 0 ) et
y (q, g ). La v.a. X +Y suit la loi y (p + q. A ).

En effet:ex*y(u)= (1 - I iu)-p.(1 -0iu)-a: (1


-diu)-n-cqui est l'expression
de la f.c. d'une loi Y (P + q, 0 l.

PH TASS1 .S LEGAIT
UN OUTIL : LA FONCTION CARACTÉRIST|OUE

d) Soient X et Y deux v.a.r. suivant indépendamment des lois normales

N (mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1 *"| I.

En effet :

gx * v (u) - giuml en'41' gium2 grz o:l' : giu(m1 + m2) e42 (t *


4)l'
e) Soient X et Y deux variables aléatoires indépendantes suivant respective-
ment deux lois du x2ànet m degrés de liberté. Lav.a. X+ysuit une loi 12(n + m).

3.2 Caractérisation de I'indépendance de deux vecteurs


aléatoires
Théorème 9

Soient Xt et X, deux vecteurs aléatoires à valeurs respectivement dans


(lR?.r'tn\ et (tR9rdq). On note:
x _,x..
,X, ,
dedimensionp+q.

a)V (u.,. u2)€ lRp x lRq, ex, (u1)= ex (u1. 0)et O1, (u2)= Ox (0, u2).

b)X' et X, sont indépendants si et seulement si V (u1, u2) e lRp x lRq, gx


= ex, (u1) e1, (u2).
(u.,, u2)

Démonstration

+tu2x2))
a) 9x (u1, u2) = E (si(tutxt

çx (ur, 0): r (eitutxt;= ex' (u1)

et ex (0. u2) = E (eituzxzl = ex, (u2)

b) Si X1 et X, sont indépendants alors :

gx (u1, u2)= E (situtXt ,itu2x21= E (eiturxr; E (eituzxz;

= e1' (ur) e1, (u2)

Réciproquement, on suppose eue gx (u1. u2): ex., (ur) ex, (u2).

PH TASSI - S. LEGAIT
UN OUTIL : LA FONCTION CARACTÉRISTIOUE

Pour montrer.que X, et X, sont alors indépendants, il suffit de prouver que


Px = Pxt @ Pxz fl-héoième dè FuOlnl, chapitre 2).

Calculons la transformée de Fourier de P = Px1 @ Px2 '

gp (u1, ur) = J +tu2x2l dP (x1, x2)


"i[tu1x1
tu2x2l
= J silturxr +
d (px1 @ px2) (x1, x2)

= J siturxr dpxl k1) J situzxz dpx2 k2)


:9x., (ur) ex, (u2)

donc ç, = ,po*, ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2


sont indépendants.

3.3 Obtention des moments non centrés


Théorème 1O

Soit X une v.a.r. appartenant à Ln (Q, ,v/ , Pl, c'est-à dire :

Vk<n,E(lXlr)<-
Alors rpx, f.c. de X, est dérivable au moins jusqu'à l'ordre n et, pour tout
k,k=0àn:
,pj[)(o)= ik E Xk)

Démonstration

Pourtoutk,k= 1àn:

.pl[) (u) =# çx (u) : o*4 S.


siux 6pX = i, # siux 6pX

= J ,'i "k siux 6PX


En effet, la fonction (u, x) --+ siux ss1 continue sur lR x lR ; elle admet pour dérivée
d'ordre k:

_9!eiu* - ;k 1k
"iux
auk

qui forme une suite de fonctions continues sur lR x lR.

1 96 PH. IASSI S. LEGA T


UN OUTIL : LA FONCTION CABACTÉRIST]OUE

En outre, ik .l _ xk 6pX est uniformément convergente sur lR car :


R "iux

| .f xk ei,* dPx I < E (lxlk)< -


et on peut donc permuter les opérations d'intégration et de dérivation. ll suffit alors
de prendre u = 0 pour obtenir :

.pjf)(o)= ik E fik)

Remarque
Réciproquement. si ex admet des dérivées en o jusqu'à l'ordre n, alors X
admet des rnoments non centrés au moins jusqu'à I'ordre n.

Exemple
Soit X une v.a.r. suivant une loi normale N (m, a), de densité

f (x) = 1 s- $ -ml2/o 2

t /Zi
On sait que :

9x (u) = sium - o2 u212

ç* (u) = (im - ua 21 sium - o2 u212

ç; (u) = - 02 sium - o2 u2/2 + (im


- uo212 sium - o2 u2/2

D'où :
ç; (o)= im er E x)= m

q; (O) : - 02'ri2 *2 = i2 92+ m2)et E X2): q 2 + m2,soir V


Vl= o2.
Remarque I
Le théorème 1O peut être étendu aux vecteurs aléatoires X = t(Xr. ..., Xo)de
dimension p :

(ur,..., uo)\=
1a"ç ," r XT' .xfiot,
I aurol .... ,lo /,0, . , o,
p
avec X &::
l
î.
i=1

PH TASS] . S. LËGAIT 191


UN OUT L -A IONCTION LARACILR S] OUL

Remarque 2
Un résultat analogue existe pour les v.a.r. à valeurs entières non négatives en
considérant leur fonction génératrice. En effet :

6{r<)(u)= ;.(x-1)... (x-k+ 1)ux-kp(X: x)


x= k

et donc 6(k) 1r)donne le moment factoriel d'ordre k.

F1r.1
: E (X (X - 1) (X
- k+ 1))

Exemple 1

Pour X de loi de Poisson ;" ( G" (u) : ,r(u - 1), et donc :

^), "
C,[t]1u1:À ke.r(u-1)

F1r.1
: G[)(1)= i k
(résultat établi par le calcul direct au chapitre 4).

Exemple 2
k
SiX -> "//(n; p1, ...., pp)de f.c. çx (u)-(x pr eiui)n
1=1
en utilisant les propriétés liant les moments aux dérivées de çx en O, on peut
retrouver la matrice des variances-covariances de X :

ôpx (u) = n (x pj eiuj)n-l ip, ei,i


à'i j

Enu- O.ona' u**(o) = inp, = iE(Nr),


ôuj
E (N,) : nR,

a2ç_x (u) : _ 1\i2 ple2iui(I p;


n (n - 2

uzui )
"iu;;n

+ n i2 pj (l p, eiuiln - t
",
?' q* (o)= - n (n - 1) p3 - n p,,
a2u)
d'où : E 621 : np, (1 + (n - 1) pi)

et V(X)=nBi (1
-pi).
1 98 PH TASSI - S. LEGA]T
UN OUTIL : LA FONCTION CARACTÉRISTIOUE

Enfin ;
a3f n (n - /'
1) iz pj pr ei,j eiur 1I pj eiuj)n
,lyl =
Zuratt= j

= i2EXj Xr)
d'où : E (X; Xr )= n (n - 1)pt p

et Cov (X,. X, )= _ n p; p
Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c..
pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normale
LN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculer
E X) = E (eY). On peut procéder à un calcul direct
lifrapitre 4).- Or .

rpy (u) = E (eiuv1 = 6ium


"-u2t212
Pour retrouver E (X). on "fait " u = i et E (X) = um+o212.De même
- :

E6z; : E(ezv1;avecu= -2i,E(x2)= s2m e2o2,soitv(x)= s2m+t2@o2 _l).


ll est clair que ceci n'est que mnémotechnique, puisque u est réel, et ne peut être
priségal à-iou-2i.

4 SECONDE FONCTION CARACTÉRISTIOUE

4.1 Définition et propriétés


Définition 3
On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica-
tion de lRp dans C définie par :

ue lRp-wx(u):Logçx(u)
on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o :

ex (u): r . ,"
"i, *.ï1
oùmn=E(Xn).

: Log (, *"f,
*la ,"
Auvoisinagedeu:0, +k(r) )esrdéveloppabte,

PH. TASSI . S, I FGAIT


199
UN OUTIL : LA FONCTION CARACTÉR]STIOUE

et on peut écrire :

x ry
wx(u)= k=r k!
KkK

ona: Ë**=vp(o)
Définition 4
La quantité Kn s'appelle le cumulant d'ordre k.

On obtient aisément les expressions liant Kp aux moments :

vx (u)= + (
H mn )3+ .
Tlmn -( "?, Hmn)2
.

,'?,
"?,,

=ium1 - 'æ (mz-mf1 + +f (ms-3m1 m2+2m!)+...

On en déduit :

Kr = mr Kz= mz- m? = pz
Ks= ps Kc= Vc-gp|
Exemple.- pour une v.a. X de loi N (m, o ), on a :

v* (u) : ium - u' ?'


2
et donc :

Kr=m=E(X) Kz=02=Vfi)
Kr= 0pourk)3
Au même titre que les moments non centrés, les cumulants caractérisent une
distribution de probabilité. lls seront donc des outils précieux.

Propriétés des cumulants


Les cumulants possèdent diverses propriétés intéressantes :

a) Soit a une constante réelle quelconque : on sait Que gx * u (u) : uiuu qx (r)
et donc :

t#y*"(u)= iua+w"(u)

PH. TASSI S LEGAIT


UN OUTIL : LA FONCTION CARACTÉFISTIOUE

En désignant par Kn fi + a) le cumulant d'ordre k de X + a et Kr fi)celui de


X,ona:
K1 (X+a)= KrX)+a;KpX+a)= Krfi) pourk>2
b) Soient deux v.a.r. indépendantes X et Y, de fonctions caractéristiques g*
et çy:
V1*y(u)= W*(u)+Wy(u)
et, avec des notations claires :

Kp (X + y) = Kr 1X)+ Kp (y)
c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réel
quelconque ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivée
k ième ".
On définit la fonction g(x) par :

sk)= [exP(-t)-#] tk) (k€ lN)


L'opérateur g(- 1)kaak/tl représente :

;
j=o
(- t;;n
j !(k l)r 3+
On a donc :

(x) = f'\"/
sv\"' (x) f(k) (x) * a2 f(2k) (x)
- "" k! 2l (k!)2

En notant Far gr (resp çs) la fonction caractéristique de f (resp. s) on a, par


linéarité :

on (u) = ç, (r) - fr arrrl (u) . a*. ,p,''*' (u; -....


2t 1u1z
Or on a vu que: rp4ry(u)= (- 1lk (iu}k çr (u). et on peut écrire:

ps (u) = er (u) f ; ---3i- (iu)lt r


i=o j!kl)j '-'
1

= Ar (u) ea
(iu)k,/k I

wn (u)= w, (u) + _Â (iu)k

PH TASSI S, LEGA|T
UN OUTIL : LA FONCTJON CARACTÉR]STIOUE

ll s'ensuit que le coefficient O" (! l)n dans le développement de en (u) est


k!
égal à Kr+a; avec des notationsévidentes, Kk(s)= Kp0+a.

d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, (ar.),

k>'1, une suite de réels. On définit g (x)par:

s 8): h [f (x)]

où h est l'opérateur exp t ; ap (- 1)k dklk I l


k=l
æ

g (x)s'écrit sous la forme s (x) = ) 'l r.f(k\x)' avec Ào = 1'


k=o
On a, par un calcul analogue au cas (c) :

Kk (g) = Kp (f) + aç. Pour tout k > 1

4.2 Application aux développements d'Edgeworth


et de Gram-Charlier
On souhaite approximer une densité g (x), de cumulants connus, à l'aide
d'une densité.connue.f (x).et de ses dérivées, c'est-à-dire rechercher un développe-
ment de la forme :

g(x):f(x)+ À 1 f'(x)+ À 2f" (x)+ ...

où les coefficients À't, À 2,... sont connus.

Supposons qu'une telle expression de g (x) existe. En notant Kp (f) (resO. Kp


(g))le cumulant d'ordre k de f (resp. g). âvêc âp = fo (S) - Kk 0' on peut écrire
formellement :

s (x)= exp. I k=i l


un t- 1)k dklk lF (x)

soit: a? +a^
s (x) =f (x)- a' f' (x) . f" (x)
#
t_"? -_3r,
"*_". )
3!
fl3)(x)

_ aI + 6a1 ar+ 4a, at+ ao )


* (------- it+l1xy+...
4 |

242 PH TASSI -S LEGAIT


UN OUT|L : LA FONCTION CARACTÉRIST]OUE

Les coefficients i ,, À r, de l'expression recherchée de g (x) dépendent de


a1' 42, ..' :

:- at, À z=
u? !^u, ,
^1 2 "r".
La correspondance entre les an et lesÀn est biunivoque.

Si on travaille sur des variables centrées et réduites, alors a., : ar: O, on


obtient un développement simplifié de g (x):

s(x) =rt") - #J! fl3)ft)+ hOo,(x)+..

Application au cas gaussien

Le cas historiquement le plus étudié correspond au choix f (x) = ç (x), densité


de la loi normale centrée réduite. On cherche alors à écrire une densité g(x) de
cumulants connus (associée éventuellement à une variable centrée et réduite) en
fonction de la densité ç(x) et de ses dérivées.

Théorème 11

soit g (x)une densité sur lR supposée admettre un développement selon ç (x)


et ses dérivées :

g (x): ; Às çk)ft)
k =o

Alors :

(- 1)k
,^k:
kl J s (x) Hp (x) dx

Démonstration

D'après la définition des polynômes de Hermite,


*tr) (x)= (- 1)t nn {x) e (x)

et g (x) s'écrit : x (- 1)k À r Hr (x) ç(x)


k=0

PH IASSI -S IEGA]T
203
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE

Pour un indice j donné, on a :

sk)Hi 14= ; (-1)kiuH,(x) Hnk) e(x)


k =o

et, en intégrant et d'après la propriété 3 du chapitre 4

t__r(x) H; (x)dx= (-1) Àj j!

À j= (,1)'l-Lr"r H;k)dx
t.

Remarque:
Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'une
variable de densité g (x), d'approximer les coefficients i u.

;,.,
Ainsi, H1 (x)= x et Ài = - Jx g (x)dx sera estimé par - --1-' ;

i"3 1 ' etc'


demême.
- L,f k2* 1)s(x)dxseraestimépar i=-1 -
^z= 2 2n 2

Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées. Si les


données sont centrées et réduites, a1 = az= O,comme en outre t<n (O) = 0 pour
k > 3, on obtient :

s 8)= q (x)-
*â,f,
+(|)- *(s)fi). e(a)(x)+ ...

Or. d'après la définition des polynômes de Hermite,

*(n) (x): (_ 1)n Hn (x) e k)


d'où le développement d'Edgeworth de g (x) :

s (x): q (x) t'' . oâï) k2 - 1).


oâ'l' (xa - 6x + 3)+..'l

s(x)=q(x) tt+ lsjg) F2-1) - r^'Z\ ka-ox+3)+...1

PH. TASSI _ S. LEGAIT


UN OUT]L : LA FONCTION CARACTÉRISTIOUE

comme pour ra loi g. p1 (s) = o et pz (u) = 1, on a p3 (o)= et p+ (9)


/ilb)
= 82 (S). B.' et B, étani les coefficients de Pearson d'asymétrie et d'aplatissement de
g ; ceia donne (cf. chapitre 4), en utilisant la notation /., et / des coefficients de
Fisher :
,

s(x)= ç(x) t1 + -6-


Yt (x3
- 3x) + (xa
- 6 x2 + 3)+ ... l
T
Par intégraticn, on obtient une approximation de la fonction de répartition G (x):

G(x)= o(x)-ç(x) t+1xz-1) +rt'V3 -3x)


+- Y? 1x5-10x3+ 15x) *... l
72

Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peut
éerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç,
ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie de
termes qui est utile en pratique. Malheureusement, rien n'assure que l'approxima-
tion de g donnée par un nombre fini de termes soit positive en tous points, et que
la qualité de l'approximation augmente avec le nombre d'éléments retenus.

Pour terminer, nous avons supposé a priori que g (x) admettait un dévelop-
pement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, que
si g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate tS"gll, exz/z dx"onu"rge,
I
et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :

g(x)= t ar qk)1x1
k=o k !

avec âr = Is (x) Hk (x) dx


Cette série est absolument et uniformément convergente pour x € [--, *1.

PH TASSI S LÊGAIT
UN OJIIL . LA FONCTION CARACTER|STIOUE

EXERCICES

6.1 : X suit une loi N (0, o). Trouver la f.c. de Y = Log I X I

Indication
1
(u) e-^2no2 dx
9v
o S lxliu
l2n lR

2
e-r2/2o2 dx
5x'u
otfZn
lR*

1
@tEP r tl-tt
lzi
6.2: (X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;, 1), j= 1 à n.
n
Déterminer la f.c. de Y =E Xi.
j=1 '

lndication

iumf

9xz (u) = (1 - 2 iu)- t/z -ziu


, 't
,,,
ntz :2iu
çv (u) = (1 - ziul- s1

n
F (cf. exercice 4.6, chapitre 4)que Y suit une loiduX 2 non centrée.
avec À2 = mf ;on sait

luo PH. TASSI S. LEGAIT


LES CONVERGENCES DE VARIABLES ALEATOIRES

Démonstration

Xn-â:+r(n)
r(n,
(Xn-a).

D'après le théorème 17, b) :

(n) (Xn _ a)l9j X


+ (Xn a) !91 O,
___*0
1 -
d'où Xn ! a, d'après le théorème 16.

5 LES LOIS DES "GRANDS NOMBRES"

Ces lois établissent des propriétés de stabilité des sommes ou des moyennes
cumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limite
en convergencg el probabilité (on parle alors de loi faible) ou en convergence
presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands
nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn) , n 21, une suite de v.a.r. indépendantes et de même loi,
appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
n
1 :.x, :xnI m
n l:l
En particulier :

Théorème 20 (D. Bernoulli)

Soit (An) , n2 1, une suite d'événements indépendants de même probabilité


p ; on considère la v.a. sn comptant le nombre d'événements réalisés parmi
(4., , ..., An) :

9ot o
n

Remarque

Ces deux théorèmes établissent des lois faibles, puisque les limites sont en
probabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, la
probabilité d'un événement étant la limite (en probabilité) de la fréquence empi-
rique de son nombre d'observations dans une suite d'expériences inôépendantès.

PH. TASSI S. LEGAIT ZZJ


LES CONVERGENCES DE VARIABLES ALEATOIRES

Démonstration
puisqueXnl m o Xn !9i *, rontrons la convergence en loi. Notons par I
la f.c. de Xn , pour tout n.

9=(u) :ç>x; (u) :c2x,(9) :[.r(9) ]n


xn

Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc a'(0) aussi, ç' (0) :
im.

Ecrivons : e(t) :1*imt+qt)


:1*im9+o(9)
e(g) ,
nnn
ç_(u) :[1 *im9+O(q) ]n,
wîn
lim9- (u) :ei tu'
nXn

Or on sait gLle ei m u est la f.c. de ôn,. Frobabilité de Dirac en m. D'après le


théorème 9, Xn lo! m, d'où le résultat.

Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.


(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont
indépendantes et vérifient :

Itt*":1]:p
tt{*"-oJ :1-p.
Sn XXi désigne alors la fréquence empirique, ou probabilité empirique.
nn-

Théorème 21 (Loi des grands nombres dans L2)

soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on
note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors:
I

Xn?m.

224 PH TASSI - S. LEGAIT


LES CONVFRGFNCES DË VAFIABLES ALEATOIRES

Démonstration

ll X^-mll
2
2: ,(;r-J,
\n /
:e( 1>txi
n -m) )2

-1n2 no2

02 I
n (n-æ1

Théorème 22 lLoi forte des grands nombres)


(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :

o si Xn € Lr , m désignant E(Xn), pour tout n :Xn 4s il


r si Xn Ç t-, (e I Xn | : + -) :Xn est p.s. non borné.
Ces lois des grands nombres justifient, en terme de probabilité, I'utilisation
de la moyenne empirique comme indicateur de tendance centrale en statistique
descriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenne
empirique basée sur le n-échantillon converge vers une constante qui est I'espé-
rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même de
la variance empirique.
Théorème 23

Soit (Xn) , n )- 1, une suite de v.a.r. de L2, indépendantes et de même loi,


avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :

c,2
sn - 13 (xi
- xn)2
n i:1
Alors :

q.2! oz.

Démonstration

sn2:11xi-Xn)?
n i:1
Xn ! . =t X-n)2! m2 (théorème 6)

et 13 x?I E(xz) - m2 + o2
n i:1
(loi faible appliquée à la suite (Xl)), Oonc :

8,2 ! "z
PH. TASSI - S, LEGAIT 225
LES CONVERGENCES DE VARIABLES ALEATOIRES

Se trouve ainsi justifié le choix de la variance empirique comme indicateur


classique de dispersion en statistique descriptive.

Remarques

Dans la démonstration du théorème 23, nous avons appliqué la loi faible à


rIl
> X? . En effet, puisque Xn e L2 , E(Xfi)existe, et on est dans les conditions du
- i:1
I1 |

théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux
remarques importantes :

a) soit mp le moment non centré d'ordre k d'une v.a.r. X :

mr: E(Xk)'

(Xr, ..., Xn,...r)désignant une suite d'observations indépendantes de la v.a. X,


le moment emprnque est :

m1 (n) :1i-x1
n l:l
Sous réserve d'existence de E( I X I k ) :

mk 1n;! m*

b) De même, le moment centré empirique 1rr (n) converge en probabilité vers

/r.: E(X
- E(X))k. En effet, 1lr
" (n): ni:1
1 3 fX,
-X)k
s'écrit en fonction des rnoments

non centrés m; (n), j: 1àk :

k r-i
1lr (n) : >q (-1)k-j mr '(n) m; (n)
J:O
c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe :

13 n1x,1 eE(h(x))'
n i:1
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de
Poisson CI ()'l ;

226 PH TASSI - S. LEGAIT


LES CONVERGENCES DE VARIABLES ALEATOIRES

l3 1 pEr 1 r
n i:11 * X, \l + X,

1_t: i
e/\1+Xt tr e-ÀÀ" int : 1-e-À
x:01 *x x! -9-^
À y:1y! À

6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSTENS


La no'tation N(0, >)désigne, dans cette partie, autant la loi normale que tout
vecteur aléatoire suivant cette loi.

Théorème 24 (théorème central limite multivarié)

soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépen-
dants et de même loi, tels que g : E(Zn) et L matrice de variance-covariance
de Zn existent. Alors :

'rn En - r/)lg N(0, >).

En particulier :

Théorème 25 (théorème central limite unidimensionnel)


(Xn), n )
1, est une suite de v.a.r. indépendantes, de même loi, et apparte-
nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
On définit la v.a.r. :

v^n-- (èIJ__11l : /_n_frn__rl


æ o

Alors :

vn loj ru 10, r 1.

Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème


24.

a) Théorème 25
On peut écrire :

Yn : rÆ I 3 tl---l) : 1 i f{,--qf
ni:1 ' o JÂi:1' o
PH TASSI - S. LEGAIT 227
LES CONVERGENCES DE VARIABLES ALEATOIFES

Soit e la f.c. de X:---I , indépendante de i ; la f.c. de Yn s'en déduit :

cyn(u) :[*(Ji) ]"

Comme E(H-)- O et E(Ii--I)'? - 1, en développant e à I'ordre 2, on


obtient :

: t -r!+ott)
e(t)

soit: cyn(u) :[1- i1+o (r=l ]"

et : ,'il *"n (ul: s-u2 / 2.

On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9, Yn !9 rtftO, f t.

b) Théorème 24
Posons Xn^: ty ?n pour u € lRp ; alors Xn est une suite de v'a.r. indépen-
dantes et de même loi, avec :

E(Xn) : tu ,u et V(Xn) :
tu I u,
et : ''/; fr" -'u /,,) l9j ruto,
tu u) I
d'où : tu /Ï (Zn p)19 tu N(0, :) vu € IRP
-
et, d'après le théorème 10 :

JÂ En - /) lg N(0, >).

Remarque

De la même façon que pour le théorème 23, les théorèmes 24 el25 peuvent
se généraliser à toute moyenne empirique l- I f"',tX,l. sous réserve d'existence de
n i:1
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de la
variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la
généralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations
indépendantes de X :

Ç2:li-xrt-x-n)2,
n l:l
v(x1) : E(x1)
- E, (x1) - m4
- ^3: mq - oa

228 PH, TASSI , S. LEGAIT


I ES CONVERGENCES DE VAR]ABLES ALEATOIRES

Considérons la quantité :

rn I *, - rrxztt
J-n t! ''
q!gj_4 - i:1 '
J n.4=;-4 Jn@l - {_!-6d
Jn@l
D'après le rhéorème centrat limite, appliqué n
l,ir*1 ,

n
/Â(:ni:1x?-E(x2))
' _LolrutO,fl.
/Tm
En outre :

*
;;r:: ï Ë :i: ï,îï:"ïT:"',
D'où, par le théorème 17
./ n çXnf "E o,

et:
Jl (q2
- o2) loj ru(0, t).
J^æ
Pour E(X) * 0, on obtiendra :

Cls="'?) !9,! ru(0, rr.


/ p;-
Théorème 26
Soit r : lN * lR- telle que lim r(n) : * oo. a une constante réelle, et (Xn),

n )- 1, une suite o" u.".r.n*îitiunt ,

r(n) (Xn - a) !g N(0, o).

Soit g:lR *lR, dérivable.


Alors : g
r(n) (g(X.) s(a)) *,0, o I g' (a) l).
-
PH TASSI - S. LEGA]T 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES

Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :

g(a) : (x a) S'(a) * (x a) R(x),


S(x)
- - -
où: lim R(x) :0'
x-a

c'est-à-dire
x_al (o + I R(x)l (e,
:

Ve)O, 3o)0 :I

d'où :

{l Xn aI ( o}C {l R(Xn)l ( e },
-
P{l xn aI <a}( P( I R(xn)l ( e
- ).

Or, d'après le théorème 18, Xn ! a, et donc :

(o } : + :
lim P{l Xn
- al 1 lim P{l R(Xn)l <e1
n
1,

c'est-à-dire :

R(Xn)! O.

ll s'ensuit :

(n) (g(X.) : r(n) (Xn a) s' (a) -F (Xn a) (n) R(Xn).


- - s(a)) -
D'après le théorème 17, (n) (Xn a) R(Xn)! O, et r(n) (Xn a) g'(a)
- -
I *,0, I s' (a) | o), d'où le résultat recherché.

Très utile en statistique mathématique lors de l'étude de comportements


asymptotiques, ce théorème est aisément généralisable au cas multidimen-
sionnel :

Théorème 27
Soit r:lN -lR* telle que,l'g rtnl : -Fæ, a un vecteur delRp.
(Xn). n ) 1, une suite de vecteurs de lRp tels que :

r(n) (Xn
- a) !g N(0, >).

Soit g : lRp - lRq différentiable, G sa matrice (q, p) des dérivées premières :

230 PH. TASSI S. LEGAIT


LES CONVERGENCES DE VARIABLES ALEATOIRES

/ôv dsr\
| ôÇ tÇ\
:l::l
qg" d3" I
\ Uu,' a"p
\ /
Alors :
(n) (g(Xn ) s(a))E *,o, G(a) r tG(a)).
-
Exemple
soit X une v.a.r. de loi de Poisson q)i, xnl, n2 1 , une suite d'observations
1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :
:
P(X 0).

On sait que :X-n P À (loi faible des grands nombres).


Par le théorème central limite :

fi-fr-n - À) lg N(o, /r)


Soit g : lRl - lR] définie par u * g(u)_: e-u. Par le théorème 6 :

e-Xn p e-À .
En outre
/î (sfr-") - s(À)!g N(0, .^-l - e-À |
:

6 ("-"- - "-^)lgj nto, e-r ../ r).

7 APPLICATION AUX LOIS DE PROBABILITE CTASSIOUES

7.1 Loi de Poisson


Théorème 28

Soit X une v.a. suivant une loi de poisson I (xl. Alors la variable y - X- À
converge en loi vers N(0, 1), lorsque À tend vers l'infini. JT
Démonstration

Soit la v.a. Y -
,(r_ J ),,
J)\ /x
PH. TASSI . S. LEGAIT 231
LFS CONVERGENCES DE VABIABLES ALEATOIRES

tr lsitl - t;
çY(t) :"-it'Æu
it it'l/À -t2/z)'l
çv (t) - '/-r eÀ(+
"-
d'où : py (t) : u-t2/2
1,11_
Or e- t
2/2 est la f.c. de N(0, 1), et donc :

'H::N(0'
X-À loi 1).

Flemarque.' On écrira I 1x:r - N(À, ./À).

7.2 Loi binomiale


Théorème 29 : loi binomiale et loi de Poisson
Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :

. p est fonction de n
olimnP(n) =À(À>0)
n

ona: xn9g\,l.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n): 1 (n p(n)) ;= O.
n
:
P(X: x) CI P'(1 - P)n - x -
.n(n-1)...(n-x*1) Px (1
xI (1 -p)n.
- p)"
P(X:x) (nP)te-nP À'e-À,
n*oo Xt n-*co Xt
nP*À nP-À
d'où le résultat.
232 PH, TASSI. S' LEGAIT
I
I
I
I
I

I
I
!
LES CONVERGENCES DÊ VARIABLES ALEATOIBES

b) Utilisation des f.c.


:[1-B(1 u)
cyn(u) -ei ]n;
Log eXn (u) - -*
- np(1 - ei ') (p 0),
et: lim çx^(u) :e-À(1-eiu).
l"l -+oo
np*À
On reconnaît la f.c. de g ()rl.

La loi de Poisson est souvent appelée "loi des événements rares", car loi
limite du comptage du nombre de réalisations d'un événement donné, de probabi-
lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de
Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi
limite mais comme loi exacte.

Théorème 30 : loi binomiale et loi norrnale


soit Xn une v.a. suivant une loi binomiaie lE (n, p). Pour p fixé, lorsque
n-**æ:
I!---!q l9j r'rto, rI
/ nqp
Démonstration

On aru (chapitre 4) que la loi binomiale.4(n, p) est la somme de n lois de


Bernoulli #{'1, pl indépenciantes.

En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,
i:1
on a, d'après le théorème central limite :

n
! Y;-np
-_h_9ru(o,rr
Remarque
En pratique. on pourra approximer laloig(n, p) par la loi N(np, /n ptt - p[,
bien que cette écriture n'ait pas de sens mathématique.

PH, TASSI - S. LEGAIT z-1-)


LES CONVERGENCES DE VARIABLES ALEATOIRES

Exemples

a) Soit X de loi g (9l.Par lecture de table de la loi de Poisson :

P(X < 18) :9,9t't,.


Par l'approximation normale :

,!9,9,
P(X < 18) : P1P,o, 1) < : o(3) : 0,9987.

b) Soit X de loi 9(5O;0,01). Par lecture directe de la table de la loi binomiale:


P(X : O) :0,6O50.

Par l'approximation de Poisson g(O,51et lecture de la table correspondante :

P(X:0) : 0,6065'

c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :

P(X<5) :0'4312'
Par l'approximation gaussienne :

P(x<5) :P(-!-1-(o) :0,5.


/50fr.J - oZ
L'approximation gaussienne sera d'autant meilleure que l'on s'écarte des
conditions du théorème 29.

7.3 Loi gamma


Théorème 31
Soit X une v.a.r. de loi gamma, ilp, 1). Lorsque p tend vers I'infini, on a :

{--p-toj N(0, 1).

"/n
Démonstration
X
La v.a. Y - /p - /p admet pour f.c. :

çy (u) : s- iu /F çx (l-)

PH TASSI . S, LEGAIT
LES CONVERGENCËS DE VARIABLES ALEATOIBES

:s_iu
\c/
ah _iU_\-p

- e- iu /F leiu ,rp - u2lzy

lim çv (u) : e- u
2tz f .c. de N(0,
, 1).
p*èo

7.4 Loi du X (n)

Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la


v.a. Un de loi{2 (n).

a) Théorème central limite

Par définition, Un: 3 X], où (Xi), i) 1, est une suite de v.a.r.


i:'l
indépendantes et de loi N(0, 1). Alors, par le théorème central limite :

Un
- E(un)
: t]_n_= n loi
wrù;i /Â
rrrto, rt.

En effet, E(X?) :1, et E(Un) : n; de même,


V(Un : n v(X]) : ntE(X1)
- 11.

On a vu au chapitre 4 :

',lr
rrt-L
2'
' - 24/2' f(b - 4.q. 1:
E (X4,) 3,
22
2

d'où :

V(Un) : 2n.

b) Approximations de Fisher
La plus utilisée est la suivante :

JM - lTÂ lo! ru(0, r).

PH TASSI - S. LEGAIT 235


LES CONVFRGENCFS DE VARIABLES ALEATOIRËS

On trouve également la convergence ci-après, que I'on montre moins rapide


que la précédente :

/zu" rq;toi N(0, 1). -


c) Approximation de Wilson-Hilferty

fi:L'i^)!g
----E-- ruro, rr

./ gn
On peut établir que la meilleure approximation asymptotique est cette
dernière, suivie par la première approximation de Fisher, qui est pourtant celle
usuellement employée dans les tables numériques de la loi de X'.
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi
vers la loi N(0, 'l) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.

7.5 Précision de l'approximation gaussienne donnée par


le théorème central limite
Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations
indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui ne
restreint en rien la généralité de l'étude).
Si ç(u) désigne la f.c. de X. on sait que :

rt(u) : Log e1r1 : l 1 1iu! ç,


j:2 jl
où K, est le cumulant d'ordre j de X.

{n
Soit Yn: y'nXn:+.:.Xi . Si cn désigne la f.c. de Yn, on a:
y'n l:l

ûn(u) : Log çn(u) : n Log çlu/JÂl


oo
:nI (iu)J Ki
i:2il nitz
1 1(i,)ar+*'.'
--\22 + srJ;(iu)3K.+
- 4!n

130 PH. TASSI S EGAIT


tES CONVERGENCES DE VARiABLES ALEATOIRES

On constate au passage que le cumulant d'ordre jde yn est K, n1-jl2.


Comme qn(u) : eÛn(u). on a :

en(u) : [' 1 + =!iu)3K.


- + ftiu)+ro + ]-(iu)oK! + ... I
"-u2t2 3l/n 4!n 72n
En utilisant la formule d'inversion (théorème 1s, chapitre 6) et la remarque
suivant la définition 1 du chapitre 6, la densité fn de yn est :

fn (x) : ! f (u) du
2tr u "-,u**n

: ç(x)- t *rr,., (*) + J- Kaçtat t*) + lKl çlot (x) +


6/n -
...
24n 72n'

En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), on


obtient :

rn(x):ç(x) [1.Ks*3;3-Wf
ou.
fn(x) = ç(")[ 1 * Ks ({
ovn=gx)
*
r3*o+(gr. rar*)*, + gr.
-rs r3)*+ + (+sr3
- - rsr31
72n

. .. Par intégration, on obtient une approximation de la fonction de répartition Fn


deYn:

Fn(x): otx) [&Hz=!r) *


3If1. .
f-r t3tlr.l1
t o'.Æ- 72n

PH. TASSI - S. LEGA1T 231


LES CONVERGENCES DE VARIABLES ALEATOIBES

EXERCIOES

7.1 * Soustraclion , de khi-dsux

ffii:d. irioopËnoânte de-V' telle qué x :


SoientXetY.deuxv'a.r.suivantrespectivementleslorsxz(p)etX2(q)(p>q)'SoitZ
Y + 7'
Montrer que Z suit une loiX2 (P q)
-
lndication
"'u'bsuw" çx (t) : cy $) cz (t) en raison de l'indépendance entre
Y et Z.

çz $) :(] = ?'lli'i è zt x2 (p - q)
(1
- 2it)Prz
(1 _ Zitlp-A/2

7.2 Loi hYpergêomêtrique


(ru, n, p), X converge en loi vers la loi
Montrer que sr X suit une loi hypergéométrique Je
g(n, p\ quand N tend vers + æ, n et p Ïlxes'

tndication Cto ,fti _ n t (Np)* (Nq)no


- Cl
-r px qn
- x.
px (x) :-q- .,
N -- N.
xJ(n _ x) I
7.3 Soit (Xn)n ufle suite de v.a' indépendantes, de même loi de densité :

6N.,
f(x) : s- t'' e\ 1rc,a- 1
(x), 0 > 0'

1) Donner la loi de t, : .,Iiln *'


quadratique (12) vers a'
2) Montrer que Yn converge en probabilité et en moyenne
3) Vers quelle loi converge la v'a. n(Yn - 0) ?

lndication

0) - 1- (1 F(ï)n oÙ F est la f'r' de Xn'


1) Fyn -
VY>0,F(Y) :1-e-(Y-e)
d'où :
rrn (v) : (1
- g- (v-o)^)116,
+ -1 (Y)

frn (Y) : n e-(Y - o)n 1td,1-1 (V)

2) P{ I Yn gI <.1 : Fyn (0+.) - Fvn (0-')


-
g-(d+ t-o)n
- 1- - 1
- 0-'n' 1

lorsque [- æ, d'où Yn! o .

PH TASSI S LEGAIT
23A
LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS

Démonstration

Xn-a:+r(n)
r(n)
(Xn-a).

D'après le théorème 17, bl :

r(n) (Xn a) !9j x


- +
- a)!9
(Xn o,
1
---:- 0
-
d'où Xn ! a, d'après le théorème 16.

5 LES LOIS DES "GRANDS NOMBRES''

Ces lois établissent des propriétés de stabilité des sommes ou des moyennes
cumulées de v.a. dans une succession d'expériences, stabilité au sens de la limite
en convergence el probabilité (on parle alors de loi faible) ou en convergence
presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands
nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn), i )- 1, une suite de v.a.r. indépendantes et de même loi,
appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
n
I :-x, :xn! m
n l:l
En particulier :

Théorème 20 (D. Bernoulli)


Soit (An) , n21. une suite d'événements indépendants de même probabilité
p ; on considère la v.a. Sn comptant le nombre d'événements réalisés parmi
(4,, , ..., An) :

9ot o
n

Remarque

Ces deux théorèmes établissent des lois faibles, puisque les limites sont en
probabilité. Le théorème 20 justifie l'approche fréquentiste des probabilités, la
probabilité d'un événement étant la limite (en probabilité) de la fréquence empi-
rique de son nombre d'observations dans une suite d'expériences indépendantes.

PI, TASSI - S. LEGAIT 223


LES CONVERGENCES DE VARIABLES ALEAÏOIRES

Démonstration
puisqueXn! m o Xn lol r, rontrons la convergence en loi. Notons par I
la f.c. de Xn , pour tout n.

e.(u) :ç>x; (u) :v;x,(1) :[9(9) ]n


xnn

comme les v.a.r. appartiennent à L1 , E(Xn) existe, donc a'(o) aussi, ç'(0)
:
im.

Ecrivons'. e(t) :1*imt*O(t)


e(9):1*im9+o(1) ,
nnn
ç_(u) :[1 *im9+O(q) ]n,
tnnn
limg- (u) :ei tu'
nXn

que ei m u est la f.c. de


or on sait ô., probabilité de Dirac en m. D'après le
théorème 9, Xn lo! m, d'où le résultat.

Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.


(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont
indépendantes et vérifient :

( P{xn: 1} : p
I
ttt*^-o]:1-p'
Sn IXi désigne alors la fréquence empirique, ou probabilité empirique.
nn-

Théorème 21 (Loi des grands nombres dans L2)

Soit (Xn) , n21, une suite de v.a.r. de L2, de même loi et non corrélées. On
note m : E(Xn) , o2 : V(Xn) , pour tout n' Alors :

x"km.

224 PH, TASSI - S. LEGAIT


LES CONVERGENCES DE VARIABLES ALEATOIRES

Démonstration
3*, \
llx. -
2
mll 2:E
+-^)' = e (lx(Xi
n - m) )2

:1 no2
n2

-!2n (n-oo1
-
Théorème 22 (Loi forte des grands nombres)
(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :

o si Xn € Lr , m désignant E(Xn), pour tout n :X; LS m ;


r si Xn S t-, (e I Xn I : + -) :Xn est p.s. non borné.
Ces lois des grands nombres justifient, en terme de probabilité, l'utilisation
de la moyenne empirique comme indicateur de tendance centrale en statistique
descriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenne
empirique basée sur le n-échantillon converge vers une constante qui est I'espé-
rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même de
la variance empirique.
Théorème 23
Soit (Xn) , n 2 1, une suite de v.a.r. de L2, indépendantes et de même loi,
avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :

c'z:13
Tt-4 (Xi
-Xn)2.
n i:1
Alors :

ç,,2 p
+t- 02.

Démonstration
.n
9.,2:L: x]-x-")?
n i:1
Xn ! t - X-n)2! m2 (théorème 6)

et r_3 x?! efiz) - m2 + o2


n i:1
(loi faible appliquée à la suite (Xfr)), oonc :

9'2 ! "z
PH. IASS] . S. LEGAIT 1aÈ
LES CONVERGENCES DE VARIABLES ALEATOIFES

Se trouve ainsi justifié le choix de la variance empirique comme indicateur


classique de dispersion en statistique descriptive.

Remarques

Dans la démonstration du théorème 23, nous avons appliqué la loi faible à


rIl
:ni:1> X1 . En effet, puisque Xn € L2 , EfiÎ)existe, et on est dans les conditions du
I

théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux
remarques importantes :

a) soit m1 le moment non centré d'ordre k d'une v.a.r. X :

mr : E(Xk)'

(Xr, ...,Xn, ...)désignant une suite d'observations indépendantes de la v.a. X,


le moment empirique est :

m1 (n) :13.x1
n l:l
Sous réserve d'existence de E( I X I k ) :

mk 1n1! m*

b) De même, le moment centré empirique /r (n) converge en probabilité vers


.n
lrr : E(X E(X))k. En effet, /r." (n) - I.I s'écrit en fonction des moments
- ni:1-(Xt -X)k
non centrés m; (n), j: 1àk :

/.rr (n) : k! q t-t)t-j m; (n)


J:O 'l-j(n)
c) Plus généralement, si h est une fonction réelle telle que E( I h(x)l ) existe :

-n
I!
n i:l
ntx't!E(h(x)).

Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de
Poisson Q 6l :

226 PH. TASSI - S, LEGAIT

!4.
LES CONVERGENCES DE VARIABLES ALEATOIRES

lin i:11 -r1X,pe/\1 1 r


+ x/

tr r 1 \
Lr_r:Ë_:_: i1 o-ÀÀx e-À i,rt 1-e-À
\1+X, x:01 *x x! À y:1y! À

6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSIENS


La notation N(0, >) désigne, dans cette partie, autant la loi normale que tout
vecteur aléatoire suivant cette loi.

Théorème 24 (théorème central limite multivarié)

Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépen-
dants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariance
de Zn existent. Alors :

,rn En
- ll) lg N(0, :).
En particulier :

Théorème 25 (théoràme central limite unidimensionnel)


(Xn), n) 1, est une suite de v.a.r. indépendantes, de même loi, et apparte-
nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.

On définit la v.a.r. :

.n:__m
y-
-
(:Xi)
- nm. : /_n_frn__rl .

Alors :

Yn lo! ru (0, t )'


Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème
24.

a) Théorème 25
On peut écrire :

Yn:,/nl3 èl--t) : 1 31Ir--lly


ni:l ' o ' o fii:1
PH TASSI S LEGAT 221
LES CONVERGENCES DE VARIABTES ATEATOIRES

Soit ç la f.c. de L t , indépendante de i ; la f.c. de Yn s'en déduit :

o
vyn(u) =[*(r*) ]"

comme E(XL- rl) - o et E(LI)'? - 1, en développant e à l'ordre 2, on


obtient :

ç(t) : t-Ï+o(t)
2

soit : cyn(u) :[1-u'+o(*l ]"


et : trn (ul: s-uz / 2.
"f
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9. Yn !91 r,rtO, I t.

b) Théorème 24
Posons Xn : tu Zn pour u € lRp ; alors Xn est une suite de v.a.r. indépen-
dantes et de même loi, avec :

E(Xn) :tu g et V(Xn) : tu E u,


et: fi fr-n
tu /r)
- I
*,0, tu r u)
d'où :
tu fi (7n p)!9j tu N(0, >) vu €
- IRP

et, d'après le théorème 10 :

,/Â 1Zn - s)lg N(0, :).


Remargue
De la même façon que pour le théorème 23, les théorèmes 24 et 25 peuvent

se généraliser à toute moyenne empirique 1 3 frX,i, sous réserve d'existence de


n i:l
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergence en loi de la
variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la
généralité du résultat), 02: V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations
indépendantes de X :

Ç2:13.x1
n l:l -fr-n)2,
v(x1) : E(x1)
- E2 (x2il - m4
- ^7: - 04
^o
228 PH, TASSI - S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIFES

Considérons la quantité :

JÂ t! 3 *,
Gl93-41 - -'ni:l ' -
E(x2)|
'-6-6rE
/ n4 o-4 - dn$ J-v1xzy

D'après le théorème central limite, appliqué a ]- 3 xU ,

ni:1 |

n
,/i t: : x? - E(x2))
ni:1 ' lt.
/Tm -9r.rlo,
En outre :

*
i;r:: ï Ë :: ï,î:::"ïi:.,
D'où, par le théorème 17
!
:

,/î1Xnp o,

et:
{T $"2 - o2t !91 rrrfo, r t.
l^;---7
Pour E(X) * 0, on obtiendra :

/-_ni$3-g1 !9 r'rto, rr
/ u_ _;n
Théorème 26

Soit r : lN * lR- telle que lim r(n) : * *, a une constante réelle, et (Xn),

n 2 1, une suite d" u.u.r.nGïfirnt ,

(n) (Xn - a)lg N(0, o).

Soit g :lR - lR, dérivable.

Alors : g ,,n, o I g' (a) l).


(n) (s(X.) s(a))
-
PH.TASSI -S LEGAIT 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES

Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :

g(a) : (x a) g'(a) * (x a) R(x),


S(x)
- - -
où : lim R(x) : g,
x-a

c'est-à-dire
x-al (a = I R(x)l (e,
:
ve)0, 3a )0 :I

d'où :

{l Xn aI ( o } C {l R(Xn)l ( e },
-
P{l xn a I <a } ( P(l R(xn)l ( e ).
-
Or, d'après le théorème 18, Xn ! a, et donc :

lim P{ I Xn a I ( o } : 1 + lim P{ I R(Xn) I ( e1 : 1,


nn -

c'est-à-dire :
R(Xn)I O.

ll s'ensuit :

(n) (g(x") : r(n) (Xn a) s'(a) * (Xn


- a) (n) R(Xn)'
- -
s(a))

D'après le théorème 17, r(n) (Xn a) R(Xn)-B O, et r(n) (Xn a) s'(a)


- -
loi ru(0, I s' (a) I o), d'où le résultat recherché.

Très utile en statistique mathématique lors de l'étude de comportements


asymptotiques, ce théorème est aisément généralisable au cas multidimen-
sionnel :

Théorème 27
soit r:lN -lR'telle que,l'A tt"l : *oo, a un vecteur delRp'
(Xn), n ) 1, une suite de vecteurs delRp tels que :

r(n) (Xn
- a)!g N(0, >).

soit g : lRp * lRq différentiable, G sa matrice (q, p) des dérivées premières :

PH. TASSI . S. LEGAIT


230
LES CONVERGENCES DE VARIABLES ALEATOIRES

/ ôst dgr \
G- lôÇ 4\
l::l
\ô-s" ful
\ uu' a"p /
Alors :

(n) (g(X.) !9 tG(a)).


- s(a)) ruto, G(a) x
Exemple
Soit X une v.a.r. de loi de Poisson qù, Vn), n) 1, une suite d'observations
1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :
P(X : 0).
On sait que : Xn ! À (loi faible des grands nombres).
Par le théorème central limite :

vG fr-" À)lgJ N(0, /r)


-
Soit g : lRl -* lR] définie par u * g(u)_= e-u. Par le théorème 6 :

e-xn ! e-À .
En outre t
,/Â (sx-"t - s(À)!g N(0, /À | e-À | )
-
G (" xn - "-n)!9j ruto, e-r /T).

7 APPLICATION AUX LOIS DE PROBABILITE CLASSIOUES

7.1 Loi de Poisson


Théoràme 28

Soit X une v.a. suivant une loi de Poisson g 15,. Ators la variable y: X
- À
converge en loi vers N(0, 1), lorsque À tend vers I'infini. JT
Démonstration

Soit la v.a. Y - {-}=I--J),


/T J\
PH TASS] S. LEGAIT
LES CONVERGENCFS DE VAFIABLES ALEATOIRES

I lsitl/f - 11

çv (t) : u- lt '/f, u
it itl\^ -tz/zltl
çv (t) - "-
"Â eÀ(+

d'où : çv (t) : .-t2/2


i.I}*
Or e- t
2/2 est la f.c. de N(0, 1), et donc :

X-À
'Ë5N(0,
loi 1).

Remargue.' On écrira I 1x:r: N(À, /À).

7.2 Loi binomiale


Théoràme 29 : loi binomiale et loi de Poisson
Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :

. p est fonction de n

rlimnP(n) :À(À>0)
n

ona: xn9g\\|.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n) : 1 (n p(n))n= O.
n
P(X:x) =CXP'(1 -P)n-":

n(n-1)...(n-x*1) px (1
xt (1 -p)n.
-P)'
P(X:x) (Ue-nP À'e-À,
n*æ Xt n-oo x!
nP-À nP-À
d'où re résurtat.
232 PH' TASSI 'S LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES

b) Utilisation des f.c.


cxn(u) :[1-B(1
-ei ') ]n;
Log eXn (u) - - np(1 - ei ') (p * 0),

et: lim çx^(u) :e-À(1'eiu).


h*co
np*À
On reconnaît la f.c. de g ()rl.

La loi de Poisson est souvent appelée "loi des événements rares", car loi
limite du comptage du nombre de réalisations d'un événement donné, de probabi-
lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de
Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi
limite mais comme loi exacte.

Théoràme 30 : loi binomiale et Ioi normale


Soit Xn une v.a. suivant une loi binomiale g (n, p). Pour p fixé, lorsque
n*+æ:
IL- ,g 19,! rrrto, tl
f,qp
Démonstration

On a1'u (chapitre 4) que la loi binomiale %ln, p) est la somme de n lois de


Bernoulli vd(1, pl indépenclantes.

En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,
i:1
on a, d'après le théorème central lirnite :

n
L Y,-no
' I
i:l l'? tttto' r t'
/ ^pq
Remargue
En pratique, on pourra approximer laloig(n, p) par la loi N(np, /n p(1 - p)),
bien que cette écriture n'ait pas de sens mathématique.

PH, TASSI S LEGAIT IJJ


LES CONVEBGENCES DE VARIABLES ALEAIOIFES

Exemples

a) Soit X de loi g (91 Par lecture de table de la loi de Poisson :

P(X<18; :g'gnt,.
Par l'approximation normale :

P(X < 18) : P1P,o, 1) < l9,9, : a(3) : o,9e87.

b) Soit X de loi 9(5O;0,O1). Par lecture directe de la table de la loi binomiale:


P(X=O) :0'6050'

Par l'approximation de Poisson g(O,51et lecture de la table correspondante :

P(X:O) :0'606S'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :

P(X < 5l: 0,4312'


Par l'approximation gaussienne :

P(x<5) :P(.-!_-1- (o) = s,5.


'/sox0,1 x0,4
L'approximation gaussienne sera d'autant meilleure que I'on s'écarte des
conditions du théorème 29.

7.3 Loi gamma


Théorème 31
Soit X une v.a.r. de loi gamma, y(p, 1). Lorsque p tend vers I'infini, on a :

I--tloj N(0, 1).


/p
Démonstration

La v.a. Y X ./p admet pour f.c.


- Jp -
:

çv (u) = g-iu /0.rx tf)


PH. TASSI S, LEGAII
LES CONVERGENCES DE VARIABLES ALEATOIRES

-e-iuAh-i ,\-P
\yo/
: s- iu /F
leiu '5 - u2tZy

lim çv (u) : e- u 2tz , '1.c. de N(0, 1).


p*oo

7.4 Loi du X (n)

Plusieurs approximations en loi existent lorsque n tend vers l'infini pour la


v.a. Un de loiX2 (n).

a) Théorème central limite

Par définition, Un: i X], où (Xi), i) 1, est une suite de v.a.r.


i:1
indépendantes et de loi N(O, 1). Alors, par le théorème central limite :

grlg!.1-: 9n--.lt !9 ruto, rt.


@J JT;
En effet, E(X?) : 1, et E(Un) : n ; de même,
V(Un : n v(X]) : ntE(X1)
- 11.

On a vu au chapitre 4 :

rÉ + '!t'_
E(X4,) -24/2 2 4.9.1: g,
' f(b 22
2

d'où :

V(Un) : 2n.

b) Approximations de Fisher
La plus utilisée est la suivante :

Jzvn JTti -Tlol ru(o,


- r ).

PH, TASSI - S. LEGAIT attr


LES CONVERGENCES DF VARIABLES ALEATOIFES

On trouve également la convergence ci-après, que I'on montre moins rapide


que la précédente :

/4 -
J^to! N(0, 1).
c) Approximation de Wilson-Hilferty

3Æ tt
n - \ -2_l
V
---T--
9n/ to! ru(0, t).

t/ gn

'suivieétablir que la meilleure approximation asymptotique


On peut est cette
dernière, par la première approximation de Fisher, qui es! pourtant celle
usuellement employée dans les tables numériques de la loi de X''
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi
vers la loi N(0, 1) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.
l

7.5 Précision de l'approximation gaussienne donnée par


, le théorème central limite
I Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations
indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui ne
I restreint en rien la généralité de l'étude).

I Si 9(u) désigne la f.c. de X. on sait que :

ii-1
t, ,lt(u) : Log ç(u) : .I^ l. (iu)t K1
t', t:, t,

où K, est le cumulant d'ordre j de X.

{n
Soit Yn = ./n Xn : ' I Xi . Si .rn désigne la f.c' de Yn, on a :

Jn i:1
ûn(u) : Log qn(u) : n Log çfu/Jnl
oo
: n I- (iu)r.- Kj
i:21 nltz
1 1(i')ar4+"'
--!22 * St,/i(iu)3K"+
- 4!n

236 PH. TASSI - S. LFGAIT


LES CONVERGENCES DE VAF|ABLES ALEATOIRES

On constate au passage que le cumulant d'ordre j de Yn est K, n1-ll2.


Comme pn(u) : eÛn(u), on a :

en(u) : [1+=!iu)3K.' 1-1-1iu1+ro+J-(iu)6r!+.


"-u2/2 ' 3l/n 4ln 72n 1

En utilisant la formule d'inversion (théorème 15, chapitre 6) et la remarque


suivant la définition 1 du chapitre 6, la densité fn de Yn est :

fn (x) : !2tr uf "-,u^*n (u) du


: ç(x)--1- rrrtst
- (x) + ^l- e(o) (x)
24n t*) +' =!Kl
K4ç,@t + ...
6Ji 72n é

En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), on


obtient :

t
rn(x) -ç(x) [1-[*3.Wt
ou:
fn(x) : ç(*)[ 1 *
Kg (t:;g^)
*
r3"o+(sr.
-rs r3)r+ + (+sr3
- rar.)r, + gr* - rsr321
72n

. .. Par intégration, on obtient une approximation de la fonction de répartition Fn


deYn:

Fn(x) : o{x) [[elf$ . try*fuf

PH TASSI - S, LEGAIT
IES CONVFRGFNCES DE VARIABLES ALEATOIRFS

EXERCICES

7.l " Soustraction ' de khl'deux


(p) et X2 (q) (p > q). Soit Z
soient X et Y, deux v.a.r. suivant respectivement les lois x2
ùili.â. irioepènoante de Y. telle què X Y + z' :
Montrer que Z suit une loiX2 (P - q).

lndication
çx (t) : çv $) çz(t) en raison de I'indépendance entre Y eTZ'
c7 $l : (t' - ?'llX',l
2i11orz
: => z - x2 (P - q)
(1
- (1 _ Zi11p-a/2

7.2 Loi hypergéométrique


p), X converge en loi vers la loi
Montrer que si X suit une loi hypergéométrique J0 1ft, n,
fi(n, p) quand N tend vers + r et p fixés' -,
lndication qo Cfti _ n! (Np)r_(!',lq)n-' -
r,lrl -
Cl x.
Px (x) :-q .,
* -- rl (n;i -l px qn

7.3 Soit (Xn)n


6N.,
ufle suite de v.a. indépendantes' de même loi de densité :

l(x) : s- tt - a) 1te, +* i (x), 0 > 0'


1) Donner la loi de t. : .,Plln t'
2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers O.

3) Vers quelle loi converge la v.a. n(Yn - 0) ?

lndication

1) Fyn (Y) - 1- (1
- F(ï)n où F est la f'r. de Xn'
VY>o,F(Y) :1-e-(Y-o)
d'où :

rrn (v) : (1
- s- (v-a) n) 116, + -1 (Y)

frn (Y) : n e- (Y - u)n 1l u,1 -1 (V)

2) P{ I Yn
- 0I (e 1 : Fyn (0+.) - Fyn (0-.)
:'l -g-(o+e -o)n:'l -0-'n--1
lorsque n - æ, d'où YnI o .

PH' TASS] S. LEGAIT


238
LES CONVERGENCFS DE VARIABLES ALEATOIRES

E(Yn
- ul, : iî (v
- o)2 n e- (v - a)n f,y : !* i; ,, ,-, O,

:1r(r) :? -o
n2 n2
æ, d'où Yn L2 6
lorsque n - mq
.

3) Soit Zn : n(Yn
- o). La densité de Zn est :

g(z) :e-t110,+q(z).
La loi de Z est indépendante de n.

\
r

PH. TASSI S, LEGAIT t20


Chapitre 8
Compléments et approfondissements
sur les lois de probabilité

Le chapitre précédent a montré I'importance du concept de convergence


appliqué à des variables aléatoires, à leurs fonctions de répartition, à leurs
densités, à leurs fonctions caractéristiques, ou à leurs lois de probabilité ; la
convergence suppose implicitement la notion de distance entre les divers élé-
ments dont on étudie le comportement asymptotique.

Nous nous proposons dans ce chapitre d'étudier plus formellement les


distances pouvant exister sur l'espace des v.a. ou de leurs caractéristiques
associées ; nous introduirons également un ordre sur les lois de probabilité.

LES DISTANCES

Dans tout le paragraphe.'l'espace probabilisable de réféi'ence est (0, .c/l oit 0


est un espace topologique muni d'une distance d, complet, séparable (il contient
un sous-ensemble dénombrable dense), :/ est la tribu borélienne de {1. I désigne
l'ensemble convexe de toutes les probabilités sur ({-1, dl, I est l'ensemble des
fonctions de répartition associées.

1.1 La distance de Paul Lévy


On prend 0: lR.

Définition 1

La distance de Paul Lévy entre deux fonctions de répartition F et G de I est


définie par :

dL (F, G) : inf{e > O / Vx F(x - e) e ( G(x) ( F(x * e) * e}.


-
PH. TASSI - S. LFGAIT 241
CON/PLEN4ENTS ÊT APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

F(x)

F(x e)
-

x-É x x*e

dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x,
appartenir au "tube" ainsi engendré autour de F.

1.2 Distance en variation


Définition 2

Soient P et O deux probabilités de I de densités respectives f et g par


rapport à une mesure p o-finie.

La distance en variation entre P et O est définie par :

du (P, o) : lP(A) - o(A)


fdp I

ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations :

a) dv(P,O) -1-(P^O) ({))

où P Â O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité par
rapport à É{.

b) 2dvP, O) :-[ldP-dOl

Exemple

On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : s- x. 1,^ (x),
+
et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, (x).

242 PH TASSI - S. LEGAIT


COMPLEMENIS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBAB{L|TE

2 du 0(l,oUto, rl: JR+ I t(*) - s(x)l dx

2 du : Ji tt - "-x1 dx + f,- e-x dx : 2


e

du (z(1)!Ùp,
rl : :
t_
e
0,3679.
1

Remarque
Considérons sur lR la restriction de la distance en variation à la elasse'€des
intervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autre
que sup I ptt- -, x[)
XX - o(]--. xt)l : Sup I r(x) G(x)l , rlresp. G) désignant la
-
fonction de répartition de P(resp. O) ; cette distance porte le nom de distance de
Kolmogorov dK (F, G).
Sur I'exemple proposé, on a F(x) : (1 e-x).
1to, rl (r) +11p+ (x) et G(x) :
^ -
1t,, * qfo,
-1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et 11

est égale à !.
e

1.3 La distance de Hellinger


Définition 3
La distance de Hellinger H(P, O) entre deux probabilités P et O de I est
définie par :

-i (/æ - faoyz
H2 (p, o) :
Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel,
ona:
H2 (P, o) : -[ (fi - 'u[,12
dp: 2(1 - I lfr apl.

Définition 4
On appelle affinité entre P et Q la quantité :

a(P, O) : I 1tg7t/2 dU
ll est immédiat que 0 ( a(P. O) < 1.

H2 s'écrit : tl2|, O) : 2(1


- a(P, O)),
et: o<H2(P,O) <2
PH. TASSI . S. LEGAIT 243
COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

Exemple
H2 (z('t ),%to, ,l : 2(1 _Jô /""- dxl -- 2 tfr- u

H(v(1), qro, ,11: 0,6528'

1.4 Distance de Lipschitz


On suppose que la distance d sur () est majorée par 't ; si ce n'est pas le cas,
,.d
on munit () de la distance d' : '
1 +d
Définition 5
On appelle distance de Lipschitz entre deux éléments P et O de9la quantité
dLi (P, O) définie par :

d., (P, O) : ryp-l J ,/dP -f ,/dO


-
lrey
I

où 9: { r/ : 0 - lR / I,l t*l û (V) I < O(*, y) }, ensemble des fonctions


réelles lipsch itziennes.
-

1.5 La distance de Prohorov


lntroduite en 1956, elle est définie sur 9. A étant un sous-ensemble non
vide de 0, et e un réel strictement positif, on appelle e-voisinage fermé de A le
sous-ensemble A€ de 0 tel que :

A':{x€0l inf d(x,y) (e }.


v€A
Définition 6
Soient P et O deux éléments de @. La distance de Prohorov entre P et O est
définie par :

dp (P,O) :inf{e >O/ P(A) <O(A€) +e,YA€.d\.


Une seconde définition, équivalente à la première mais plus facile à utiliser, peut
être ainsi énoncée :

Définition 7
Soit A un événement quelconq ue de s{. On définit I'application p : -û * lR+
par :

p(A) :inf{e)O:P(A) (O(A') *e}.


Alors : dp (P, O) : .S_up-p(A).
' A-.-.il

244 PH. TASSI - S. LEGAIT


COMPLEMENTS ETAPPROFONDISSEMENIS SUR LES LOIS DE PBOBABILITE

ll existe peu de résultats sur le calcul exact de la distance de Prohorov. ll est


néanmoins quelques cas où l'on peut trouver l'événement Ao tel que d, (P. O) =
p(Ao). Le calcul de la distance de Prohorov se ramène alors à la recherche de Ao.

Exemple I
Soient P:ô,,et O:ôr, x(y; il estévidentque l'on ne peutconsidérer
que des événements A de la forme {u}.
Pouru#x,p(A) :0.
Soit Ao : {x} ; alors la relation P(Ao )< O(,S) * e s'écrit :

1<0*e ou e21
et donc dp (ôx, ôr): 1

Exemple 2
Nous admettrons le résultat suivant : soient P et O deux probabilités, de
densités f et g. On suppose f définie sur [0, a], a ) O, éventuellement + oô, g
décroissante sur lRr, et, sur t0, al, f ) g. Alors :

dp(P, O) : p([0, a]).

Soit par exemple :

P:,7/p, 11
et O : ill\
P et O admettent pour densités :

f(x) :1t0, tt (x) ig(x) : e-x 1'*. (x)

dp (P, O) : p([0, 1])

=inf(e)0:P([0, 1]) <O(tO, 1*el) +e).


OrP(tO, 1l) :tetO([0. 1+€]) :-[J*'e-xdx*1-s-(1 te) .

Le réel e vérifie donc l'inéquation :

1<1-9-(1 *e) 1. <+ ,sl *'t;>-1


Cela permet de déterminer la valeur de € pour laquelle e el * e: 1 :

p([0, 1l) : d, (P, O) :0,2466.

1.6 Comparaison de distances


ll est possible d'établir des inégalités portant sur les distances précédem-
ment définies.

PH, TASSI S. LÊGAIT 245


COMPLEMENTS ET APPROFONDISSEIVENTS SUR LES LOIS DE PROBABILITE

Pour 0: lR, on établit :

dL<dP<dv
dL<dK<dv
Pour O quelconque, on a :

d3(dr,(2d.
H2<2du(H /4-H'z<2H.

1.7 Autres indieateurs d'écart


Un grand nombre de méthodes usuelles de la statistique mathématique sont
fondées sur des indicateurs d'écart, ou de proximité, entre v.a. ou lois. Ces
indicateurs ne sont pas des distances au sens mathématique du terme, dans la
mesure où les propriétés de symétrie ô(X, Y) : ô(Y, X) et d'inégalité triangulaire
ô(X, Y)< ô(X, Zl + ô(2, Y) ne sont pas systématiquement vérifiées. Cependant, ces
indicateurs sont d'utilisation fréquente car possédant une interprétation statisti-
que intuitive, et ils sont souvent appelés n distances o par abus de langage. Par la
suite. nous les nommerons proximités. lls vérifient cependant. en général, les
conditions de régularité suivantes :

{otx,X) :o
i
lotx,Y) >o
a) Proximité au sens de L, sur I
ô (F, G) = J [F(x) - G1x;12 dx
Dans le cas discret, on aura :

ki
ô(F,G) : > (
i:1j:1 ' '
ll existe une version sur I'espace des densités :

ô (f, s) : J [f(x) g(x)]2 dx


-
k
ou ô(f,g) : : (pi )2
t- |
-ei

Remarque :
ll est parfois d'usage de considérer des versions de ces indicateurs de
proximité pondérées par une fonction w à valeurs dans lR+ ; par exemple :

ô(F, G) : J tF(x) G(x)12 w(x) dx


-
246 PH TASSI -S LEGAIT
COIVPLEMFNIS FTAPPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

b) Proximité de Cramer-Von Mises


Elle est définie sur .?; on appelle proximité de Cramer - Von Mises entre
deux f.r. F et G, centrée en F la quantité :

ô(F, c) : -i [F(x) G(x)12 dF(x) : E, (F(x) G(x))2


- -
E, (.) reRrésentant l'espérance prise par rapport à la loi de f.r. F.

Remarque .' sur l'espace des densités, on pourra étudier :

ô(f. g)
"l tf(x) -
:
g(x)12 f(x) dx

Les versions discrètes de ces indieateurs seront :

ô(F, c) : ki
i:l j:1 ' r

k
ô(f. g) : 2 o, (R, c,)2
i:1 -

c) Proximité de Karl Pearsen


Egalement appelé indicateur du X2, il est donné sur l'espace des densités
dans sa définition centrée sur f par :

ô(r, s) : f t{!---91!Ê dx - E. t1 s(x\z


f(x) - f(x)
Sa version discrétisée est :

(pi
ô(f.g) : i -q,)2
i-1 P;

On peut remarquer que la proximité de Pearson n'est qu'un cas particulier


de I'indicateur au sens de L, pondéré par w(x) : 1,zf(x) ou 1/S(xl.
ll existe un indicateur du y2 dit modifié, qui n'est autre que ô(f, g)centré sur
s.

d) Proximité de Wolfowitz
Elle est définie sur t par :

:JlF(x)
ô(F,G)
-G(x) | dx
ll s'agit de la norme au sens de L,, de F G. En discret, elle est donnée par
- :

ki
ô(F,c) : : | : (pi )l
i:1 j:1 ' -q, '
PH. TASSI - S. LEGAIT 247
COIVPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

Définie sur les densités, la proximité de Wolfowitz est :

ô(f,g) :Jlf-gldx
soit le double de la distance en variation entre les probabilités P et O de densités
respectives f et g (cf. 1.2).

e) Proximité de Kullback-Leibler

ô(F, G) : -l Los
f(x) ar(x)
s(x)
pour I'indicateur centré sur F. Sa version discrète est :

kp,
ô(F,G) : : p, Log''
i:1 Q;

Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F, G) > O VF, VG'

Des précautions sont à prendre lors du calcul de ces divers indicateurs, et


s'assurer en particulier de leurs conditions d'existence.

Exemple
on prend pour F la loi uniforme sur [0, 1] et pour G la loi exponentielle
il1, 1l,.

a) Aucun problème n'existe pour les indicateurs de type Lr, sur les f .r. comme sur
les densités f et g :

ô(F,G) :Jf t^-1+ e-^12 dx+Jl(1 -1*e-x)2dx


:5:-J2:
6e
o,oe7

ô(f, g) : J[ tr e-')2 dx + J] (O - e- x126*


-
:!-3:0,236.
2e

b) Proximité de Cramer-Von Mises


L'indicateur de Cramer-Von Mises calculé sur les f.r. et centré sur'2/ro, tl ,
"st
ôF(F,c):Jf tx-1+e-*)2 dx

:q-2-- 1 :o.o3o
6e2e2

248 PH TASSI - S. LEGAIT


COMPLEMENTS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBABILITE

Centré sur 7(1, 1), cet indicateur prend la valeur :

ôG (F, G): Jl t"- 1 + e-')2 e-xdx+"iî e 2x


"-x6*
-'17 -'- -
6e2e2 '=: 2'o3o'

c) Proximité de Pearson
L'indicateur de Pearson centré sur(2p,11 n'a pas de sens. puisque f(x) :9
pour x ) 1. Sa restriction à [0, 1] est:
o, (r, s) : Jl tl - e-')2 dx :r-:- #: 1,e6.

Centré sur 7(1, 1). il vaut :

on (f, o) : Jl tl e-x)2 ex dx + 4* e-x dx : e 2 : A,718.


- -
d) Proximité de Wolfowitz
Aucun problème d'existence n'apparaît pour cet indicateur ; en outre,
Vx, F(x)) G(x), d'où :

: Jl fx-
"' d*:
ô(F, c) 1 + dx + 1"î
"-x1 21

e) Proximité de Kullback-Leibler
Aucune version de cet indicateur n'existe puisque f(x) : 6 pour x ) 1.
Cependant, sa restriction à [0, 1] peut être calculée :

Centrée sur Q/p,


l:
ô(F, c) : J[ Log e' dx :
l.
Centrée sur 7(1, 1) :

ô(F, G) : J[ (t-og er) e-x dx : -? + 1 : 0,264.

1.8 Retour sur les convergences


Ainsi qu'il I'a été fait au chapitre 5, on peut associer une notion de
convergence à chacune des mesures de distance ou de proximité qui viennent
d'être définies.

PH. TASSI - S. LFGAIT 249


COMPLEMENTS ET APPROFONDISSEIVENTS SUB LES LOIS DE PROBABILITE

Soit ô un indicateur de proximité, (X"), n21, une suite de v.a.r. et X une


n21, et F. Nôus dirons que Xn converge au sens de
v.a.r., de f.r. respectives (Fn),
ô vers X si lim ô(F", F) : 0.
n-æ
Exemple

^ Soit (Xn), n ) 1, une suite de v.a.r. de loi'Z/p,1 + 11, et X une v.a.r. de loi
tùro,
,r' n

Considérons l'indicateur de Wolfowitz sur les densités :

ô(fn, f) : ll fn t llr :.f I fn f I dÀ


- -
en notant Far fn et f les densités des lois de Xn et X.
n
fn (x) : :1t0, rt (x)
* ,,
1t0.,1 *
5 (x) ;f(x)
"
1n
ô(fn, f) : Jl tt --n-l ox + J] nn*1 dx-
- n*1
On remarque que lim ô(fn. f) : O, et donc Xn * X au sens de Wolfo..nritz sur les
densités. n

De même, un calcul simple montre que l'indicateur de Wolfowitz sur les f.r. vaut
1

2n
Remarque
intéressant sur le plan statistique. particulièrement en
ll peut être parfois
théorie des tests, d'introduire la notion contraire à la convergence qu'est la
séparabilité asymptotique;soient (Fn) et (Gn), n ) 1, deux suites de fonctions de
répartition. De façon générale. ayant fait le choix d'une mesure de proximité ô
prenant ses valeurs sur [0. M], M éventuellement infini, nous dirons que les suites
(Fn) et (Gn) se séparent asymptotiquement au sens de ô si :

lim ô(Fn. Gn) : M

Ainsi, si ô est la distance de Hellinger, F^ et G- se séparent asymptoti-


quement au sens de Hellinger si lim H(Fn, Gn) :,/2, ô;r si lim a(Fn, Gn) : O.
De même, il y aura séparation asymptotique au sens de la distance en
variation du si :

tim du (Pn, On) : 1

où Pn et On sont les probabilités auxquelles sont associées les f.r. Fn et Gn.

254 PH. TASSI S. LEGAiT


COMPLEIVENTS ET APPROFONDISSEMENTS SUR tES LO]S DE PFOBABILITE

Les inégalités de comparaison des diverses mesures de distance (1.6)


permettent partiellement de classer les convergences
ou les séparations asympto_
tiques associées.

Exemple
Ona:
o<H2(2du <H/4- t42

On sont deux suites de probabitités de f.r. Fn er Gn, on


^^^^.?î::^î'^ll--"1
constate lactlement que ;

,'fl O" (Pn, On) : O <+ iim H(pn , On) : O

De même ,',T H(pn, On) : Æ + du(pn, On) :


' "fl
1.

Si lim du(Pn,On) = 1, alors, en posant h: lim H(pn, On), on doit avoir:


h2<2<n/+-R
soit: t,2(4- h2) __ 4- _ (h2_ 2)z>O
ce qui n'est réalisé que pour h : ,/2.
Les indicateurs do et H sont équivaients pour ra convergence
et ra séparation
asymptotique.

2 APPLICATION A LA FONETION
DE RÉPNRTITION EMPIRIOUE
si x., ...., xn est un échantiilon de n réarisations indépendantes d,une v.a.r.
de
loi de probabilité P, on définit ta quanriré :

p":1 ! ô"xi
nt:1
où ô. (x) vaut 1 pour x: a et o aiileurs. pn est apperée loi de probabilité
ernpirique, distribution uniforme sur (X,,,...,Xn) puisque pn ({x,}) : L, i:1 à n.
n
on lui associe la fonction de répartition empirique Fn définie par :

x € lR, Fn (x) : pn {l- -, x[] : I i . 11_ _, ,,1 (x,).


ni:1 r '^L

PH. TASSI S. LEGAIT


251
CO[/PLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

2.1 Propriétés à distance finie


Par construction, F^ (x) est égale à la proportion d'observations de l'échan-
tillon strictement inférieu'res à x; Fn est une fonetion toujours discontinue. La v.a.
n F^ (x), nombre d'observations avâht x, suit une loi binomiale 0(n,F(xll puisque
un 'foint xi est soit avant x, soit après, et par conséquent :

E[Fn (x)] : F(x) et vlFn t*)l : F(x) t1 F(x)l


I -
Fn (x) converge donc en probabilité vers F(x).
On peut égalenrent calculer la covariance entre Fn (x) et Fn (V) :

n n
1
Fn(x) Fn(v) :-riit
s 1t-- . r" 1t--,q(x;)
",(x;) l: I

n
_1 [.I.1r_ , Min(x, ylt
(xi )
l: I
nz
n n
+ T 1l- -, 4 (x,) 1p -, q (x;) ).
i:1 j:1
i +j
D'où, en notant par X. la v.a. de loi P associée à la 1ème 166;156tion x,,
i:1àn:
I

E(Fn (x) Fn (y)) : l- e(t (Xr t) + tl E(l1- -, (X.,) 1t- -, yt (x2))


nn r- -, vx
Min(x, ,.1

: I r1uin1*, y)) + l--l- F (x) F(v)


nn
et: cov(Fn (x), Fn tvtt : [F(Min(x, v)) - F(x) F(v)].
|
2.2 Propriétés asymPtotiques
Puisque n Fn (x) suitS(n, F(x)). en appliquant la convergence en loi de la loi
binomiale lorsqué n tend vers l'infini, on a :

- n F(x) Yn (Fil*): J9 !9! ru to, r


n Fn (x)
_:-- I
GTiili -m /Tixif--Eii
Comme Fn (x) I F (x), on a également :

uzn (Fn (x) F(x))


- N (0, 1)
/ r.{x) 11 - Fn(x))

PI TASSI S. LEGAIT
COMPTEMENTS ET APPROFONDISSEN/ENTS SUR tES LO]S DE PROBABILITE

Exemple :
On sait que P(- 1,96 < N(0, 1)< 1,961 :6,9U, soit :

u/n (Fn (x) F(x))


0,95 : P(- 1,96 < - < 1,96)
,/F;xiTrm)-
ou encore :

0,95 : P(Fn(x)- 1,96V


n
Si F(x) est inconnue, on a construit un intervalle connu ayant une probabilité
donnée 0,95 de contenir la vraie valeur de F au point x.
La convergence en loi vers la normalité peut être étendue au cas multieJi-
mensionnel.
Théorème 1
Soit F la f.r. continue d'une v.a.r. X, pour tous réels (u, , ..., u,.1, le vecteur
aléatoire {-/n (F^(u,) F(u,)} (i : 1 à k) converge en loi vers unè loi normale
N(O, :), où I e'st [a -matrice carrée d'ordre k d'élément courant (i, j), 1 < i,
j(t<:
o,, : min (F(u,), F(u,)) F(u,) . F(u,)
-
2"3 Vitesse de convergence : loi du logarithme itéré
Dans ce chapitre et ceux qui précèdent, nous avons abordé un cerîain
nombre de notions de convergence portant sur des suites de v.a., de probabilités,
de f.r., etc. Un élément important pour le praticien est la 'ritesse à laquelle a lieu
cette convergence vers la limite. Nous allons donner un résultat général complé-
tant le chapitre 7.
Théorème 2 : loi du logarithme itéré
Si (Xi), i > 1, est une suite de v.a.r. indépendantes et identiquement
distribuées (i.i.d.), d'espérance m et d'écart-type o. o 1æ, alors :

lim
/nfin-rn) p.s
n..-oo
,Æ Log Log n
"
La loi du logarithme itéré complète le théorème central limite en précisant la
vitesse de convergence de :

.,/n (Xn m)
-
Appliqué à la fonction de répartition empirique, le théorème du logarithme
itéré devient :

/n (Fn(x) - F(x))
lim 1
p.s.
n-æ vGFj-il-- -1
Hx-D ,Æ Los Los n

PH.TASS] .S LEGAIT 253


COMPTEIVENTS ET APPROFOND]SSFMENTS SUR LES LO S DE PFOBABILITE

2.4 lndicateurs de proximité avec F"


L'un des problèmes fondamentaux de la statistique mathématique est la
connaissance de la loi P, de f.r. F, d'une v.a.r. X dorrt on possède une suite finie
(X., ..., X-) d'observations indépendantes. lntuitivement, ayant fait choix d'un
indicateur"de proximité ô, si on postule pour F une loi donnée F., on aura
tendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est
( proche ,, de Fo, c'est-â-dire si ô(Fn, Fn) est u petit u. Parmi les indicateurs
présentés au paragraphe 1, les plus fréquemment utilisés sont ceux de Kolmogo-
rov, Pearson, Cramer-Von Mises.
a) Proximité de Kolmogarov
Soit d* (Fn. F) : Sïo I F" (x) F(xll' pour une f'r. F définie surlR'
-
Théorème 3
ll existe une constante C, C ) 0, indépendante de F, telle que, pour d ) O:
P(dK(Fn,F) >d) ç6"-2nd2 vn)1
Ce résultat, établi en 1956, est souvent utilisé sous la forme :

P('/n dK (Fn, F) > d) < C e- 2 d2

æ
Soit la quantité : - P(dK (Fn, F) ) d) :

n:l
oo oo r ^_2d2
: p(dK(Fn,F) >d) <c :_(e-2d2ln: ce-'" 4"o
n:1 n:i 1- e- 2d2

Du chapitre 7 on déduit :

Théorème 4
dK (Fn, F) : SuP I Fn(x) F(x) | P'co' O'
-
Ceci implique ia convergence presque sûre, et en probabilité, de d* (Fn, F)
vers 0.
A.N. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn, F).

Théorème 5
Si F est la f.r. d'une v.a.r., F étant continue, alors la v.a. 6 d* (Fn, F)
converge en loi vers la v.a. O, indépendante de F, définie pour y ) O par :

P(O<yl:1- 2 i (-t1r'+r s-2u2t2


k:1
?54 PH.TASSI -S LEGAIT
COMPTEMENIS ET APPFOFONDISSEMENTS SUR LES LOIS DE PROBABITITE

b) Proximité de pearson
Envisageons tout d'abord le contexte statistique.
-fl espace des valeurs de la
v'a r' continue X dont on possède res réarisations'rnoàfenïantes
(X,,, -..,\t;rl
partitionné en classes Cj. j : 1 à k :
g'- :k c
c'est souvent re,cas en pratique, jÀjr,"'"'nsi de crasses d,âge, de tranches
de revenu, etc. Soir alors le vecteur aléatoire y:
r(Nr, ._,ï_iài, la v.a. N,
compte
le nombre d'observations parmi (xr, ...,xn) appartenânt à tâ
ctà's;;'c;; ;'L-ï ii,:
La loi de N, est une loi binomiale g (n, p,) oit :

pj : P(X € Cj) : J.- t1x; Ox,


f désignant la densité de F. plus généralement. y suit une loi murtinomiale,// (n;
p1, ..., p1), en référence au schéma exposé au
chapitre 4.
Les fréquences f, : \, j : 1 à k. définissent la loi empirique des
observations regroupéeJ 0"r. que |on notera p; res constantes (0,,,...,
"î"r."s,
en fournissent ra roi théorique déduite de F
oo)
ra roi vraie représentée
symboliquement par p. - -,
L'indicateur de pearson entre il et p centré en p sera :

ô(È.p) : I $,-p,)2
j:1 pj

on utilise fréquemment une forme pondérée de rindicateur de pearson


:

i tl{A-S$3
f(x)
w(x) dx
avec w(x) : n, qui conduit ici à :
k
ô*(È, p) : n :
j:1
Théorème 6

ô*(È, p) t2Lx, (k 1) (n--)


-
Démonstration
Définissons le vecteur Z de coordonnées :

z,- t - 'r,j- 1àk;


N, no.

' rnq

PH. TASSI . S. LEGAIT


atrÊ
COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DF PROBABILITE

On a: E(Zjl:O.V(Zj) - 1-pj
Cov(7r,Z1l:-,m U+U
On vérifie aisément que le déterminant de la matrice de variances-cova-
riances de Z est nul, puisque celui de Y I'est aussi, on se restreint au plus grand
vecteur régulier r(Zt, ...,2n_,1 : Z*.

Partant de la f.c. d'une loi multinomiale,


k
çry(u1,...,ur) :(. >. pj eiuj)n
l- |

on déduit la f.c. de t(Nr, ..., No-l) :

k-1
ç(ut,..., ur.-r): cy(u.,, ...,uk-1, O) : t1 + >. pj(eiui 1)ln
-
J- |

Du théorème 3 au chapitre 6. on tire :

k-1

e7* lu,, ..., uk-1): e


- i/nj-1
> u.t '/d
'111 k-1
*.r"
.l- |
p,(eiu/Jrwi
- 1In'
i u. u.2
Or: siuy''/rtpi- 1-*-r"

k-1 k-1 iu,


.I
: >. (+ /q
u,2.

'- +
p,(ei'izlnF;
j:1 t - 1) .
j:1 Jn 2n

et :
k-1 k-1 . k-l
i/ô
' I u, ./Fl i/i- I u, '/o] 1: ,'2
a7-tr,,...,un-,):e - i:r-j ie j:t' 'e - 2i:t
)

: e-Lort",
2j:t

Z* suit donc approximativement une loi normale centrée réduite de dimen-


sion k 1, et ô- (È, p) converge en loi vers une loi X2 (k
- - 1).
256 PH' TASSI S. LEGAIT
COMPLEMENTS ET APPROFONDISSEMENTS SUB LES LOIS DE PROBABILITE

Remarque
Ce résultat peut être retrouvé par le calcul direct; notant par P la probabilité
élémentaire de Y en (nr, ..., nn), on a :

* ,/2Tr
n! - nn rt
"- "
(formule de Stirling)

nn * rL e- n ,/Ztr n1 nk
P- P1 "' Pp
n.*1
t -n. t,/-Zrl
IJ(n, 'e
)

no. n, 1
P - II1" 'j1 | 2 à une constante multiplicative près
jni
k
Logp-K* : (n,* SLognPi
j:1 ' 2 nj
N|'t,on
A partir deZ, : -no. a N, - n pl lZrJ6,ou
' 'Æq '
:

N.
I _1 ,
Z.
-/"q I

"q-
k.z
LogP-K-
j:E.,
(*, *rlLoo(1 +-1)

Faisons un développement limité du deuxième ordre :

+ 1-l
zi
Log (1 -
@i /q -"i2npj

LogP-K-
k.z.z?
j:1 ' 2 @, 2npj

LogP-K-
nzz2. (J
k
+t+2, I
J:1 2 ' '/nL) - 2npj
)

"Æq
nr,
LogP-K- >. (2,t /nnt + tl
j:1 2

PH. TASSI S. LEGAIT


COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABITITE

Or 2 7,/nq: I (Ni nPj) =n-n:O.


j:1 t ' j:1
z?
D'où: LogP-K->--l
2
1 < z.o
P;=T; c'e -;1't' '

La loi limite de la loi multinomiale est une loi normale de dimension k - 1

(tout Z, pouvant s'exprimer en fonction des k 1 autres), et on en déduit


- :

(Ni nPj)2 roi.


I - yz 1)
i: 1 npj
11
-

3 ORDRES SUR LES VARIABLES ALEATOIRES


L'idée de classer ou d'ordonner des v.a. ou leurs lois de probabilité est
fort ancienne. Par exemple, -
- on peut comparer deux v.a. X et Y par I'intermédiaire
d'un indicateur de tendance centrale (espérance, médiane, milieu de l'étendue),
ou bien par un indicateur de dispersion (écart-type, étendue, intervalle inter-
quartiles), ou bien encore par les cæfficients de Fisher d'asymétrie ou d'apla-
tissement (chapitre 4).
Nous nous proposons, dans ce paragraphe, de donner quelques éléments
sur les comparaisons possibles de v.a. par I'intermédiaire de relations d'ordre
partiel ; dans tout ce qui suit, X et Y seront des v.a.r. de lois P* et P". de f.r. respectives
FetG.
Définition I
X est dite stochastiquement plus petite que Y (noté X (, Y) si :

Vx € lR F(x) ) G(x)

Cette définition. due à H. Mann et D. WhitneV (947l,, est, historiquement, la


première notion d'ordre partiel sur des v.a.r. [14].

Supposons X et Y telles que F et G soient continues et strictement croissan-


tes surlR ;on a:
F(x)) G(x) <) O- t 1r1x)) ) x

En notantR:G-1 FetÀ- R- l(létant I'application identité), onobtient :

F(x) )G(x) <> R(x) )x e À(x) )0 Vx€lR


258 PH. TASSI S, LFGAIT
COMPLEMENTS EI APPFOFONDISSEMFNIS SUF LES LOIS DË PROBABII ITF

Remarque
Considérons la v.a.r. Z: R(X).
P(Z1z): P(R(X) ("zl: P(X < F- 1 C(t)) = F(F- 1 C(r)) : G(z).
La loi de R(X) est identique à cetle de Y.

Définition 9
soient a et b deux réels ; X est dite plus concentrée autour de a que y I'est
autour de b si :

P(l x-al(x) > p(l y-blSx) vx)0.


En pratique, on prendra fréquemment pour a (resp. b) l'espérance ou la
médiane de X (resp. Y), ou bien le centre de symétrie s'il y a lieu.
Si l'on se restreint au cas de lois symétriques, prenant alors a: b: O, on
établit les résultats suivants [1] :

Théorème 7
soient X et Y deux v.a.r. indépendantes absolument continues, de f.r.
respectives F et G. de densités f et g, telles que :

(i) f(x) : i1- x) ; g(x) : g(- x) Yx € lR,

(ii) f et g sont décroissantes (au sens large) sur lR*


(iii) X est plus concentrée autour de 0 que y.
Alors, si (X',, ...,Xn) et (Y1, ....Y") sont deux suites finies de v.a.r. indépen-
dantes de même loi que X et Y, on a :
rlp
a) . : . X, est plus concentrée autour de 0 que : yi i
i:1, n i:l
b)Xn:
nl:l
On peut établir que la définition 9 est équivalente à la suivante, a priori plus
générale :

Définition 1O

X est plus concentrée autour de a que Y autour de b si :

E(h(l Y
- bl ) > E(h( I x - aI ))

pour toute fonction h non décroissante, sous réserve d'existence des


espéra nces considérées.

En particulier, en prenant pour h la fonction identité, on a :

E(lx-al)<E(lY-bl)
PH TASSI - S LEGA]T 25g
CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE

et, pour a : E(X). b : E(X) et h(u) : u2 i

v(x) < v(Y)


ll est enfin possible de définir un ordre fondé sur la différence interquartiles,
pour des v.a.r. absolument continues :

Définition 11
Soient a et B, a I B, deux réels appartenant à lO, 1[ ; la loi de X est dite plus
étalée autour de a que Y l'est autour de b si :

- F- ("1>c- ffi)-c-
F- 1 1 1 1 (")
ffi)
Exemples
a) SoitF(x) :1-e-À*,G(y) -1-s-9v, À<8.
r-1(x) :-lLog(1 -x),G-1(v) :-lLog(1 -v)
À0
: 1--g
F- - F-1 (o)
1 19) 1r-os
À 1-B
- F- (d) :g>
F- 1 (B) 1
d.où : I
c-r (B) _c-1(d) À
La loi 7(1. À) est plus étalée que la loi 7(1,0), pour À < 0.

b) Soit X une v.a.r. absolument continue, de f.r. F, À ) 1 un réel quelconque. On


définit la v.a. Y : ÀX, de f.r. G.

G(Y) : P(Y < Y) : P(X <4 : r(Y)


ÀÀ
G- 1 (y) : {z/G(zl: y}: {z/FÉl: y} : {z/z: À F- 1 (y)},
À

d'où: G-1:ÀF-1
PourO(a(P<1,ona:
r-t(B) -r-t(a):l<r
c_r ffi) _c-1(d) À
et donc Y : À X est plus étalée que X, pour À ) 1.

260 PH, TASSI . S. LEGAIT


Chapitre 9
O bservations ordonnées

ll arrive fréquemment que. possédant une suite finie d'observations indé-


pendantes (Xr, ...,Xn) d'une v.a.r. X, on s'intéresse plutôt au n-uple ordonné en
sens croissant ou décroissant. C'est ainsi le cas dans les méthodes statistiques
cherchant à détecter des valeurs éventuellement aberrantes; en outre, le phé-
nomène étudié peut parfois être tel que les observations vont naturellement en
croissant : part de. marché cumulée conquis semaine après semaine, par exemple.
Dans tout le chapitre, X désignera une v.a.r. de loi px, F sa fonction de
répartition, f sa densité.

1 LOI DE L'ECHANTILLON ORDONNE


on considère une suite finie (Xr,...,Xn) de n observations indépendantes
de X.

1.1 Définition de la statistique d'ordre


Définition 1

on appelle transformation ordonnée ou statistique d'ordre l'application


mesurableT : (lR, fr1" - lR,,q.l"classant les(X,), i : 1 à n, dans l,ordre
croissa nt :

(Xr, ...Xn) - (X(r), ..., X(n))


avec:
Xt.,t ( Xrrl (...(X1n)
Remargues
a) En toute rigueur, la notation X1ç, n'a de sens que pour n donné. X(o)
"t
devrait être écrit X(r;n).cependant, lorsqu'il n'y aura pas de confusion possiblà,
nous utiliserons la notation allégée X1p1.
b) Si la loi de Ia variable X est absolument continue par rapport à i, on
peut se limiter à des inégalités strictes car :

p (Xrr)

PH, TASSI . S LFGAIT 261


OBSE FVATIONS ORDONNE ES

En effet :

p [{Xrrr
t+l t+l
Or la loi de X, - X,, pour i # j, est elle aussi absolument continue par rapport
à la mesure de Lebesgûe et donc :

.I Pt[Xi-Xi:01): o

,"r. .onrr", si X est ,"j11r,"0," oir"rete, it peut y avoir des ex aequo, et tes
formules deviennent rapidement complexes. Sauf exception, nous supposerons X
continue par la suite.

1.2 Loi de la statistique d'ordre


Théorème 1

La loi Pr de la statistique d'ordre est définie par la densité :

fr(x.,, ..., xn) : n' ,i" t (x,). Î"n (x,. .... xn)
i:l
où : Cn : [(xr, ..., xn) € lRn ./ x., < x2<... < *n]

Démonstration
En notant 9nl'ensemble de toutes les permutations r de n éléments, et B un
événernent quelconque de fr,n,la probabilité pr(g) peut être écrite :
Pr1A1:P1 U E(r)l: : P(E(r))
r€,Vn re9n
où E (r)désigne l'événement :

{Xr(1)<....Xr(n} et (Xr(1), ,X'(n)) € B}

P (E (r)) : JlRn 1"n (*.,, ..., xn) 1, (^r, ...,xn) dPxt(1)' "'xr(n)

où pxt (11' ''xr (n)


symbolise la loi du n-uple (Xr . ,X.1ny).
(1),

Or, les v.a.r. (X,), i: 1 à n, étant indépendantes, la loijointe de (XrtrI ...,Xrtnl)


est le produit des lois des Xrliy soit :
n
P (E (r)) : J,*n l cn (*,, ..., xn) 1, (*r, ..., *n) f (x,) dx., ... d*n.
.,
,!

zoz PH. TASSi . S. LEGAIT


OBSE FVATIONS ORDONNEES

On remarque que P {E (r) ) ne dépend pas de r, donc :

n
Pr1B1 : P {(Xtr, ... , X1n1)€ B} : nt Ju lcn (x,, ..., *"' f (^i)dx, ... dxn
,! 1
lls'ensuit que, sur lRn, (Xfrl ...,Xtn/ : T(Xr, ..., Xn)admet la densité;
n
n l cn (xr, ..., xn) .l-l f (x,)
' ,
Théorème 2
La loi marginale de (Xtr), ...,X(k/, k ( n, admet la densité :

n! ltn (x'' .{! \ **


(n-k),- '"n' (,,!,, t''Jr) u"* t(x)dxln-k

La démonstration de ce résultat est tout à fait analogue à celle du théorème 1,


à la nuance près que les événements E (r) ne sont pas forcément disjoints. En effet,
lesévénements E (r) et Ë (a) seront identiques si r(i) :ali), i:1 à k;sinon ils
scnt disjoints. ll convient alors de définir sur 9n la relation d'équivalence :

o-r<+o(il:r(i) i:1àk
Alors, en notant A une parTie de,9n contenant un eî un seul élément de
chacune des classes d'équivalence de{?n/-, on a:
P {(X11r, ...,xrx/ c B} : e {E (r)}
.!o
Le nombre d'éléments de A est égal au nombre de permutations divisé par le
nombre d'éléments de chaque classe, ce dernier étant égal au nombre de permuta-
tions de gntellesque (r(1), ..., r (k)) est fixé, soit : ;{.
(n-k)!

2
LOIS PARTIC|.JLIERES
DE L'ECHANTILLON ORDONNE

2.1 Loi de X1p1

La densité marginale fo (x) de la coordonnée X1s1 (k : 1 à n) de l'échantillon


ordonné s'obtient aisément en intégrant ia densité de (X11), ...,X(n/:

fk{x):; --aL.t Fk-1 (x)(1 -F(x))n-kf (x)


(n-k)l(k- 1)!

PH TASSI -S TEGAIT 263


OBSEFVATIONS ORDONNEES

Le calcul de la fonction de répartition Fn de X1r1 est immédiat. En considérant


la v.a.Z comptant le nombre de points X, tels gue X, ( x, on a :

Fk(x) : P (X1r1<x) : P (z>kl


Z suivant une loi binomiale ,/) 1n, F (x)), on obtient :

n
(x) : F'(x) [1 - F (x)]n-'
,Io Ç
Fk

Remarque

Cette expression de Fn(x) ne nécessite que la connaissance de la {.r. F de X;


elle est vraie quelle que soit la nature de la v.a. X, discrète ou continue. Dans le premier
cas, la odensité" de X1r1 sera donnée par f n (x) : Fu (x + 1) - Fn (x). Dans le second, il
suffit de dériver pour retrouver f
n
(x).

Intégrale bêta incomplète

Soit alors b (t, p, q) la densité d'une loi bêta définie sur [0, 1 ], de paramètres
p et q (chapitre 4) :

b(t,p,q) : -: .,n-111 -t)q-1


ts (p, q)

où B (p, q) est I'intégrale bêta, constante de normalisation de la densité :

1
B (p, q) - JO tn 1 (1 - t1c-1 6,

Définition 2
On appelle intégrale bêta incomplète la quantité :

lu(R,c) :=; (1 -11a r dt,o=<u(1


" B(p,q). -o
-il,o-1

n k + 1}, intégrale bêta incomplète tronquée en F (x). En


1*1{k, -
Considérons lr
intégrant par parties, on établit aisément :

Fn(x) :1.1*1 {k,n-k+1)

La loi bêta incomplète est tabulée, et cette relation permet de calculer numé-
riquement la fonction de répartition, et donc les f ractiles, d" X(n) (voir nTables of the

264 PH TASSI S. LEGA]T


OB SF RVATIONS O RDONNE ES

incomplete beta-functionu, éditées par Karl pearson, Cambridge University press,


1934).

u ru (23.8)

.0546 337
.0679 478
.0837 364
.1022 621
.1237 678
.1484 637
.1765128
.2080152
.2429 931
.2813 767

.71 .3229 920


.72 .3675 521
.73 .4146 528
.74 .4637 746
.75 .5142 gOO
.76 .5654 792
.77 .6165 525
.78 .6666 799
.79 .7150 262
.80 .7607 906

Exemple

Soit X une v.a.r.^de loide Gumbel(chapitre 4)de densité f 1x; : exp (x e"),
dont on possède n = 30 réarisations indépendantes. carcurons e ix,rr, <oi' -

La f.r. cie X est :

F(x) : 1 -e-""; donc F(O)- 0,6921.


Comme:
F23 (O) : P (Xtz3) q 0) : lF (o)(23. 30 - 23 + 1)

il suffit de lire dans la table ci-dessus la valeur d"lo,osz(23,8), soit, après interpola-
tion P (X12s1< o)- o,og74.

Théorème 3

La variable aléaroire Yr: F (X11/ suit une loi bêta É (k, n - k + 1).

PH TASSI . S. TEGAIT 2b5


OBSE RVAIIONS ORDONNETS

Démonstration
Notons g la densité de Yo. Par le changement de variables y : F (x) dans fn (x) :

n!
s(Y): |
vk-l (1 - v)n-k 11s' 11(v)
(n - k) | (k - 1)

L Y 11
ur<-1 \r tt 1,^,,
- y)n-k '[o'1]\](y)
B(k,n-k+1)
Remarques
a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0, 1 ], comme toute image
d'une v.a.r. par sa propre fonction de répartition.
b) Le calcul explicite des caractéristiques de X,u, que sont I'espérance, la
variance, la médiane et le mode dépend de la loi originêlle F.

Exemple
Soit X de loi 'A'ro,r 1. On a :

fo(x):--+"
(n-k)!(k-1)! 11 -x)n-k1ro,r1(*)
- ^t-1
X1n, suit donc une loi É (k. n - k + 1), et les résultats du chapitre 4 permettent
d'écrire :

6(X1r1) :
,i
2.2 Cas particulier des valeurs extrêmes X,n, et Xlnt
a) Lois
On trouve, à partir des résultats généraux précédents :

F,(x) :.!- a;ri(x) (r-F(x))n-i -1-cl(1 -F(x))n


l:l
: 1-(1 -F(x))n
F1 (x)
f1 (x) :nf(x) (1 -F(x))n 1

De même, pour X,n1 :

Fn (x): Fn (x)

fn (x) : n f (x) Fn-1 (x)

266 PH TASSI .S IFGAIT


OBS E RVATIONS ORDONN EES

De façon évidente, notons que le sup (ou l'lnf) d'un échantillon indépendant
extrait d'une loi F ne suit pas cette loi. ceci n'a rien d'intuitif, et mérite d,être noté.

Remargue
Supposons que le support de la loi p soit lR, c"est-à-dire O < F(x) ( l Pour
tout x réel. Alors :

F(Xrnl ) O) : t -Fn(O) : 1-Fn{o) ; trm p(Xfnt ) o) :1


De même:
P(Xtr) q O) : t -(t -F(O))n ; tim p(x111 < O) -1 I

X,n, (resp. X1,,,) est asymptotiquement positif (resp. négatif).

b) Médianes
i1 et in désignent respectivement les médianes 6e X1r1"t X(n) ; l'équation de défini-
tion de i., est :
-1
Flry(i.,) : :1-(1 -F(;1))n
t
qui conduit à :
Ln2
F(x.,) : 1-e n

De même:
Ln2
F(iJ:e n:t-F(i.,)

2.3 Loi jointe d'un couple (Xtn), Xtrl)


Soit un couple (Xtnf Xtr/ avec 1 k < I
=<
( n :

Par intégration de la densité 6e (X111, .., X1n1), on obtient :

fr,r(u,v) : C(n,i,k) f (u) f (v) rk-r (u) (F(v)-F(uy;i-t-t


t1 - F (v)ln-1 11r=u1(u, u).
La constante de normallsation est :

: B(k,r-k).8(l,n-j+t)
n!

PH. TASSI - S, LEGAIT


OBSE RVATION S ORDONNEES

La loi de (X1r.y X1l1) permet de déterminer la loi de fonctions de (X11y X11,), et,
en particulier celle des espacements ou mailles de la forme X1t1 - X111.

Pourk: 1 et l: n, onobtient la loi jointede(Xtrt, X(nt)'

f.,.n (u,v) : n(n-1) f (u).f (v).tF(v)-F(u)ln-2 ltr=u1(u,v)

2.4 Calcul des moments


Le calcul des moments, particulièrement E (X(k)), V (X(k)) et Cov (X1p1, Xtrl),
dépend bien évidemment des caractéristiques de la loi de X. c'est-à-dire de la fonc-
tion de répartition F et. si elle existe, de la densité f.

a) Résultats généraux

Théorème 4

Si E (X) existe, alors E (X1n,) existe également.

Démonstration
On saitquelE(X)l < E (lXl); l'existencede E(X), c'est-à-dire E (X)<+æ, est
assurée dès que E (lXl ) est f inie. On a ici :

fn{x) dx:
= J,*lxl
lE(X(k))l E(lx(k}l)

Or:
: Fk 1(") < n cl ] rt*t
fo(x)
" cl-] (1 -F(x))n-n t(*)
pursque :

Fk-1 (^) (1 - F (x))n-k < t

ll s'ensuit :

lEtx111)l ç E(lx(kll)<
".x-] E(lxl)

Donc si X est intégrable, c'est-à-dire si E (lXl)existe et est finie. E (lX,n,i)et


E (X(k)) existent et sont finies.

Remarquons qu'inversement I'existence de E (X111) n'implique pas celle de


E(X). Pour la loi de Cauchy, par exemple. E (X1s1) existe pour 2 < k < n - 1, alors
que E (X) n'existe pas.

268 PH. TASSI ' S. LEGAIT


OBSE RVATION S ORDONNEES

Théorème 5
Soit nfixé;on note, sous réserved'existence. m: E(X) eta2 : V(X).
Alors:
n
E(X(k)) : nE(X)
k:1
n
E(X21*y) : nE{X2)
k:1
n n
E(Xrnt Xtrr) : nE(X') + n(n-1) m2
k:1 lll
n n
T Cov(X*y Xrrr) : na"
k:1 f:l"I-
Démonstration
De façon évidente, on a :

xinr : oout tout réelj


nf ., oI., 4'
En faisant j : 1 et en prenant I'espérance :

n
t(X1p1) : nm
r.1,,
Avecj :2,onobtient
n
E(xÎk)) : nE(X2)
k:1
En élevant au carré l'égalité :

nn
(xrnr :
nf ,, nI,' "o
et en intégrant :

(n (n
E( *,0) : EI *_)
\ k:1 \t:t
PH. TASSI - S. LEGAIT 269
OBSE RVATION S ORDONNE ES

sort :

nn :
E(x1p1 x1r1) nE(x2)+:+> E(xk Xr)
k:1 i:1
: nE(X')+n(n-1)m2
Enfin, en remarquant que :

n
(x,n, - E(x(k))) : (Xu- m)
n:., nI.,
on a, en élevant au carré et en prenant l'espérance:

nn
k:1 l:1 '

Remargues

a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a.
X, discrète ou continue.

b)-Soit X de loi N (0, 1) ; on sait que X et X, -* sont indépendantes pour tout


i, donc X et Xlpy - X le sont aussi.

ll s'ensuit :

E (x (x(k)- x)): o

d'où :

E (X x(k)) : E (X') : v (X) : 1

soit .

ln \ n
E (nX X(k)) : E(rf ,, x,,,(*),n/:,Il E (X1p1 X111) : 1

Exemple

Soit X de loi uniforme %p, r1


:f (x) : 1, F (x) : xsi O(x(1.Onavu
précédemment :

E (X(k)) :
n+1

270 PH. TASSI , S. LEGAIT


OBSERVATIONS ORDONNEES

De même:

k(n--k+1)
v(x(k)) - (n+1)2(n+2)
et, en remarquant que fn,
t (u. v)
: (v _ u)n-2 (u s< v), on en déduit :

çov (X1p1. Xcr) : ( k, 1( n


+#" * ,r

b) Calcul approché des moments


On sait que Yn : F (X1) suit une loi bêta Ê (k, n_ k + 1) (théorème 3).
On déduit des propriétés de la loi bêta :

E (Y[) : B(k+r, n-k+1)


B(k,n-k+1)
E (Y[) : (k+r-1)lnt
(k-1)!(n+r)!
D'où les deux premiers moments de yn:

E (Yk) : v (Yk) :
;+1
Remarque

- Si F est l'application identité. c'est-à-dire si la loi originelle de X est la loi


uniforme sur [0, t J, E (xtr./ : E (yç). on retrouve bien
les iésurtats de l,exempre
précédent. cependant, prus générarement, queile que
soit ra roi de x, E (F (X,p,))est
égal à l'espérance de la v.a. Urot qri serait obtenue en
appriquant ra statistique
d'ordre à un échantillon (U,,, , Un)extrait d,une loi %ro,
rr.
En effet. on peut représenter de la façon suivante les
divers modèles inter-
venant :

Xdeloi P: (Xrry...,X,n,
(xr, ..., xn)
Statistique d'ordre
I
I

FI lr
F
+
(X)de to, %ro, t
r, F (X,o/ de toi

Ur : :
F(Xr), ..., Un F (Xn)
Yr : FFk,n-k+1)
(Xtrr), ..., Yn : F(X1n/

PH TASSI - S. LEGAIT

'aa
OBSÊ RVATION S OBDON NE ES

La fonction F étant croissante, U1Ly : F (X1n,) : yn.

Le calcul approché des moments de la statistique d'ordre est fait en utilisant


un développement de la fonction F-1 1Yn) au voisinage de E (Yn) :

F-
1
(y(k/: F-' (E (y(k/)+
ffn - E (yk)), t r-' (u)lu:E(yp)
,j., #
Or, F-1 (Yr) : Xlry ; en notant pr: E (Yn), et t : F-t :

X(o) : /(no) + ffn-no)i /(i) {Ru)


,j,,
Le calcul Oe E (X11/. V (Xtr/, Cov (X1py X11/ déRend de l'ordre auquel on arrête
le développement, c'est-à-dire du degré d'approximation. A l'ordre 4, on obtient les
formules approchées suivantes (il suffit de remplacer E (Yp par les formules précé-
demment établies à partir de la loi bêta de Yn) :

e (xrr/ : e bnt - +*# 4t" (ont

- on(1 -R1.) [1-Zon .{3), nn(1 -Rn) /'''ton)-l


/'"'(on) *
,ét,...l
("-2f L . t
v (xk)) : &5U ttt'' (on) -ffi o

avec :

A:2(1 -2pr.) r/t'(ovl Q"$nl - pk(1 -pk) ('/'bv) V"(pn) . 4t"(oo)1"


+
cov(Xrrr Xrn/ : r/'(on) Q'b,l + t
"*+ ï=fl
avec ;

B : (1 -2pkl e" bn) Q'b,) + (1 -2pl t" $fi e'bnl


1 ,,
* on(1 -pr) t'bp) t'"' (pn) *;
1

t pr(1 -n/ /'(nn) t'"'loll

*t 1

on(l - p/ e" bn) t" $l


Des tables numériques des moments de la statistique d'ordre existent pour
certaines lois, en particulier pour la loi normale N (0.1). Ces dernières sont repro-
duites en tables 10 et 1 1 .

272 PH. TASSI - S. LEGAIT


OBSE RVATIONS ORDONNF ES

3 COMPORTEMENT ASYMPTOTIOUE
Si les résultats à distance finie rattachés à un échantillon ordonné sont impor-
tants, la théorie des valeurs extrêmes a été considérablement utilisée dans des
domaines d'application tels que la fiabilité, le contrôle de qualité, etc. ce paragraphe
aborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'un
échantillon ordonné.
Remarquons tout d'abord qu'un simple changement de variables permet de
passer de la loi d" X(n)à celle 6e Xlty; en effet :

Min (X.,, ..., XJ : - Max (- X1, ..., - Xn)

on obtiendra la loi o" *,,1,.0"r le changement y - - y dans la roi de X,n,. plus


généralement, cette remarqub'jouera pour étudier les comportements oes U]â. aux
rôles symétriques Xlpy X(n _ * rI
n
"t
Lorsque n tend vers l'infini, deux possibilités existent pour k :
a) soit k est f ixé, et, compte tenu de la liaison entre X1p1 et X1n _ on étudie
k + 1y

le comportement asymptotique d'un rang donné ; le rapport ! t"na alors vers


n
0 ou 1. Ce cas correspond en particulier aux valeurs extrêmes, k : 1 ou n.

b) soit k tend vers l'infini, alors que le rapport i ,"nO vers û, O < a < 1.
n
Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3).
on peut synthétiser les deux types de comportements asymptotiques en
écrivant:

lim 0(a(1
l"l-æ -1&,
n

Si a:0 ou a: 1. on étudie un rang fixé (valeur extrême) ; si O < a < j,


on étudie alors un fractile empirique.

3.1 Convergence d'un fractile empirique


Théorèrne 6
Si F est continue et strictement croissante, et si O I a 11, alors :

P
Xr*t * xo

où xo est le fractile d'ordre a de X.

PH. TASSI - S. LEGA]T z/J


OB SE FVATIONS O RDONNEES

Démonstration
k
Le rapport convergeant vers d, on ne restreint pas la généralité de la
-n
démonstration en écrivant k : Ina] + 1. D'après la définition de la fonction de
répartition empirique Fn donnée au chapitre 3 :

: Ina]
Fn(X11noJ*r1)
n

r (xtrt)- F (xJ : F (X111)- Fn(X111)+ Fn(X111)- F (xa)

na]
: F (X111)- Fn (X(k)) * I
d
--
On sait (voir chapitre 8)que :

P
dk (Fn, F) : Sup I F (x) - Fn (x)l O

P
d'où: F(X1py) -F(x/* 0
F étant continue et strictement croissante, on conclut en composant par F-1 :

P
Xtnl * xolorsquen*co.
Le théorème qui suit. établi par Pearson, Smirnoff et Mosteller, fournit la
convergence en loi de X,u,. ll est énoncé sans démonstration approfondie, celle-ci
pouvant être trouvée par ëkemple en [17] ou en [2].

Théorème 7
Soient (X(nr), ...,Xtnr.l) k variables ordonnées (k < n) extraites de la statistique
d'ordre (X(1I ..., X(n)).

On suppose :

11;
n.*æ, hi*- etliml : at O a o, 1. i : 1 à k.

Le fractile d'ordre a. est noté xo. (i : 1 à k).

Si 0 < f (xo.) < co, i : 1àk:


/X, - x"al \\
|"(n1l
:
Vn I X,-,-x^
\\ tnk) ak ./I| - N(0,:)
loi

21 4 PH, TASSI . S. LFGAIT


OBSE FVATIONS O RDONNEES

I étant d'élément courant :

o,,:
't
Jl?
l(Xo) f (xo)
(1 < i< j< k)

Eléments de démonstration
L'idée est de remarquer que I'on peut écrire :

F- (x_) -
X(ni) : *oi - -1ffi* a,
*",

où Rn converge en probabilité vers zéro.


La loijointe de (vG (Xtnr)-
^o), r,6 {X1nn1-
xoo)) est identique à ceile de :

(a,, - Fn (xo.,)
-::d, al\
(., _ (ar - (xo,)) Fn
I r/n ,...,J"
\" f (xo.,)

Or, n Fn (xo ) suit une loi gJ g, a), et, pour i ( j :

nCov(Fn(xo,). Fn(xo,)) : ai-q,dj: oi(-qjl.


Le résultat s'en déduit immédiatement.

Remargue
k
Pour une nnéeX1py avec lim- : d, on a:
coordo

r {x,0, - ^; L N (0, ao)

^ a(l -a)
oâ: t\^^l

3.2 Convergences des valeurs extrêmes


Onseplaceici danslecaskfixé,soita:0 ou a: 1.

Soit : Yr: F(X,n,), et Go: nYn.

On suppose n -* oo, k restant fixé

PH. TASSI - S. LEGAIT


OBSÉ RVATION S OFDON NE FS

Théorème 8
ck y (k, 1)
t;
Ce résultat provient du comportement asymptotique de la loi nÉ (k, n-k+1).
qui converge en loi vers une loi gamma y (k, 1). En effet, par définition d'une loi p
sur [0, 1]. Gr. peut être mis sous la forme :

nA A
uk - A+B A B

;*;
oùAetBsontdesv.a.r.indépendantes,deloisrespectivesyk,lletf(n-k+1,1).
Ona:
/n\ r< /n\ k
El-l:-etvl-l:,
n n'
\n/ \n/
A
donc converge en probabilité vers 0. De même
-n :

/B\ n-k+1 / B\ n-k+1


Ë v [
\n/
- n \n/
-l- n
2

B
et - converge en probabilité vers 1. En vertu du théorème 16 du chapitre 7,
n
Gn converge en loi vers la loi de A, c'est-à-dire f (k, 1).

3.3 Les lois des extrêmes


lntéressons-nous plus particulièrement aux (vrais> extrêmes, correspondant à
k: 1 :X11y et X,n,. Compte tenu de la remarque faite en début de paragraphe, on
se limitera à l'étude 6e X1n;.

Définition 3
On appelle loi asymptotique des extrêmes, ou plus simplement, loi des ex-
trêmes, la loi de la variable Y telle eue X(n) Y quand n - æ.
l;
a) Les trois formes asymptotiques
Le comportement asymptotique de la loi de X1n; dépend de la distribution
initiale F de X. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limites
possibles.

276 PH. TASSI - S. LEGAIT


OBSE RVATIONS ORDONNEES

Loi du type I

La loi du type I est définie par sa fonction de répartition :

/
,l\
|
:exp\-e -t u r

F.,(v,^,r)
)o€R,1l)O
on notera Ft (y) la valeur de F., (v, o, 1)correspondant à la variable stan-
Y -,À
dardisée cette loi est appelée généralement loi de Gumbel ou double-
lJ
exponentielle.

Loi du type ll

Elle est définie par sa fonction de répartition :

y-^ e
lr
I P )-I .ltr,*-1(y)
Fr(y, l,p,Êl:e
.l € lR, p >O, p>O
Cette loi est parfois associée aux noms de Fréchet, plus rarement à Fisher et
Tippett. On notera Fr(V, Êl la fonction de répartition F, (y, O, 1, F) de
Y - 'À

lJ

Loi du type lll


Elle est définie par sa fonction de répartition :

i-v\P
- /I s )
Fs(y,i,p,Êl:11,r,**1(y)+e .11--,21(y)
(,À € lR. p )O, p>0)
cette troisième forme de comportement asymptotique est du type weibull (on
* - y). sur un support borné.
retrouve cette loi en faisant le changement y

On notera F"(V, h la fonction de répartition Fg (y. O, 1, P) de'la variable stan-


Y-^
dardisée
lJ

On remarquera que les lois du type ll et lll sont des lois tronquées ; seule la loi
du type I est définie sur lR, de façon non triviale.

En outre, les lois du type ll et du type lll peuvent être ramenées à la loi du type
I respectivement par les transformations :

Z:Log(Y-À) et T: -Log(À-Y)

PH TASSI - S TEGAIT l/ /
OB SE RVATIONS ORDONNEES

Par exemple :

P(Z<zl: P (Y<i1e') : exp(- UB s-9z1


1-
Z est donc de la forme utype lo avec i : Log lr el pt = .
p
b) Propriétés
Nous ne considérerons par la suite que des variables standardisées :

Typel : Fr (y):exp(-"-v1 y€ lR
TYPe ll : Fr(V, Êl : s-(v)-É y € R*

(e-t-vÉ y€rR
Type lll : F3 (y, Bl : (V, Fl : {
( 1 ye lR*

Propriété 1

Soit Y une v.a. de type I ; la v.a. X : e-Ysuit une loi exponentielle f (1.'l).

Propriété 2
Soient deux v.a. X et Y, indépendantes, suivant une loi de type I. La v.a.
U : X - Y suit une loi logistique.

Démonstration (cf . exercice 4.1, chapitre 4).

c) Calcul des moments


Le calcul des moments des lois des extrêmes n'est pas toujours aisé. Cepen-
dant,si Ysuituneloi dutypelstandardisée, X:e-Ylcasstandardisé) suituneloi
y (1, 1l,. ll est donc possible de calculer la fonction caractéristique g" de Y :

gY(r) : E(eitY) : E(X-it)


Or, pour une loi y (1, 1l:
E(Xr) : F(r+1)
pour tout r, d'où :

zyftl: r(1 -it)


d) Génération de lois des extrêmes

Théorème 9
Soit (Yn), n 2 1, une suite de v.a. indépendantes identiquement distribuées,
de loi exponentielle, et N une v.a. suivant une loi de Poisson tronquée en {O}.
Alors X : Sup (Y,,, ...,Y*)suit une loi du type L

218 PH, TASSI _ S. LEGAIT


OBSE RVATIONS ORDONNFES

Démonstration
En décomposant :

{X:x} : i {X:xn N : n}, ona:


n:1
æ
f*(x) : I- f*(x,/N: n) p(N:n)
n:l

= i ne-x11 -e-")n-1 1si-ry-r ].


n=1 n I

_ À "-" i [,1 (1 _e-x)]t


ei-1 k:O kl
ôtx
- Àe^
'e- x\r g-x-,Àe-x
= -
ei-1 ".Â(1 e^-1
e) Relations entre les lois asymptotigues de Xfr)"t X(n)
ll
existe entre les lois asymptotiques d" X(n) et de X111 des relations aisé-
ment démontrables par changement de variables. on notera par F] la f.r. de la loi
limite de X,.,, (i : 1,2,3).

Ainsi, soit Y de type l, et faisons la transformation Z - - y.


FzEl : P (Z<z) : p(-y< zl : 1 - F"(-z)
- 1-F,(-2,À,Ul
f f x-(-^)
' 'll \\
-1-exP[-exp I
\ \ u ))
: Fi(x.-À,pl
Nous noterons :
_Y
F.,(., À, pl * Fi (., - À, pl
On démontre de façon analogue les propriétés suivantes :

Fz ('' À' u' Pl : rË t'' - À' P' Ê)

Fs (.. i, p, p) : .Fât., - À, p, Ft
PH, TASSI S LFGAIT 279
OB SE RVATIONS ORDONNE ES

Fr(., O, tt,
'-
pl Y-1 Fâ t., O, tt'-' , Bl

F. (., O, p, Êl
'-
Y-1
Fâ (., o, rt-', Pl
e-,À ,
F, (., l, ttl
" o,
- FË 1., O, "- t,-')
L\Y
Fâ (. o. r.,, pl F{ (., Ln p, Ê-'l
L\Y
Fl (., o, u, Pl F., (.' Ln P, B-')
Ll (-J
F. (.. o, r, r, - F, (., Ln u, Ê-')
De même, les relations inverses entre F et F* existent. par exemple :

- t ,,(.,
Fâ (.. o, p, Ê) - r.t, Êl
^, ^,
L'ensemble de ces relations peut être résumé par le diagramme suivant :

F1

e-Y
LnY

F2 Fi

F3_Fâ
Y-1

3.4 Eléments sur la démonstration des convergences en


loi de X1n1
L'idée de base, due à Fréchet (1927iret à Fisher et Tippett (1928), consiste à
découper l'échantillon de taille n en k sous-échantillons de taille m, k : nm ; notons
(X,), i : 1 à n, l'échantillon initial, et (Xj), j : 1 à k et I : 1 à m, les élémentsde
chaque sous-échantillon. ll est évident que :
Sqp Xi : Sqp Sço Xl
t.l t

28A PH, TASSI - S. LEGAIT


OBSE RVATIONS OBDONNEES

Faisons tendre m vers l'infini pour k fixé ; soit G la fonction de répartition de


la loi limite d" X(nI n * æ. A une transformation affine de ra variabre près, de
coefficients dépendant de k, on aura l'identité de Gk et de G :

Gk1x1 : G(an x + bn; (s)


La relation (s) traduit ce que I'on appelle le principe de stabilité, et est
l'équation fonctionnelle définissant toutes les lois limites possibles pow i,n,. L",
constantes an et bn sont des constantes de normalisation, réelles et indépendantes
de x.

Définition 4
Une fonction de répartition G est dite stable (sous-entendu.pour un maxi-
mum,) s'il existe des suites (an), an ) O, et (bn) telles que :

Gn1xl : G(anx+bn)
pour tout x réel.

Remarque
Plus généralement, si F, et F2 sont deuxfonctions de répartition, F, et F2 sont
dites de même type s'il existe deui constantes a (a ) o) et b telles que :

F, (x) : F,, (ax + [)


pour tout x réel. Sur l'ensemble I des fonctions de répartition sur lR, la relation O
nêtre de même type> est une relation d'équivalence. ôn appelle type
'g/e. une classe
d'équivalence, c'est-à-dire un élément de l,espace quotient
La résolution de l'équation (s), que nous n'aborderons pas, conduit au théo-
rème suivant, dû à Gnedenko :

Théorème 1O
Soit G une fonction de répartition stable. Alors G appartient nécessairement à
l'un des types suivants :

TYPe | : F, (y) : (- e- Y)
exp
Type ll : F (V, Êl: exp (- U- É1 t
" ,r* (V)
Type lll : F. (y, É) : 1 (y) + exp (- (- v)Éy t,*_ (V)
,**
(B paramètre strictement positif.)

Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêt
propre, il est important d'essayer d'identifier. si possible, vers quel type de loi va
converger X1n, selon sa loi initiale F.

PH TASSI -S LEGA]T ?Ê 1
OBSE BVATIONS ORDONNEFS

Définition 5
On appelle domaine d'attraction de F,(i : 1,2,3)l'ensemble g ffil des lois
de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi
F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,.
i:1 àn
Nous allons donner maintenant des conditions suffisantes de stabilité permet-
tant de préciser le domaine d'attraction de chacun de ces types.

Définition 6
Soit G une fonction de répartition sur lR; une fonclion de répartition F sera
dite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an),
an ) 0. et (bn) telles que :

lim Fn(anx+bn):G(x)
n*oo
pour tout x point de continuité de G.

Remarque
Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peut
montrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attrac-
tion d'une et une seule fonction G, représentant d'un type"
Les caractéristiques des domaines d'attraction sont établies dans les théo-
rèmes suivants :

Théorème 11
Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, v),
f étant nulle sur [v, + -1 (v fini ou non) ; si

f'(x) (1 -F(x)) __1


tim
x Îv f' (x)
alorsFeQç.,t.

Théorème 12
Soit F une f.r. de densité positive f sur Iu, + æ[; si :

xf(x) :É>o
rim
x-+oo 1-F(x)
alors F € 9l ffzl, Pl).
282 PH, TASS . S. IEGAIT
OBSE RVATIONS ORDONN EES

Théorème 13
soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv, + -1 .

si :

- x)f (v (x) _,
,.,
xlv 1-F(x)
alorsF€gFs(.,p1).
L'ensemble des démonstrations peut être trouvé en IS], [7] ou t 1 Sl.

Exemples
a) SoitX -) y (1),toiexponenrieltededensité f (x) : e-xi,^*(x).
La fonction de répartition Fn de Xlny u.t ,

Fn (x) : (1 - e- x;n 1,0* (x)


Soit :

Zn:X(n) -Lnn

F,(z): Fn(z+Lnn) :(1 -- 1


e-z)n*exp(-e-z)
'n n
quand n*æ.
L'appartenance de la loi r (1, 1) au domaine d'attraction de F., peut être
retrouvée à I'aide de la condition du théorème I 1 ; en effet, pour x)O :'
f'(x) (1 - F (x)) e-" e-" :-i
f1^)-:- 1"-"Y
b) Soit X de loi togistique, de f.r. F teile que :

F(x) :
1+ e-x
La f.r. de Xlny est Fn (x) : (1 + e-")- n. Soit Zn:
X(n) - Ln n ;

Fr_(x) : Il +e:(r*tnn) ]-n : (1 *


1
'nn "-r)-n-exp(-e-.)
quand n - æ.

De même que pour l'exemple a) :


f'(x) (1 -F(x)) :e_*_1__1
ft'\"/
(^)
quandx-+æ.

PH TA,SSI - S. LEGAIT 283


OBSERVATION S ORDONNEES

c) Soit X suivant une loi de Cauchy de densité :

1
f (x) =
7r (1 *
"t)
xf(x) X
pourx) 0
x2)Ar"tg a
1-F(x)
+ -Arctgx)
(1 + x2) (1 +

xi(x) x
-= rim 1-F(x) - rim 1+x'= :1
x*+oo x-+co
La loide Cauchy appartient àg F2(.,1)1.

d) On établit que la loi y (p, 1) et la loi N (0, 1) appartiennent àQ ç.,7, et la


loi uniforme %ro,r)à g Fs(.,1]l1.

Remarque
On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction.
Ainsi, pour F' (y):
f'(v) (1 - F, (y)) _ e- v_
L ey+e-Y (1 "-Y) (e- 1)
t" (vl
: gY 19* e-Y
- 1) {e-v - l1
Or: e"-Y - 1 - e-Y quand y -* + -, et donc :

f'(y) (1 - F' (y))


*-1
r'(y)
quand Y*+oo

4 LA LOI DE L'ETENDUE

4.1 Résultat général


Un cas particulier de fonction des extrêmes très utilisé en statistique descrip-
tive est l'étendue W I Xtnt - Xt'f ou plus généralement les quasi-étendues de la
forme X11y- X(k) (t > k).

284 PH. TASSI - S. LEGAIT


OBSERVATIONS ORDONNEES

Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie au
paragraphe 2, on cherche la loi marginale d"zt,t après avoirfait
le changement de
variables :

(*,-, ) (u) -(*,u, \


\*,,, / \.,,n/ \x(rt-x$t)
La loi jointe du coupre (rJ,zt,k) s'obtient simprement, en remarguant que ra
valeur absolue du jacobien du chaËfement de variabres est 1 :

Qfu,z): f (u) f (u+z) Fk-1 (u)


B(k,i-k) B(r,n-l*1)
[1 - F 1u + z11n-1 [F (u + z)- f 1u;11-k-t

En intégrant par rapport à u, on obtient la densité


e1,pe) deZr,n:
Q1,pQ): J,r rn-t(u) t1-F(u+z)ln-l
lF(u+z)-r1uy1l-k-t t(r) f (u+z)du
A titre de cas particulier, considérons la longueur des mailles, c,est-à-dire
l'écart entre deux coordonnées successive. Zk*1,k 1[: 1 à n _ 1) :

ekri,uLzr : J,* rn-t


ffi (u)

[1-F(z+u;]n-k-t.f (u) f (u+z)du

En calculant E (Zx*t,u),on obtient après changement de variables


;

E(zx*r,r,.): cl Jn t1-F(v)ln k rk1v1 ov

Exemple:
Soit X de loi exponentielle ), (1).

:6
eu*t,ut.t *îil+, (1 -g-u;k-t

6u
"-(n-k-1)(z+u) "-u "-(z+u)
PH. TASSI - S, LEGAIT
285
OBSE RVATI ONS O RDONNE ES

n (n-k)z
' "-
(k-1)l(n-k-1)! ,1 (1 _ t)k 1 ,n_k 6,

en posant t: e-u; cette dernière intégrale n'est autre que B (n - k + 1, k), et


donc :

: n-k z
Q*+1,k(z) (n - k) s-
Zk*1,u-y(1,n-k)

E(Zn*1,1) : 1

n_k

V (Zk.1,k) : 1

(" _ kf

4.2 L'étendue W
a) Loi de W
Pour obtenir la loi de l'étendue W :X(n)- Xf,,f il suffit de faire I : n et k : 1

dans gr,o (z).

La densité en, t de W est donnée par :

pn,1(w) : n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du.

Sa fonction de répartition Fn,,, (w) est :

Fn,
1
(w).^w
: J'o e n,1Ql dz

: d: n(n-lf fJ[ fr(z+u)-F(u)]n-2 f (u) f (z+u)dz) du

: d: n(n-1) f (u) du (JT** tF(v)-F(u)ln-2 f (v)dv)

: d: nlF(u1w)-F(u)ln 1 orluy
b) Espérance de l'étendue

E(W) :E(X1n1) -E(X(1))

286 PH IASSI - S. LEGA]T


OBSERVATIONS ORDONNEES

Avec les notations précédentes :

E(W) : n-1 E(zr,*t,n) : n-1 Jn cl (1 - F(v))n-k Fk(v) dv


k:1 ol r
t
E (w) : t^ c5 tr - F (v))n-k rklv; dv
;:
que l'on peut écrire :

E(W) : J,* tt -tl-F(v)ln - Fn(v)l ov

en utilisant :

! cT (1 - F)n-m pm - ',

m:o
Exemple
Soit X de loi uniforme sur tO. 1 I. La densité de W : X(n) - X111 est :

*
pn,,, (w) = n (n - t) "f; - [(u + w)- u]n-2 du

: n (n - 1) (1 - w) y7n-2 tto,r1 (*)

E(W) : ll f r -(1 -w)n-wnl dw:++


Remarque
Soit X suivant une loi d'écart-type a; considérons la v.a.r. R cléfinie par:

R: 1W(Xtn)_Xt,t) :
il O
-n
où la constante dn est. par définitionl égale à ,

/x,. x.. \
E( ,n, _ rrr !

\o o /
Par construction, on a E (R) : o. Cette propriété est fort utile en statistique,
et les constantes dn ont été calculées pour la loi normale.
c) Contenance de l'étendue
Partons de la densité de la loi de (X,,,,. X,n/ :

fn,r (u,v) : n(n- 1) tF(v)-F(u)ln-2f (u) f (v) 11,.u1

PH. TASSI - S. LEGAIT 287


OBSERVATIONS ORDONNEES

Procédons au changement de variables :

(",,,\ /'\ : (*u, \


\*,",/ \"/ \rrx,",r -F(x(1//
Son jacobien est :

1 0
: f (X1n/
_ i (xrr/ f (x(n/

d'où la densiré de (2, nl :

fr,o(.,Trl: n(n-1) rn-2 l(.1 1r_,p_111 _.oy1el

La loi marginale de rr est :

fr(nl : îL-" n(n- 1l rn-z da avec a : Flz)

f
7r0r)
: n (n - 1) (1 - r) rn'2 1to,r1 (n)

ll s'ensuit que n, qui représente la probabilité que X soit dans l'étendue


observée, suit une loi bêta F 6 - 1 ,2).
Soit alors ), € [0, 1]. ta probabilité P {r } y} : P (f) est ta probabilité
pour que 1oo y o/o
au moins de la population soit dans l'étendue observée (Xtrr Xtn/.

P(trln: fy ,(tr) dr - 1 - n yn-1 + (n- 1) rn


f

P(yl:1-nyn-1 +(n-1Jy"
On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre
d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de la
population soit dans l'étendue d'un échantillon observé.

28B PH, TASSI S. LEGAIT


Chapitre 10
Notions élémentaires sur les processus

_ Ce chapitre se propose de montrer comment le temps est introduit dans les


éléments classiques du calcul er de la théorie des probabiliiés.

1 DEFINITION D'UN PROCESSUS ALEATOIRE


Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_
ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espace
quelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant la
propriété de mesurabilité ;

V A' e .4' x-1 1p-'l e ,sl


La loi de probabirité de X est [image de p par X, notée px, définie par :

V A'€_ ,t4' px(A') : p(X-1 (A'))

1.1 Définition d'un processus


Soit (T, G7 un espace quelconque, G étant la tribu des événements de T.
Définition 1

On appelle processus aléatoire l'application X :

@, .vll x $, Gl - (a',,&,1
qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t er
fixé, X, est une v.a. sur (Q, ,,4,p).
Par extension, on écrira un processus sous la forme d'une suite de v.a.
indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant une
grandeur aléatoire varia'nt dans le temps.

Remarques
,o',
,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou
- g,nl,
(lRn,
U -Si
le processusx est réel ou multidimensionnel dira plutôt
;on univarié ou
multivarié de dimension n ; si A' C Z le processus est à espace d,états discret.

PH. TASSI . S, LEGAIT


289
NOTIONS ELEMENTAIRES SUF LES PROCESSUS

2) Pour c.r € Q fixé, X, (ar) est la trajectoire de X pour l'individu ar,

3) Si T : lR. on parle de processus continu.

4) Si T : Z, on parle de processus discret, noté (Xt, leZ).


5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instant
d'observation de la v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeur
temporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uranium
d'une carotte rocheuse dans une exploitation en un point a-r et à la profondeur t.

Définition 2
On appelle loi du processus PX. loi image de P par X ; on en déduit que,
Vt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre gue la loi marginale corres-
pondante extraite de P^.

1.2 Processus équivalent


Définition 3
Soient deux processus X et X* admettant le même ensemble des temps T et
même espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,
,.il*, p*|.
Ces deux processus seront dits équivalents si la relation R suivante :

P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R)

est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et de
parties Br. ..., Bn extraites de ..n('.

Remarque
Un processus stochastique est une représentation mathématique d'un "sys-
tème, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le
"hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un très
grand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la
valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuel
lement avec n grand, pour être dans les conditions d'application des lois des grands
nombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'au
phénomène étudié est associé une classe d'équivalence de processus plutôt qu'un
proeessus. Le probabiliste aura donc la liberté de choisir dans une classe de
processus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarche
est analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur des
classes de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. cha-
pitre 3).

PH, TASSI S. LEGAIT


NOTIONS ELTMENTAIRES SUR LES PROCESSUS

2 PROCESSUS STATIONNAIRES

Dans l'étude des processus stochastiques, une place particulièrement impor-


tante est tenue par les processus dont les lois de probabiiité présentent une inva-
riance pour toute translation dans le temps (on considère ici que l,ensemble des
indices qui caractérisent le processus est l'ensemble des temps). Cette propriété
d'invariance temporelle est couramment utilisée en économétrie, en théorie des
filtres, en analyse statistique des séries temporelles à I'aide de processus auto-
régressifs- moyennes mobiles (ARMA).

2.1 Stationnarité stricte

Définition 4

Le processus réel (X,, t e r) est dit strictement stationnaire si, pour


tout n-uple de temps tt < tz
T, et pour tout temps h appartenant à T avec ti + h C T, Vi : 1, ..., n,la suite
(X,,, *
n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)

' *,n h' ,Xtn + h


px,t' - p*r, +

Remarque

Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-


tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, tous
tl,tz, ...,tn et tout h :

P (Xtr < ...,X,n ( xn) : p (X,,,


*h
( x1, ..., Xtn* r, ( xn)
"1,

En particulier pour n : 1 :

P(Xt<x) : P(Xtnr. ( x),Vh€T


En effet, d'après la définition 4,pour toutchoixd'événementsA,,..., An, on a:

P(Xr1 €A1,...,X,ne An) : p(*,1 *n € A,'...,Xtn*5 e An)

ll suffit de prendre A, : J- *, x,[.

PH. TASSI - S. LEGAIT


NOTIONS ELEMENTAIRES SUR LES PI]OCESSUS

Théorème 1

Si{Xfl t€ T) (avec T: lR, lN ou Z) est stationnaire, alors on a en particulier:


(i) E(X,) :m Yt€T
(ii) Var {X,) : o2 Vt € T
(iii) Cov (X,, Xr) : r (lt - sl) V (t, s) € T'?.

Démonstration
(i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e (X'?,) et E tx'?.) { - d'après
l'inégalité de Schwarz :

lE (xrxs)l < 1e 1x]))"' 1e 1x!))"'


D'après la définition, il est clair qu'en prenant deux temps t et s, et h un
temBs quelconque de T :

Cov(Xrnh,Xr*6) : Cov(Xt, Xs) Vh € T

Notons / (t, s) cette covariance :

f (t. s) : Cov (Xr _ s, Xd en posant h : -s


: Cov (Xo, Xs_t) en posant h: -t
Donc la covariance ne dépend que de la valeur absolue de la différence des
temps et de la loi de Xo ; dans ce cas, on notera cette covariance f (lt - sl ).
Ces propriétés conduisent à une définition plus faible du concept de station-
narité.

2.2 Stationnarité faible


Définition 5
Le processus (X,, t € T) est dit faiblement stationnaire ou stationnaire au
deuxième ordre s'il satisfait aux propriétés suivantes :

E(X,) : m Yt € T

Var (Xr) : o2 Vt € T

Cov (X,, X, u 6)
: r (h) V (t. h) € T'z

Définition 6
;r {hr} porte ie norn de fonction d'autocovariance eiu processus.

292 PH TASSI S. LFGA]T


NOTIONS ELEMENTAIÊES SUR tES PROCESSUS

La condition de stationnarité au deuxième ordre est plus faible que la condi-


tion de stationnarité (stricte). Cette stationnarité faible est très souvent utilisée en
économie. Par abus de langage. nous appellerons par la suite série stationnaire
une série temporelle stationnaire au sens faible; il convient de remarquer qu,im-
poser l'espérance et la fonction d'autocovariance indépendantes de t est une condi-
tion très difficile à remplir dans la réalité des séries économiques. Néanmoins, ainsi
que nous le verrons par la suite, les processus stationnaires présentent un grand
nombre d'avantages. L'une des préoccupations du statisticien sera donc de usta-
tionnariser, les séries dont il dispose.

Propriété 1

f (h) est une fonction paire.


Soitt* : t+h
r (h) : Cov (Xr Xt * : 1.,)
Cov (Xt* _ h, Xt*)

: Cov (Xt_, Xr* _


n)
: y (- h)

2.3 Remarques diverses sur la stationnarité


a) Exemple de processus non stationnaire
considérons le processus X, : at + b + r- où la suite des e. est indéoendante
et identiquement distribuée (i.i.d.)'d'espérance riulle et de varianc'e ar. Le processus
X, n'est pas faiblement stationnaire car :

E(X,) : at+b
Pour le "stationnarisero, considérons maintenant le processus *différence
premièreo Y, :

Yr: Xr-X,_, : a*tr-€t_l


E (Yr) : a pour tout t
Var(Y,) : var(er-st_1) : var(c,) +var(st _1) = 2o2
d'après les hypothèses sur rt.
cov(Y'' Y'*n) :
Il,:;;;1.;:*:-::]l ,,*h *,,_, 6,_,*6)
- *E(rr r,_1+fl - E(er_,, er*n)
d'après les hypothèses sur rr.

PH TASSI . S. LEGAIT
NOTIONS ELEMENTAIRES SUR LES PROCESSUS

( -o"^si h: -1
Cov (Y,, Y, * n) : | -o'si h : 1

{ o si h€ z-(-1,0, 1)

Le processus (Y,) est donc faiblement stationnaire.

b) Processus stationnaire
ll est fréquent d'assimiler la notion de processus stationnaire à celle de pro-
cessus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemples
suivants sont à retenir :

Exemple I
Soit le processus X, à valeurs sur {- 1, + 1}, tel que :

P(Xt: 1) : P(Xt -- 1) :;, 1


pourtoutt.

Ona:
E(X*) : o
:(-1f. 1^1 . -1
V(Xt)
z*lf t
et pour h*O:
y(h) : E(Xr Xt*6) : 1 -2î11 -11+1. - -o
+ 44
Le graphe du processus est, par exemple :

,t ?-+-1
lr
rl
r1
i\

294 PH. TASSI . S. LEGAIT


NOTIONS ELEMENTAIRES SUR LES PROCESSUS

La meilleure prévision de X, par une constante est E (X,) : o (cf. chapitre 5),
qui n'appartient pas à l'espace des valeurs de X,; le processus X, est bien station-
naire, mais oimprévisible> au sens propre du ternie.

Exemple 2
on corrsidère le processus X, eui, à la date t (T € lN - {o}), prend les valeurs :

I O avec la probabilité 1 - 1/t


*,t : I tï avec la Probabilité +
I - .,Æ avec ta probabitité +
E(X.) : - t/l + tft -0
'2t21
V(Xt) : E(X? : ;t: + j. : t
2t 2t
Cov (X,, X,) : E (Xr Xr,)
o
X, X,, : - y\ Jl' avec la probabilité
-]-2tt'
v\ v\' avec la probabilité
-:-2tt'
d'où E (X, X,.) : O.

X, est donc stationnaire au sens faible.

PH. TASSI S. LEGAIT 295


NOTIONS ELEl\IENTAIBES SUR LES PROCESSUS

Plus t augmente. plus X, prenddes valeurs nulies sauf, avec une probabilité
de plus en plus faible, des valeurs t Vt qui tendent vers I'infini. Le processus X,
est stationnaire, et pourtant est susceptible d'engendrer des points oaberrants,.

Exemple 3
Soient les processus X, : €t et Yr : (- 1)t er où e, est un processus
stationnaire, E (€t) : O, V ltr) : o", E (e, e,.) : 0.

S, : X, + Y, est tel que :

I
|2r, sitestpair
^
a5.:(
t i\ o sinon

o E(S,) : O

I
I q o' si r est pair
r V(S,) : {
( O si t est impair

S, est non stationnaire ; la somme de deux séries stationnaires n'a donc


aucune raison d'être stationnaire.

3 CORRELATION ET CORRELOGRAMME

3.1 Le coefficient d'autoccrrélation


Définition 7
Soit le processus (Xt, t C T) ; on appelle coefficient d'autocorrélation pour les
temps t et s, la valeur :

Cov (X' X")


' ' I s'
ut\..Al -
lv (xr)lt" lv (xr)1"'
Si le processus est faiblement stationnaire, p lXt, X, o r,) est défini pour les
tempstett+hpar:

p(h) :p(XrXt-n) :+
I V (Xt)1"' 1V (X1
* 6)1"'

296 PH, TASS] - S. LFGAIT


NOTIONS ELEMENTAIFES SUR LES PROCESSUS

et, puisque V (Xr) : V (X, * 6) : r(0):


p{h) : r (h)

r (0)
b ez)
Propriété du coefficient d'autocorrélation
Si le processus est faiblement stationnaire, alors. puisque y (h) est une fonc-
tion paire :

p(h) : p(-h)
Définition 8
(xt, t € Z) l'application
On appelle fonction d'autocorrélation d'un processus ()
* *
Z l- 1, 1l définie par h p (h). Le graphe de ccette fo nction s'appelle
+
l'a utocorrélogra m me (ou corrélogramme). Compte ten(
tu de la propriété précé-
dente, le corrélogramme est en général tracé pour h e tN.
=
Soient alors (k + 1) valeurs successives du processus, notées X" "', X, * on
t'
appelle matrice de Toeplitz la matrice des autocorrélations; de (X. ..., X, * p) (donc
r

symétrique):

a 1. p(1t. '
t'...
| '...
P (t't

I P(t) """'
l:t: i
I

t: .... p
i I

i:\.- p ik) .. .. p (1i"""'...


il ) I

1
)
Pour les calculs effectifs, p (h) est estimé de la façon suivante ; si l'on dispose
des observations (xr, ..., xr) du processus, on estime p (h) par :

T-h
Z- (xt-xr) (x,*h-xT)
ï:l
p(n) :
T
+-
t 1
(x, - -"2
Xr)
i- I

4t
T

PI-1, TASSI - S. TEGAIT 297


NOTIONS ETEMENTAIFES SUR LES PROCESSUS

3.2 Exemples de corrélogramrnes


L'examen purement descriptif du corrélogramme fournit souvent d'intéressants
renseignements quant au processus étudié.

Examinons quelques cas, la pratique montrant qu'existent des formes relati-


vement standard.

Exemple 1

O)
æ
F
(o
tf)
+
cY)
N a
4a...
a aaaa....
a. aa aaaaaaaaa.
taaa a.a.a
o.
N
cr)
+
r.c)
(o
f-
æ
O)

L'autocorrélation devient rapidement "statistiquement> nulle, puisque seuls


p (1) et p (2) sont différents de zéro. (Les droites horizontales représentent les limites
de la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deux
limites, on accepte Ho.) lci seuls p (1) et p (2) sont significativement différents de
zéro, p (1].- O,lZ et p 12):0,38 ; bien sûr p (O) : 1, ce qui n'apporte aucune
information. X, est donc corrélé linéairement avec X, _ ,l et avec X, _ ; aucune
2
autre observation du passé du processus n'est liée de façon linéaire à X,.

Exernple 2

Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin que
c'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogramme
de:

Xr: at+b+st
où eo -) N (0,1).

298 PI_i.TASSI S LEGAIT


NOTIONS ELEMENTAIFES SUR LES PROCESSUS

Exemple 3
NOIIONS ELEMENTAIRES SUR LES PROCESSUS

Le processus représenté est :

X, : 0,51+5+4 (3sin 7TT -cos 7TT

6
-)+e,
s, -) N (O,2)

Exemple 4

o)
æ
F
(o
|r)
st
cf)
(\
o
C\,1

cf)
<t
rf)
(o
F
co
o)
I

Les corrélations p (h) sont toutes nulles, sauf p (12) et p (241; X, est donc
corrélé avec Xr_ 12 et Xt ,o. Ceci laisse présager une saisonnalité de période 12
(saisonnalité annuelle si X, est une observation mensuelle). Pour une série trimes-
trielle, on aurait p (4) - O.

ll semblerait donc suffisant d'extraire la saisonnalité pour obtenir une série


stationnaire, en étudiant la série X, - X, _ , r.

Exemple 5

La série analysée présente là encore un phénomène saisonnier de période


12, mais également un grand nombre de corrélations non nulles hors des pics
saisonniers. Le processus est a priori non stationnaire et saisonnier. Le corrélogramme
est celui de la série représentée ci-après. qui est le trafic aérien des lignes exté-
rieures. graphe dont le simple examen révèle la non-stationnarisation (tendance de
type exponentiel) et la saisonnalité (pics et creux réguliers) ; remarquons que cette
saisonnalité se déforme.

PH. TASSI S. LEGAII


NOI]ONS ELEMENTAIRES SUR LES PROCESSUS

ar
a
a
"a.
aa
a aaa
a a.a
a

a
l
I

|{

A A A r{, /\
,[,

/\
1963 1964 1965 't966 1967 1968 1969 1970

PH TASSI- S. LFGAIT 301


NOTIONS ELEMENTAIFES SUF LES PFOCESSUS

4 FONCTION D'AUTOCORRELATION PARTIELLE

4.1 Définition générale


Donnons tout d'abord une définition générale. Soient deux v.a.r. Y., et Yr, et n
v.a.r. Zr, ...,2n admettant toutes des variances finies. On note Y] (i : 1,21 la
régression de Y, sur les variables 2.,, ...,Zn, 1 (régression affine, avec terme
consta nt).

On appelle corrélation partielle de Y, et Yrpar rapport à2r, ..., Zn le coeffi-


cient de corrélation linéaire entre les parties de Y, et Y, non "expliquéesn par Y{ et
Y), soit :

- Yi. Y, -
m
Cov (Y., Yà)
PY.,Yr/2.,,...,2n:

Par exemple. pour trois v.a. Y,, Y, et Y.. on trouve le classique coefficient de
corrélation partielle de la statistique descriptive :

Ptz- Pts Pzz


P'rzts :
r.--..-.-2: r:--_2_
Vl-Prs \/t-Qzs

4.2 Le théorème de Frisch et Waugh

Nous énonçons maintenant sans démonstration un théorème fort utilisé en


économétrie.

Théorème 2

Le coefficient de corrélation partielle de Y, et Y, par rapport à2.,, ..., Zn n'est


autre que le coefficient de Y. dans la régression affine de Y., sur 21, ...,2n,Y2.

Plaçons-nous alors dans le cadre d'un processus (Xt, t e Z) réel, stationnaire,


du second ordre.

Définition 9
Soit la séquence X,, n, X, h + 1. ...,X, extraite du processus (X,, t e 7Z).On
notera, comme précédemment, Xi et Xi _ n les régressions affines de X, et
Xr nsurXr_h+ 1, ..., Xt-t.

302 PH. TASSI S. LEGAIT


NOTIONS ELEMENTAIRES SUR LFS PROCESSUS

On appelle coefficient d'autocorrélation partielle d'ordre h du processus la


corrélation partielle de X, et X,_n par rapport à X,_,, ..., X,_n*,, soit :

r(h) : P*,, x,
-h/xt-1 ....,Xt-h+1

_ Cov(X,-Xi, X,_n-Xi_n)

Le processus étant stationnaire, on a :

r(h) : Cov (X, - Xi, X, _ r, - X*t _ r,)


v (xt - xi)
En vertu du théorème 2 de Frisch et waugh, r (h) est donc le coefficient de
Xr_n dans la régression affine de X, sur X, _ .,, ..., X, _ :
,.,

Ona:an: r(h).

4.3 Système de détermination de r (h)


Soit le processus X, et sa régression (l ) :

h
Xr: âo a, Xr_, + e,
Vj :1àh: r:r
h
E(xr.xr_j) : a0 E(Xt_,) *,I1 u, E(xt_i.xt_j)

h
E(Xt).E(Xt_i) : [ao *,],, a, E(X,_i)l E(Xr_j)
On en déduit:
h
yU): cov(X,,X,_j) : y(_l
i]t ",
PH TASSI - S. LEGAIT
NOTIONS ELEMENTAIFES SUR LES PFOCESSUS

D'où. en divisant par y (Ol, on obtienr les équations (2) :

(21 P{j) : ! a,e(i_j) (.i :1àh)


i:1
Les équations (2) peuvent s'écrire matriciellement :

f rrrr \ ( 1 p(t p(h- 1ù G,\


tlllll
itttt I I p(1t
I II
Illlll:l. i:li : : ll-l
I

(3)
p(1)
tlt
| |
\rir't 7 \ot'-tt ptlt 1 ) tt
II i

an s'obtient dorrc. une fois calculé le corrélogramme, à partir d'un système linéaire
de h équations à h inconnues.

4.4 Un exemple
Soit ie processLts déflni par l'équation de régression :

Xr: 0,5 X, _ r - 0.25 Xr _ 2+ €t


avec par exemple, r, -) N (0,1). (C'est ce qu'on appellera un processus autoré-
gressif d'ordre 2.)

D'après l'équation, r (21 : -A,25; en outre, en écrivant le système(3) pour


h : "l
. on obtient le résultat général :

p(1):(1).r(1)
p(1) : r(1)
ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r (1 ), ce
qui peut être fait sans difficulté à partir des observations du processus"

5 LES OPERATEURS B ET F
Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nous
ferons un usage fréquent dans le chapitre 1 1

304 PH TASSI - S, TEGAIT


NOTIONS ETEMENTA]RES SUR LES PROCFSSUS

Soit (X,, t € Zl un processus.


On appelle opérateur oretard, (ou nbackwardn) l'opérateur B qui, à X. associe
BX, :
Ir,l. On appelle opérateur (avance> (ou oforwardo) I'opérateur F qui, à X'
associe FX. : X,*,.

ces opérateurs B et F peuvent opérer sur autre chose que des séries tempo-
relles: ainsi, si Pn (x) est un polynôme de degré n en la variable réelle x:
BPn(x) : Pn(x- 1) et Fpn(x) : pn(x+ 1)
on peut définir également, à partir des opérateurs de décalage B et F, les
opérateurs "différence premièreo :

V: l-B (nnabla,)

A: F-l ("delta")
(l représentant l'opérateur neutre : lX, : Xr).
VX, : Xt-Xt_t

AX, : Xt*t -Xt


Ces opérateurs permettent de générer tous les opérateurs Vd, Ad ( d e lN),
dont l'expression s'obtient par la formule du binôme :

Vd: t-clB+...+ {-1)d ad


La puissance d'ordre k de B ou de F n'est autre que l'opérateur de décalage
opérant k fois :

BkX, : X, n

Fk X, : Xr-P

ll est évident que :

BF:FB:I
o -F
n*1
-

F-1:B
On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x)
de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbnt
des polynômes en x de degré n - 1 ; Vk et ak transforment un [orynôme'Èn {*) en
un polynôme de degré n - k si n ) k, en 0 si n < k.

PH TASSI S. LEGAIT 305


NOTIONS ELEMFNTAIRES SUR LES PROCESSUS

Enfin, il est possible de donner un sens au développement en série de la


quantité:
1 1
<1
1-iB ou-silÀl
1-ÀF
1
:1+ B"+...
1-.ÀB ^B+^,
1

1-ÀF =1+^F+^'F"+...

PH. TASSI - S. LEGAIT


Chapitre 1 1

Exemples de processus

ll existe dans la littérature probabiliste un grand nombre de processus, cer-


tains d'entre eux étant adaptés à une situation bien définie. comme les processus
étudiant l'évolution d'une population. Sans prétendre à l'exhaustivité. ce chapitre a
pour principal objectif la présentation de quelques processus probabilistes impor-
tants dans l'analyse statistique des séries temporelles.
Pour mémoire, le processus le plus simple consiste en la donnée d'une suite
dev,.a,!X,,
\e Zltelteque E{Xt) : OgtV_(X.l : o",Cov (X,. X1*6) = Opourrout
t et h. Un tel processus porte le hom de bruit 6lanc.

1 LE PROCESSUS DE POISSON

1.1 Les processus à accroissements indépendants

Définition 1

Le processus (X,, t € T) est dit à accroissements indépendants si pour tout


n-uple de temps t., { t, ... a tn les v.a.r. Xr,, Xr, - Xtl X,n - X,n_' sont
indépendantes.

Définition 2
Le processus (X,, t € T) est dit à accroissements indépendants stationnaires
si, de plus, la loi-de Xt*h - Xt, h € T, ne dépend pas de t.

Remargue
Pour de tels processus, on peut montrer à partir de la fonction caractéristique
Qx\ *,n
(u,, ..., un) de (X,,, .... Xrn) que la loi du n-uple de v.a.r. est parfaitement
déterminée si I'on connaît les lois de X, et X, - X..

Un bruit blanc est, de façon évidente, un processus stationnaire à accroisse-


ments indépendants stationnaires.

PH. TASSI . S. LEGAIT 307


EXËMPLES DE PÊOCESSUS

1.2 Le processus de Poisson

a) Définition et hypothèses
Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (par
exemple,()'C lN), que l'oh supposera être un processus de dénombrement ou de
comptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) de
réalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourra
compter le nombre de voitures passant devant un observateur durant un intervalle
[0, t[, ou bien le nombre de clients entrant dans un magasin, etc.
On fait les hypothèses suivantes :

r H1 : Le processus (X,) est à accroissements indépendants: Vto, .... tn € lR,


to(t1
v.a. indépendantes.
o H2 : Le processus (X,) est homogène : Vt, t' (t > t'), X, - X, ne dépend que
det-t'etnondetett'.
o H3 : La probabilité P (dt) pour qu'un événement se réalise entre t et t + dt
est :

P (dt) : ndr + o (dt) (À > o; tim j9 : ol


dr -o dt

o H4 La probabilité pour que 2 événements ou plus se produisent entre t et


t + dt est négligeable à l'ordre 1 en dt.

b) Loi du processus
Soit pn (t) : P (Xt : n) ; à l'ordre 1, on peut écrire :

pn (t + dt) : pn (r) (1 - dt) + pn_r (r) . .Àdt


^
pn(t+dt) - pn(t)
_ _ ipn(t) + ÀPn-1 (t)
dr
En faisant dt * O :

(1) P',n (r) : -i Pn (r) + ,1pn*, (t)

D'autre part, on a à I'origine


: po (t) (1 -
po (t + dt) ,À dt)

p;(t):-ipo(t)
po(t) : e-i' car. pn(O) : o Vn € lN.

308 PH. TASSI - S. LEGAIT


EXEMPLES DE PROCESSUS

Posons Qn (t) = Fn (t). L'équation différentielle (1) devient


"it :

(2| q'n(r) : Àqn_, (t) Yn à 1

ll s'ensuit ;

qi(t) : À + qr(t) :it

: i ('1t)'
q, (t) qr (t) + Qe (t) :
2

Q'n(t) : iqn-, (t) e qn(r) :-_]41)n


nl
et donc :

(3) P (Xt : n) : s-it !+


n!
X, suit une loi de Poisson de paramètre .Àt.

c) Lien avec le temps d'attente


soit T la v.a. représentant le temps d'attente du prochain événement, lors-
qu'on est à la date t.
P(T>s) : P(X": O) : s-'1s (s>O)
d'où: P(T<s) : 1-e-it.
T est donc une v.a. de densité e-isl (s), soit T -) f ,1, À).
r-
^
Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le temps
s'écoulant entre la réalisation des événements n et n + 1. une origine o étant
choisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.

on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépen-
dantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1.

Remargue
Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:
Sk : To*... +Tk-r

La loi de Sn est donc une loi gamma y (k,


^1.

PH. TASSI - S. LEGAIT 309


EXEMPLÊS DE PROCESSUS

2 LES PROCESSUS DE VIE ET DE MORT

lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvant
subir des événements de type "naissance". entrée dans le système, ou "mort,. sortie
du système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre de
ojobs, en attente dans un système informatique, l'évolution démographique d'une
zone géographique peuvent être de bons exemples d'une telle modélisation.

Soit donc un processus (Xfl t € lR) à temps continu et espace d'états discret.
On fait les hypothèses suivantes:
o H1 : (Xr) est à accroissements indépendants.
c H2 : On appelle "événementu soit une naissance. soit une mort. Le système
étant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort)
survienne entre t et t + dt est i n dt (resp. pn dt).
o H3 : La probabilité pour que surviennent deux événements ou plus entre t
et t + dt est un o (dt).

Modélisation
Posons pn(t) : P(Xt: ;pourn21,ona:
n)

pn(t+dt) : pn(t) (1 -,^ndt) (1 -gndt)


* Pn-, (t) in-, dt (1 -gn-1 dt)

* Pn+r (t) /n+1 dt (1 - in*1 dt)

En supprimant les termes d'ordre 2 et plus en dt, et en procédant comme


pour l'équation fondamentale du processus de Poisson, on trouve :

p'(t) : -(in+gn)pn(t)+Àn_l pn_1 (t) * !n+.r on*,(t) (n ) 1)

A l'origine :

po(t+dt) : po(t) (1 -iodt)(1 -Podt) + pl (t) g1 dt


d'où : p; (t) : - io po (t) + p, p, (t)
Enfin :

on (O) : 1 si Xo - n, Pn (O) : 0 sinon.


En résumé :

p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) 1)

p; (t) : - io Fo (t) + p, p, (r)


on (0) : î[xo: n]

310 PH. TASSI - S. LEGAIT


EXEIVPLES DE PROCESSUS

Remarque

Les cas les plus fréquents sont les suivants : ' ' t)
:
" in ,À : naissance au taux i (souvent Ào : 0)
r in : ni : naissance au taux i par individu présent dans re système
. Fn g : mort au taux U Uto : O)
. Un : n/_/ : mort au tauxg par individu présent.

3 LE MOUVEMENT BROWNIEN

Le processus (X,, t€ lR+) est dit brownien ou de Wiener_Lévy si :

(i) le processus est initialisé en t: O

p(Xo: O) : l
(ii) le processus est à accroissements indépendants stationnaires
(iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une
roi
normale d'espérance nulle et de variànce br _ s1
lt :

X, - X. -> N (0, a r,4:S


P (Xt - X, € A) : *'t2o'(t -,)dx
;#6-J Oe-

4 LES PROCESSUS AUTOREGRESSIFS

. Dans cette partie, on ne considérera que des processus


réers discrets du
deuxième ordre.

4.1 Définition
soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p,
noté
X, -) AR (p), si :

p
X,- : .r- gi Xt-i+ tr
i:1

PH, TASSI - S, LEGAIT


EXEMPLES DE PROCESSUS

cr est un bruit blanc :

E(st) :O,V(e,) :02, E(e,e,.) :O (T+t'l

Remarques

a) En faisant intervenir l'opérateur B, on peut écrire :

(-Qt B-...-9oBo) X,: t,.soit<D(B) Xr: tt


avec le polynôme :

<D1e; = l-9', B QrB'


de degré p.

b) Sous sa forme la plus générale, un processus AR (p) peut contenir un terme


constant do: p
X. : do * Et
,Z-, 'tXt-i+
c) Supposons E (X,) : m, constante Vt. Alors, m vérifie :

p
m(1 - I e,l:A
l:l

p
si 1+
i:1
ô {z) (ce que nous supposerons par la suite), m : O.

4"2 Etude du modèle AR (p)

a) Inversibilité du processus AR (p)

Soit <D (71 : I- e,,7.... - çpZp le polynôme caractéristique du processus


AR (p) ô (B)X,: e,.

Soient 2.,,"..,7p1es racines de <D (Z) dans C, et notons Zr, ...,Zr les r racines de
module supérieur à 1, Zr+1, ..., Zo les p-r racines de module inférieur à 1. (Notons
que le produit 2., ...2, : 1.1

On peut écrire :

elzy: ti rr-4i
i:1
fi
Li j:r+1 r-4t Lj

312 PH. TASSI S, TEGAIT


EXEMPLES DE PROCESSUS

Par analogie, on a :

: ti t', fi lr--1r
<D1a;
i:1
(1 - Zi j:r+1 Zj'
où 1 représente ici l'opérateur identité.
Soit :

:5f (t- 3, : fi
li ",ô,(B) j:r+1 rr-3t
o,qey
i:l Zj'
@, (B) peut se transformer, en factorisant B, en :

Qr(B) : (- 1;P-r 3n-r fi )g


j:r+1 lj -r,rl '
et donc:
vP :
x, [(- 1)0-r fl . - z, Fp-' o,t (B) o;t (F)] €t
j:r+1 '
avec :

p
: n
j:r+1 f-Z;FI
Oo(F)

X, est donc une combinaison linéaire d'ordre infini des c, :

+oô
Xr: : Qi r,*i
l:-oo

On retrouve :

E(X,) : O Vt
Remarque importante
supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieur
à 1, Xt : .Di' (S) e,. Alors, en décomposant en éléments simples, puis en
développant en série :

pb,
=t
'
^^-L
i:l . B I

zi

pæBk
X,: :
' i:1 b,(: . )e.
'k:O Z*, t

PH. TASSI - S. LEGA|T


EXEMPLES DE PROCFSSUS

oc
X.- : (>F b'
. )B*s,
' k: O i:l Z\,

x.- l- P b;
, k:O i:1 Z\
t-K

Soit: X,: i ^tiEr-i


t:(J

X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que le
processus X, est inversible. En outre, on a :

E (e, X,_n) : O (k > 1)

Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équa-
tion de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert
p
engendré par (X,_.,, ..., X,,J; la relation X, : qi Xr_, + st est alors
iIf
l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre 5).

Exemple î
Soit X, le processus de Markov AR (1) défini par :

Xr: O,4 X,_1 * t,


Ô121 :1-O,42
Le polynôme a pour racine 2., : 2,5 supérieur à 1.

On peut écrire :

1-r-
x,
'
- 1-0,48 t

X, : (1 + 0,4 B+ (0,412 82 + ...) st

X, : €, + O,4 et- 1 + ... + (0,4)k tr-k * ...

On a inversé le processus AR (1). On remarque par ailleurs que E (e, Xr-o) : O,


(k > 1), et que le bruit est non corrélé avec les observations passées du processus.

314 PH. TASSI - S, LEGAIT


EXEN/PLES DE PFOCESSUS

Exemple 2

Soit: X,: 2Xt_t + €t


(1 -28) X, : €,

v1
^t - l--lt rt

Or, le développement de t
' -1
1-,ÀB 1ou 1-,îF)n'adesensquesil',al < 1.

On peut écrire :

1 r _F
1-28 F-2 2(1 _O,sFt
et donc :

X, : -0.5F (1 + O,S F + (O,S)2 F2 +...) e,


X, : -0,5 e,*r -(O,S). €t+2-... €t*k_,..
-(O,S)k
X, s'exprime en fonction des vareurs
à venir du bruit e, ; re processus n.est pas
inversible.

Contrairement à I'exemple précédent. E (c, Xr_p) n,est pas nul :

E (e, X,_u) : - 1O,S)k o2


et rr est corrélé avec le passé du processus.

Exemple 3
Soit le processus de yule AR (2) défini par
;

Xr: -1,5 Xr_1 + Xt_2 + rt


O1a; : l+1,5 B-82
e1z1 = t + 1.5 z_22: (1 _ O,sz) (1 +22)
Ona:
(1 -0.58) (1 +28) X,: e,

2B(1 -O,Uqt (1 +0,5F) X,:e,


PH. TASSI - S, LEGAIT
315
EXEMPLES DE PROCESSUS

0,5 F
(1 - 0,5 B) Xr
1+0,5F ',

0,5 F (1 - 0,5 F +...+ (- l)k (0,5)k Fk + ...) €t


-Ë^
+oo

K LÎK
K- |

avec :

ûk: (- t)k-1 (o,slk

D'où :
,l

X,: Gk 6t*k
1-0,58 r.I r
æ
:
j:o
: (o.s/ BI :
k:1
d.t,
K r+K

co +ôo

k:l K' .:^ (0,5)j €t*r_i)


I:U
b) Stationnarité
Compte tenu de ce que nous venons de voir quant à la valeur de E (e, Xr_o).
la stationnarité d'un AR (p) n'est pas toujours établie.

Ona:
V(Xt) : E(X'?r)
p
E(Xt.( Z- 9, Xr_, + er))
l:l
p
.2- ç, E(Xt Xt_i) + E(e,X1
l:l
p

i:1
p
Or: E (e.L X.)
I
: e, E(e, Xr-J + E (s1)
i:l
Premier cas : Le processus est inversible, c'est-à-dire toutes les racines de tD (Z)
sontsupérieuresà 1 en module; alors E(e,Xr-) : O et E(erXr) : o2.

316 PH. TASSI . S. LEGAIT


FXEÀ.,1PLFS DE PROCESSUS

D'où :

r(o) : p

i:"1
Y$!+s2

r(O) : r(o) r
p
Qi Pfiil + q2
l:l
: : ê
r(0) V(Xr)
p
1- > (p,p(il
t- I
V (X,) est indépendante de t : le processus est faiblement stationnaire.
Deuxième cas ; Les racines de <D
{Z) ne sont pas toutes supérieures à 1 en module.
Nous nous contenterons d'énoncer le résultat : on peut toujours supposer que
les racines du polynôme <D (z) sont de rnodule plus grand qu" i, en remplaçant le
processus S (BlXt : €t par le processus o"
{b} xf : a,. où ô* te) s.ôntilnt eÀ
rernpiaçant, cians s (B), les racines inférieures à 1 en nrodule par leur inverse, a,
étant un nouveau bruit blanc.

e) Fonction d'autocarrélation partielle


Vh > p, on peut écrire:
p
X_ I
T
._4
gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r

avecE(er) :0, V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdonc


l'équation de la régression de X, sur X,-r, ....X,*n et r (h), coefficient de X,_n, est
nul.
Ceci est une caractéristique des AR (p) :

Vh > p r(h) : 0

d) Fonction d'autocorrélation

Vh > O:Xr. Xt-h : g


Pi xr i X, r, * et Xt-l-,
i:'l
p
r(h) : z aiyh-ù
i:'l
p
(4) =' p(h)
I ei ph-ù
,_I,

PH TASSI , S. LEGAIT
EXEMPLES DE PROCESSUS

On peut écrire les équations (4) sous forme matricielle pour h : 1àp :

p 1 p (1) ........ p (p - 1)
1"
p(11
.

(5)
.

p(1t
:
p ipr p(p-1) ......... plll 1

La relation matricielle (5) s'appelle système de Yule-Walker.

Exemple
Soit le processus :

xr : 0,5 X,_, - O,25 Xr_, + e,


Ona:

(;r) : [],, '.'1) (::,)


P (11 : o,5 - o,25 P (1)
p (21 : o,5 p (1)- 0,25
D'où :

p (11 : 0,4 et p (2) : - 0,05.


Pour avoir p (3ll, p (4) etc.. on utilise les relations (4) :

p(3) = A1pQl * e"p (1) : - 0,125


p(41 : A1 ppl + ezp (2) : -O,OS
etc.

3'1 B PH. TASSI . S. LEGAIT


EXEMPLES DE PFOCESSUS

c) Fonction d'autocovariance
Soit à calculer E (X, . X,_r,)

E (Xt. Xt_h) : E [(rt - 0., €t-., - ... - 9o e,_o)

- dr tt-h-.,
(€t-6 da t,-q-6)J

e Si h ) q : E(X,.X,_') : 0
c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo'

Le processus est donc stationnaire (au sens faible) et on en déduit la fonction


d'autocorrélation :

P(h) : O Vh ) q

-0,+0.0, +...+0 e
p(h) :#si h(q.
1+01+ .*eZ
Le calcul de r (h) ne présente pas de particularité, et est exécuté selon le
système décrit au chapitre 10.

ll résulte des calculs précédents qu'un processus moyenne mobile est toujours
stationnaire (au sens faible), ce qui n'était pas le cas pour un processus auto-
régressif quelconque.

Conclusion
Le problème de l'identification d'un processus MA (q), c'est-à-dire la déter-
mination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).

5.3 Remarque sur le lien entre AR et MA


La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para-
graphe 4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique.
on peut approximer au sens de la moyenne quadratique (donc dans Lr) un proces-
susAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)
défini par :

Xr:p X, ., * r,
E(€r) : O, V(e,) : o', Cov(e., er*n) :0 (h + O)

324 PH TASS1 S. LEGAIT


EXEMPLFS DE PROCESSUS

Par substitutions successives, il est clair que :

X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,

E,*, - pi ,, jl, : p"e*" E (x1_q_1)


,!o
supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr)
pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus). L

Alors :

r,-j)" : p'q*' v
- j:o^ ri
e (Xt 9

et E(X,-Y,,')t -_ O quandq ----> +ôo, en notanty,,, : 9 ,t cr-,. La suite


j:0 '[r
de v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.

DH T^qst S IFCAIT 321


I

i
BIBLIOGRAPHIE

I REFERENCES CITEES DANS LE TEXTE

I 11 Z. BIRNBAUM (1948) : On random variables with comparable peakedness,


Ann. Math. Statisr., 19, pp. 76-81.
I 2l H. DAVID (1981): Order staristics, Witey.

t 3l L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,


New York.

t 4l B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288,


Université de Savoie et Laboratoire IMAG, Grenoble.

t 51 B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'une


série aléatoire, Ann. Marh,44, pp.423-453.

t 6l J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.


Paris.

I 7) L. de HAAN (1976) :Sample extremes: an elementary introduction, Statis-


tica Neerlandica, 30, pp.161-172.
t 8l N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics, Houghton-
Miffin et Wiley.
t 91 A. KAUFMANN (1968) :Méthodes et modèles de la recherche opération-
nelle, Dunod, Paris.

t10l A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge di


distribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.

t11 I J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse,


Economica, Paris.

112l P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris.

t1 3l E. LUKACS (1960) : Characteristic functions, Griffin, Londres.

[14] H. MANN et D. WHITNEY (1967) : On a rest of whether one of two random


variables is stochastically larger than the other, Ann. Math. Statist., 18,
pp. 50-60.

PH, TASSI - S. LFGAIT ,) 2.1


BIB LIOG RAPH IE

t15l R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, in


Selected Papers ll (Ann. Math. Soc.), pp.271-2g4.

t16l A. MONFORT (1980) : Cours de probabitités, Economica, paris.


l17l F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math.
Statist., 17, pp. 377 -4O8.
tlBl RAND coRPoRAT|oN (1955) :A miilion random digits with tooooo nor-
mal deviates. The Free Press. Glencoe, lllinois.

t191 G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.

t20l P. TASSI (1985) : Méthodes statistiques, Economica. paris.


l21l W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry,
Journalof Applied Mechanics, 18.

II AUTRES REFERENCES GENERALES


J. BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,
Masson, Paris.
P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley.

N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris.

P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.

G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris.


G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.
D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle,
[Vlasson, Paris.

D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices cor-


rigés et rappels de cours, Sirey, paris.
J.L. DOOB (1953) : Stochastic Processes, Witey.
M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabi-
lités avec rappels de cours, Dia, Belin, paris.
W. FELLER (1966) : An introduction to probability theory and its applications, Wiley,
New York.
T. FINE (1973) : Theories of probability. Academic press, New york.

P. HALMOS (1950) : Measure theory, Van Nostrand.

324 PH. TASSI . S. LEGAIT


BIB LIOG RAPH IE

P.L. HENNEOUIN et A. TORTRAT (196b) :Théorie des probabitirés er quetques


applications, Masson, Paris.
A. JACOUARD (1974) : Les probabitités, pUF, Coil. Oue sais-je ?, paris.
B, de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues,
Technip, Paris.
A. KRIEF et s. LEVY (19721: calcul des probabilités, exercices, Hermann, paris.
M. LOEVE (1960) : Probability rheory, Van Nostrand.
M. METIVIER (1968) : Notions fondamentales de la théorie des probabilités, Dunod,
Paris.

J. NEVEU (1964) : Bases mathématiques du calcul des probabilités, Masson, Paris.


PARTHASARATHY (1967) : Probabitity on metric spaces, Academic press.

J. PELLAUMAIL (1986) : Probabilirés, statistiques, f ites d'artente. Dunod, paris.


A. RENYI(1966) : Calculdes probabitités, Dunod, paris.
s. Ross (1987) : lnitiation aux probabilités, presses polytechniques romandes,
Lausanne.
Y. ROZANOV (1975) : Processus aléatoires, Editions de Moscou.
A. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléa-
toires, Masson, Paris.
K. VO KHAC (1984) :Théorie des probabitités, Eilipses, paris.

PH. TASSI - S, LEGAIT 325


TABLES NUMERIOUES

Les tables I à I sont reproduites avec I'aimable autorisation du


CERESTA: lo, rue Bertin Poirée - 75001 Paris. Elles sont extraites
de I'Aide-mémoire pratique des techniques statistiques, qui constitue
un numéro spécial du volume XXXIV de la Revue de statistigue
appliquée, 1986.

Les tables I à I I sont extraites du livre Statistique non paramétrique


et robustesse, de Jean-Pierre l-ecoutre et Philippe Tassi, Economica,
Paris, 1987.

PH. TASSI S. LEGAIT


TABLES NTJMEFIOTJES

Table no 1

FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE


cette table donne, pour u >- 0, la valeur p : F(u) de la fonction de répartition de la loi
normale réduite telle que

P : Fttt) : f' L "-5 a,


J--/2n
Pourr < 0: P: F(u) - I - F(-r).
u 0,00 0,01 0.02 0,03 0,04 0.05 0.06 0,07 0.08 0,09
0,0 0,5000 0,5040 0,5080 0,5 l 20 0,5 I 60 0,5 I 99 0,5239 0,5279 0,53l9 0 5'l5a
0,1 0,5398 0,5438 0,54'78 0,55 r7 0,5 5 57 0,5596 0,5636 0,5675 0,51t4 0,5753
n) 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6 l4l
0,3 0,6 t 79 0,6217 0,6255 0,6293 0,633 I 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,70 l9 0,7054 0,7088 0,7123 4,7 t5'7 0,7190 0,7224
0,6 0,725'7 0,7291 0,7324 0,7357 0,7389 0,7422 0,'t454 0,7 486 t7
0,'7 5 0,7549
0,7 0,7580 0,76 I I 0,7642 0,'7673 0,7704 0,7734 0,7'764 0,7794 0,7823 0,7 852
0,8 0,788 I 0,79 I 0 0,7939 0,7967 0,7995 0,8023 0,805 l 0.8078 0,8 106 0,8 l 33
0,9 0,8 l 59 0,8 186 0,82t2 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,83 89
1,0 .q,-q4!] 0,8438 0,8461 0,8485 0,8508 0,853 I 0 8554 0,85 77 0,8599 0,862 l
I,l 0,8643 0,8665 0,8686 0,8708 0,8729 0,87 49 0,87 70 0,8790 0,88 l0 0,8830
t,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,901 5
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,91 l 5 0,9r3l 0,9t47 0,9t62 0,9t77
t,4 0,9192 0,9207 0,9222 0,9236 0,925 l 0,9265 0,9279 4,9292 0,9306 0,93 r9
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0 s4)s 0,9441
1,6 0,9452 0,9463 0,94'74 0,9484 0,9495 0,9505 0.95 l5 0,9525 0 s51s 0,9545
I,'l 0,9554 0,9564 ô s571 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,964 I 0,9649 0,9656 0,9664 0,967 l 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,97 l3 0,97 r9 0,9726 0,9'732 0,9738 0,9744 0,9750 0.97 56 0,976 I 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,985 7
'\1 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
Z,J 0,9893 0,98e6 0,9898 0,9901 0,9904 0,9906 0,9909 0,991 I 0,99 r3 0,99 I6
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9.93 I 0,9932 0,9934 0,9936
t< 0,9938 0,9940 0,994 I 0,9943 0,9945 0,9946 0,9948 0,9949 0,995 I 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0 qssq 0,9960 0,996 I 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0.9972 0.9973 0.997 4
2,8 0,9974 0,997 5 0,997 6 0997'7 0,997'7 0,9978 0,99'19 0,9979 0,9980 0,998
)o 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
I

3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9r03 0,9r06 0,9r l0 0,9r l3 0,gr l6 0,gr lg 0,gr2l 0,9'24 0,9r26 0,gr2g
J.t 0,gr3l 0,9334 0,9336 0,9r39 0,9r40 a,9142 0.9r44 0,9r46 0,9r49 0,9r50
11 0,9'52 0,9'53 0,9r55 0,9r57 0,9r59 0,9r60 0,9161 0 q'6) 0,9r64 0,9r65
3,4 0.9r66 0,9r68 0,9r6g 0,9170 0,9r71 0,91'r'2 0,9r73 0,9\7 4 0.9r7 5 0,9r76
1S 0,9^77 0,9r78 0,gr7g 0,9r79 0,9r90 0,grg I 0,g3g l 0,9r92 0,grg3 0,9383
3,6 0,9'94 0,9r95 0,9r85 0,9r86 0,9r86 0,9397 0,9r97 0,9rgg 0,9rgg 0,9'99
3,7 0.9'89 l 0,93g0 0,9400 0,9'04 0.9008 0,9'12 0,90l5 0.9'l g 0,9022 0,9425
3,8 0,9'2g i 0,9'3 | 0,9"33 0,9'36 0,9039 0,914l 0,9443 0.9146 0,9'49 0,9150
3,9 0,9"52 | 0,9454 0,9056 0,9'59 0,9t59 0.9161 0.9'63 0,9'64 0,9'66 0.9067

N.B. l. La notation 0,9J03, par exemple, équivaut à 0,99903


2. Pour les valeurs de r > 3,99, on pourra utiliser I'approximation suivante (à l0-r près)
u)
F(u):t-e' 2 (t--t 3 15 los\
urt7-x\' ;*,i- n* ,i)

PH IASSI S. LEGAIT 2to


TABLES NUMERIOUES

Table no 2
FRACTILES DE LA LOI NORMALE REDUITE

Cette table donne les valeurs absolues des fractiles, nr de la loi normale réduite tels que

î,P
-!' ,
F1u,l: I +e--ldu:P
J__lztt
Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs.
Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs.

P 0.000 0.001 0.002 0.003 0.004 0,005 0,006 0,007 0,008 0,009 0,010

0,00 3,0902 2,8782 2,74'18 2,6521 2,57 58 z,5t2l 2,4573 2,4089 2,3656 2,3263 0,99
0,0 r2,3263 2,2904 2,257 | 2,2262 2,1973 2,t701 2,1u4 2,1201 2,0969 2,0749 2,0537 0,98
0,02 2,053'7 2,0335 2,0141 I,9954 1,977 4 1,9600 t,943t 1,9268 I ,91 l0 I,8957 l,8808 0,97
0,03 1,8808 I,8663 1,8522 I,8384 1,8250 l,8ll9 I,7991 l,7866 |,'77 44 t,1624 1,7 507 0,96
0,04 I,7 507 t,'t392 |,72'79 t,7 t69 l,7060 |,6954 I,6849 I,67 47 |,6646 t,6546 |,6449 0,95
0,05 t,6M9 I,6352 r,6258 |,6164 I,6012 l,5982 I,5893 l,5805 l,5718 I,5632 I,5548 0,94
0,06 I,5548 1,5464 l,5382 l,530 r t5220 l,5141 I,5063 l,4985 I,4909 l,4833 l,4758 0,93
0,07 I,4758 I,4684 I ,461 I I,4538 t,4466 I,4395 1,4325 1,4255 I ,41 87 l,4l l8
r,4051 0,92
0,08 I,405 I I,3984 I,39t7 l,3852 t,3787 |,3722 I,3658 l,3595 r,3532 1,3469 l,3408 0,9 r
0,09 l,3408 |,3346 l,3285 1,3225 I ,3165 1,3 106 |,3047 I,2988 t,2930 1,2873 I ,28 l6 0,90
0, l0 l6 I,27 59 t,2702 1,2646 I,259t t,2536 I ,248 r |,2426 t,2372 I,2319 I,2265 0,89
I ,28
0,1 I |,2265 t,2zlz I,2r60 |,2t07 I,2055 1,2004 I,1952 I,l90l l, I 850 I,1 800 I,1 750 0,88
0, l2 1,1750 I,t700 I,1650 I , l60l 1,1 552 I,1 503 1,1 455 t,t407 1,1 359 l,l3 I I t,t264 0,87
0, l3 |,1264 I,t2t7 I ,l 170 I,l 123 |,1077 I,l03 l l,0985 l,0939 r,0893 l,0848 1,0803 0,86
0,14 I,0803 I,0758 l,0714 l,0669 I,0625 I,0581 I,0537 I,0494 I,0450 I,0407 r,0364 0,85
0,15 t,0364 |,4322 |,0279 1,0237 I ,0 194 l,0152 I ,01 l0 l,0069 I,0027 0,9986 0,9945 0,84
0, l6 0,9904
0,9945 0,9863 4,9822 0,9782 0,9141 0,970 I 0,9661 0,962t 0,9581 0,9542 0,83
0,1 7 0,9542 0,9502 0,9463 0,9424 0,9385 0,9346 0,9307 0,9269 09na 0,9192 0,91 54 0,82
0,r8 0,91 54 0,9116 0,9078 0,9040 0,9002 0,8965 0,8927 0,8890 0,8853 0,88 l6 4,8779 0,81
0, l9 0,8179 0,8742 0,8705 0,8669 0,8633 0,8596 0,8560 0,8524 0,8488 0,8452 0,84 I 6 0,80
0,20 0,8416 0,8381 0,83 10 0,8274 0,8239 0,8204 0,8 169
0,8345 0,8 l 34 0,8099 0,8064 0,79
0,21 0,8064 0,8030 0,796 l 0,7926 0,7892 0,7858 0,7824
0,7995 0,7790 0,1'756 0,'7722 0,78
0,22 0,7722 0,7688 0,7655 0,762t 0,7588 0,7 554 0,7 521 0,7488 0,7 454 0,7421 0,7388 0,7'7
0,23 0,7388 0,7356 0,7323 0,7290 0,7257 0,7225 0,7 t92 0,7 I 60 0,7 t28 0,7095 0,7063 0,76
0,24 0,7063 0,7031 0,6999 0,6967 0,6935 0,6903 0,6871 0,6840 0,6808 0,6176 0,67 45 0,75
0,2s 0,6745 0,6713 0,6682 0,6651 0,6620 0,6588 0,6557 0,6526 0,6495 0,6464 0,6433 0,7 4
0,26 0,6433 0,6403 0,6372 0,6341 0,631l 0,6280 0,6250 0,62t9 0,61 89 0,61 58 0,6128 0,'t3
0,27 0,61 28 0,6098 0,6068 0,6038 0,6008 0,5978 0,5948 0.59 l 8 0,5888 0,5858 0,5 828 0,72
0,28 0,s828 0,5799 0,57 69 0,5740 0,5710 0,568 I 0,565 l 0,5622 0,5592 0,5563 0 st14 0,71
0,29 0,5534 0,5505 0,5476 0,5446 0,5417 0,5388 0.5359 0.5330 0.5302 0.5273 0.5244 0,70
0,010 0,009 0.008 0,007 0,006 0,005 0,004 0,003 0.002 0,001 0,000 P

JJU PH TASSI S, LEGAIT


TABLES NUMERIOUES

Table no 2 (suite)
FRACTILES DE LA LOI NORMALE REDUITE

P 0,000 0,001 0.002 0.003 0,004 0,005 0.006 0.007 0.008 0,009 0.010
0,30 0,5244 0,52 I 5 l 0,5072 0,5044 0,50 I 5 0,4987 0,4959 0,69
0,5 187 0,5 I 58 0,5129 0,5 l0
0,31 0,4959 0,4930 0,4902 0,48'14 0,4845 0,4817 0,4'789 0,476t 0,4733 0,4705 0,4677 0,68
0,32 0,467',l 0,4649 0,4621 0,4593 0,4565 0,4538 0,45 l0 0,4482 0,4454 4,442'7 0,4399 0,67
0,33 0,4399 0,4372 0,4344 0,43 l6 0,4289 0,4261 a,4234 0,4207 0,4t79 0,4t52 0,4125 0,66
0,34 0,4125 0,409'7 0,4070 0,4043 0,40 l6 0,3989 0,396 l 0,3934 0,3907 0,3880 0,3853 0,65
0,35 0,3853 0,3826 0,3799 0,3772 0,3'745 0,37 t9 0,3692 0,3665 0,3638 0,361l 0,3585 0,64
0,36 0,3585 0,3s58 0,3531 0,3505 0,3478 0,3451 0,3425 0,3398 0,3372 0,3345 0,33 l9 0,63
0,37 0,33 t 9 0,3292 0,3266 0,3239 0,32 l3 0,3 186 0,3 160 0,3 134 0,3 107 0,308 I 0,3055 0,62
0,38 0,3055 0,3029 0,3002 0,2976 0,2950 0,2924 0,2898 0,287 | 0;?845 0,2819 {2793 0,6 r
0,39 0,2793 0,2767 0,2741 0,2715 0,2689 0,2663 0,263't 0,261I 0,2585 0,25s9 0,2533 0,60
0,40 0,2533 0,2508 0,2482 0,2456 0,2430 0,2404 0,2378 0,2353 0,2327 0,230 l 0,2275 0,59
0,41 0,2275 0,22s0 0,2224 0,2 198 0,21'73 0,2147 0,2t21 0,2096 0,20'10 0,2045 0,20 l 9 0,58
0,42 0,2019 0, l 993 0,1968 0,t942 0,t917 0,1891 0, l 866 0, l 840 0,l8l5 0, r 789 0,1764 0,57
0,43 0, I 764 0, I 738 0,1713 0, I 687 0,1662 0, l 637 0, l6l I 0, l 586 0, l 560 0, I 535 0,1 5 10 0,56
0,44 0,1510 0,1484 0,1459 0,t434 0, I 408 0, l 383 0, I 358 0,t332 0, I 307 0,1282 0,1257 0,55
0,45 0,125'1 0,1231 0, l 206 0,1 l8 l 0,1 156 0,1 r30 0,1 105 0, I 080 0,1055 0, I 030 0,1004 0,54
0,46 0, I 004 0,0979 0,0954 0,0929 0,0904 0,0878 0,0853 0,0828 0,0803 0,0778 0,0753 0,53
0,47 0,0753 0,0728 0,0702 0,0677 0,0652 0,0627 0,0602 0,0517 0,0552 0,0527 0,0502 0,52
0,48 0,0502 0,0476 0,0451 0,0426 0,040 l 0,0376 0,0351 0,0326 0,030 I 0,02'16 0,025 l 0,51
0,49 0.0251 0,0226 0,020 l 0,0175 0,01 50 0.0125 0.01 00 0,0075 0,0050 0,0025 0,0000 0.50

0.010 0,009 0,008 0,007 0,006 0.005 0.004 0,003 0,002 0,00 r 0.000 P

Grandes valeurs de u

P l0-" l0-5 l0 -o l0 -' l0 -E


t 0-'q

uP 3.7 190 4,2649 4,1534 5. l 993 5,6 120 5,9978

PH, TASSI - S, LEGAIT 331


TABLFS NUMEBIOUES

Table no 3
LOI BINOMIALE - PROBABILITES CUMULEES

t-.
Probabilités cumulées Pr (& < c) : I Cl po (l - p)
t_0
n c
p: l% P:2ol p:3% p:4% P: 5ok P : 60l p:'7% P:8% p :9% p : t09
0,95 l0 0,9039 0,8 5 87 0,8153 0,7738 0 Tttq 0,6951 0,659 I 0,6240 0,5905
I 0,9990 0,9962 0,9915 0,9852 0,97'7 4 0,9681 0 q575 0,9456 4,9326 0,9185
5 2 I I 0,9997 0,9994 0,9988 0,9980 0,9969 0,9955 0,9937 0,99t4
3 I I I I 0,9999 0,9998 0,999'7 0,9995
4 I I I I
0 0,9044 0,8171 0,73'74 0,6648 0,5987 0,5386 0,4840 0,4344 0,3894 0,3486
I 0,9957 0,983 8 0,9655 0,9418 0,9 r 39 0,8824 0,8483 0,8l2l 0,77 46 0,7361
2 0,9999 0,999 I 0,9972 0,9938 0,9885 0,98 12 0,911 ,1 0,9599 0,9460 0,9298
J I I 0,9999 0,9996 0,9990 0,9980 0,9964 o os4, 0,9912 0,9872
4 I I 0,9999 0,9998 0,9997 0,9994 0,9990 0,9984
5 I I I 1 0,9999 0,9999
6 I I
0 0,860 l 0,7386 0,63 33 0,542t 0,4633 0,3953 0,3367 0,2863 0,2430 0,2059
I 0,9904 0,9647 4,9270 0,8809 0,8290 0,'7738 0,7 l 68 0,6597 0,6035 0,5490
2 0,9996 0,9970 0,9906 0,9797 0,9638 0,9429 0,91 7 l 0,8870 0,853 I 0,8 r 59
J I 0,9998 0,9992 0,997 6 0,9945 0,9896 0 sR2t 0,9727 0,960 I 4,94r'.5
l5
4 I 0,9999 0,9998 0,9984 0,9986 0,9972 0,9950 0,9918 o sÂ71
5 I l' I 0,9999 0,9997 0,9993 0,9987 0,9978
6 l I 0,9999 0,9999 0,9997
'1
I I I
0 0,8179 0,6676 0,5438 0,4120 0,35 85 0,290 l 0,2342 0, I 887 0,1516 0,1216
I 0,983 I 0,940 l 0,8802 0,8 103 0,735 8 0,6605 0,5869 0,5 169 0,45 l6 0,3917
2 0,9990 0,9929 0,9790 0,9561 0,924s 0,8850 0,8390 0,7879 0,1334 0,6769
3 1 4,9994 0,9973 0,9926 0,9841 0,9710 0,9529 0,9294 0,9007 0,8670
4 I 0,9997 0,9990 0,997 4 0,9944 0,9893 0,981 7 0,97 l0 0,9568
20
5 I 0,9999 0,9997 0,9991 0,9981 0,9962 0.9932 0,9887
6 I I 0,9999 0,9997 0,9994 0,9987 0,9976
7 I I 0,9999 0,9998 0,9996
8 I I 0,9999
9 I
0 0,7397 0,5455 0,40 l0 0,2939 0,2r46 0, I 563 0,1 1 34 0,0820 0,0591 0,0424
I 0,9639 0,8794 0,7'731 0,66t2 0 5s1s 0,4555 0,3694 0,2958 0,2343 0, l 837
) 0,9967 0,9783 0,9399 0,883 I 0,8122 0.7324 0,6488 0,5654 0,485 5 0,41t4
3 0,9998 0,9971 0,9881 0,9694 0,9392 0,8974 0,8450 0,7842 0,717 5 0,647 4
4 0,9999 0,9996 0,9982 0 qs17 0,9844 0,9685 0,9447 0,9126 0,8723 0,8245
5 I I 0,9997 0,9989 0,9967 0,9921 0,983 8 0,9707 0,95 r 9 0,9268
30
6 I 0,9999 0,9994 0,9983 0,9960 0,9918 0,9848 0,9142
7 I 0,9999 0,9997 0,9992. 0,9980 n ooss 0 ss?)
8 I 0,9999 0,9999 0,9996 0,991 0 0,9980
9 I I 0,9999 0,9998 0,9995
l0 I I 0,9999
n I

332 PH. TASS S LEGA]'I


TABLES NUMERIOUES

Table no 3 (suite)
LOI BINOMIALE - PROBABILITES CUMULEES

Probabilirés cumulées Pr (k < c) :


n
p: l% P:20Â P:30/o P : 40Â P: 5o/o P: 60/o P:70/o P:80/o P:9% l0 0t

0 0,6690 0,4457 0,2957 0. l 954 0, I 285 0,0842 0,0549 0,0356 0,0230 0,0148
I 0,9393 0,8095 0,661 5 0,52 l 0 0,399 I 0,2990 0,2201 0, I 594 0,1 140 0,0805
2 0,992s 0,9543 0,8822 0,7855 0,67 67 0,5665 0,4625 0,3694 0,2894 0,2228
3 0,9993 0,99 r 8 0,9686 0,9252 0,8619 0,7827 0,6937 0,6007 0,5092 0,4231
4 I 0,9988 0,9933 0,9790 0,9520 0,9104 0,8546 0,7868 0,7 103 0,6290
5 0,9999 0,9988 0,9951 0,986 I 0,969 I 0,94t9 0,9033 0,8535 0,7937
6 I 0,9998 0,9990 0,9966 0,9909 0,980 l 0,9624 0,936 l 0,9005
40
7 I 0,9998 0,9993 0,9977 0,9942 0,9873 0,9758 0,958 l
8 I 0,9999 0,9995 0,9985 0,9963 0,9920 0.9845
9 I 0,9999 0,9997 0,9990 0,9976 0,9949
l0 I 0,9999 0,9998 0,9994 0,9985
ll I I 0,9999 0,9996
t2 I 0,9999
l3 1

0 0,6050 0,3642 0,2 I 8l 0,1299 0,0'769 0,0453 4,0266 0,0155 0,0090 0,0052
I 0,9106 0,735 8 o 5ss'l 0,4005 0,2794 0, r 900 0,t265 0,0827 0,0532 0,0338
2 0,9862 0,9216 0,8 l 06 0,6767 0,5405 0,4162 0,3 108 0,2260 0, r 605 0,1 I l7
3 0,9984 0,9822 0,9372 0,8609 0,7604 0,6473 0,5327 0,4253 0,3303 0,2503
4 0,9999 0,9968 0,9832 0,95 l0 0,8964 0,8206 0,7290 0,6290 0,527',| 0,43t2
5 I 0,9995 0,9963 0,9856 0,9622 0,9224 0,8650 0,7919 0,7072 0,6161
6 0,9999 0,9993 0,9964 0,9882 0,971 l 0,94t7 0,898 I 0,8404 0,7702
7 I 0,9999 0,9992 0,9968 0,9906 0,9780 0,9562 0,9232 0,8779
50
8 I 0,9999 0,9992 0,9973 0,9927 0,9834 t,96't2 0,9421
9 I 0,9998 0,9993 0,9978 0,9944 0,9875 0,9755
l0 I 0,9998 0,9994 0,9983 0,9957 0,9906
ll I 0,9999 0,9995 0,9987 0,9968
t2 I 0,9999 0,9996 0,9990
l3 I 0,9999 0,999'7
t4 I 0,9999
l5 I

PH. TASSI S. LEGAIT ??2


TABLES NUMERIOUES

Table no 4
LOI DE POISSON PROBABILITES CUMULEES

Probabilités cumulées Pr (/< < c) - 'i' "-^ ^r


Ï^ kt.

(
m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,9
0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066
I 0,9953 0,9825 0,9631 0,9384 0,9098 0,8781 0,8442 0,8088 0,7725
t 0,9998 0,9988 0,9964 0,9920 0,9856 0,9769 0,9659 0,9526 0,9372
3 I 0,9999 0,9997 o,9992 0,9982 0,9966 0,9942 0;9e0e 0,9866
4 I I 0,9999 0,9998 0,9996 0,9992 0,9986 0,9977

5 I I 1 0,9999 0,9998 0,9997


,l

6 I I

Probabilités cumulées Pr (k < c) - 'i' "-^ ^*


Ê" ft!
c
m-1,0 m-1,5 m-2,0 m-2,5 m-3,0 m-3,5 m-4,0 m-4,5 m-5,0
0 0,3679 0,2231 0, I 353 0,0821 0,0498 0,0302 0,0183 0,01l I 0,0067
I 0,7358 0,5578 0,4060 0,28'tt 0,199i 0, l 359 0,0916 0,0611 O,MM
7 0,9197 0,8088 a,6767 0,5438 0,4232 0,3208 0,2381 0,1 736 0,1247
3 0,9810 0,9344 0,8571 0,75't6 0,6472 0,5366 0,4335 0,1423 0,2650
4 0,9963 0,9814 0,9473 0,8912 0,8 r 53 0,7254 0,6288 0,532 l 0,4405

5 0,9994 0,9955 0,9834 0,9579 0,9161 0,8576 0,7851 0,7029 0,6160


6 0,9999 0,9991 0,9955 0,9858 0,9665 0,9347 0,8893 0,831 1 0,7622
7 I 0,9998 0,9989 0,9958 0,988 1 4,9733 0,9489 0,9134 0,8666
8 I 0,9998 0,9989 0,9962 0,9901 0,9786 0,9s97 0,9319
9 I 0,9997 0,9989 0,9967 0,9919 0,9829 0,9682

l0 0,9999 0,9997 0,9990 0,9972 0,9933 0,9863


l1 I 0,9999 0,9997 0,9991 0,99't6 0,9945
t2 I 0,9999 09997 0,9992 0,9980
l3 I 0,9999 0,9997 0,9993
l4 I 0,9999 0,9998

l5 I 0,9999
l6 I

334 PH. TASSl - S. LEGAIT


TABLES NUMERIOUES

Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES

ti"u^
Probabilités cumulées Pr (k < ,, : #

0,0006 0,0003 0,0002 0,0001 0,0001


0,0041 0,0025 0,0015 0,0009
0,0030 0,0019 0,0012 0,0008
0,0174 0,0113 0,0073 0,0047
I 0,0266 0,0062 0,0042
0,0296 0,0203 0,0138 0,0093
'l 0,0884 0,0620 0,0430
0,0424 0,0301 0,0212 0,0149
3 0,201'7 0,15 I 2 0,1 I l8 0,0818 0,0591
0,0996 0,0746 0,0550 0,0403
4 0,3575 0,2851 0,22!7 0, r730 0,1 32 1

0,l9l2 0,1496 0,1 1 57 0,0885


0,5289 0,4457 0,3690 0,3007 0,2414
5 0,1649
0,4497 0,3782 0,3134 0,2562 0,2068
6 0,6860 0,6063 0,5265
0,5987 0,5246 0,4530 0,3856 a3219 0,2687
7 0,8095 0,7440 0,6728
0,6620 0,5925 0,5231 0,4557 0,3918
8 0,9044 0,8472 0,7916 0,'1291
0,7166 0,6530 0,5874 0,521 8
0,9462 0,9161 0,8774 0,8305 0,7764
9
0,8622 0,8159 0,'1614 0,7060 0,6453
0,97 47 0,95'74 0,9332 0,9015
0,9208 0,888 I 0,8487 0,8030 0,'1520
ll 0,9890 0,9799 0,966 I 0,9466
0,9573 0,9162 0,9091 0,8758 0,8364
t2 0,9955 0,9912 0,9840 0,9730
0,9784 0,9658 0,9486 0,9261 0,898 I
13 0,9983 0,9964 0,9929 0,9872
0,9897 0,9827 0,9726 0,9585 0,9400
l4 o,9994 0,9986 0,9970 0,9943
0,9954 0,9918 0,9862 0,9780 0,9665
l5 0,9998 0,9995 0,9988 0,9976
0,9980 0,9963 0,99t4 0,9889 0,9823
0,9999 0,9998 0,9996 0,9990
0,9996 0,9992 0,9984 0,9970 0,9947 0,991I
t7 I I 0,9998
0,9997 0,9993 0,9987 0,9976 0,9957
l8 I 0,9999
0,9997 0,9995 0,9989 0,9980
l9 I 0,9999

I 0,9999 0,9998 0,9996 0,9991


I 0,9999 0,9998 0,9996
1 0,9999 0,9998
I 0,9999
23 1
24

22Â
PH. TASSI - S. LEGAIT
TABTES NUMERIOUES

Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES

Probabilités cumulées Pr (k < ,) :'t u-^ 4kt


io
c
m:10 m:ll m:12 m:13 m:!4 m:15 m:16 m:17 m:18
0
I 0,0005 0,0002 0,0001
2 0,0028 0,0012 0,0005 0,0002 0,0001
3 0,0104 0,0049 0,0023 0,0010 0,0005 0,0002 0,0001
4 0,0293 0,0151 0,0076 0,0037 0,001 8 0,0009 0,0004 0,0002 0,000 I

5 0,0671 0,0375 0,0203 0,0107 0,0055 0,0028 0,0014 0,0007 0,0003


6 0, l 302 0,0786 0,0458 0,0259 0,0142 0,0076 0,0040 0,0021 0,0010
7 0,2243 0,1432 0,0895 0,0540 0,0316 0,0 r 80 0,0 100 0,0054 0,0029
I 0,3329 0,2320 0, I 550 0,0997 0,0620 0,0374 0,0220 0,0126 0,0071
9 0,4580 0,3405 0,2424 0, I 658 0, l 093 0,0698 0,0433 0,026 l 0,0154
l0 0,583 l 0,4599 0,3472 0,25 l7 0, l 756 0,1 1 84 0,077 4 0,0491 0,0304
ll 0,6968 0 57S1 0,4616 0,3s32 0,2600 0, I 847 0,t270 0,0847 0,0549
tl 0,79 I 6 0,6887 0,5760 0,463 t 0,3584 0,26'76 0,1931 0, l 350 0,09 r 7
13 0,8645 0,78 I 3 0,68 l6 0,5730 4,4644 0,3622 0,2745 0,2009 0,t426
t4 0,9 r 66 0,8541 0,7721 0,6751 0,5704 0,4656 0,3675 0,2808 0,2081

l5 0,95 l3 0,9075 0,8445 0,7636 0,6693 0,5680 0,4667 0,37 t4 0,2867


16 0,9730 0,9442 0,8988 0,8355 0,7559 0,6640 0,5659 0,4677 0,3750
l7 0,9857 0,9679 0,9371 0,8905 0,8272 0,7 487 0,6593 0,5440 0,4686
l8 0,9928 0,9824 0,9626 0,9302 0,8826 0,8193 0,7423 0,6550 0,5622
l9 0,9965 0,9908 0,9787 c,9514 0,9235 0,875 l a,8tzz 0,7363 0,6509

20 0,9984 0,9954 0,9884 0,9751 0,952t 0,9169 0,868 I 0,8055 0,7307


0,9993 0,9978 0,9939 0,9860 0,9712 0,9468 0,9107 0,861 5 0,7991
22 0,999'7 0,9990 0,9969 0,9925 0,9833 0,9672 0,96t7 0,9048 0,855 I
23 û,9999 0,9996 0,9985 0,9962 0,9907 0,9805 0,9633 0,9367 0,8989
24 I 0,9999 0,9993 0,9982 0,9950 0,9888 0,917'7 0,9593 0,93 l3
25 I Q,9997 0,9992 0,9974 0,9938 0,9869 0,9748 0,9554
26 0,9999 0,9997 0,9987 0,9967 0,9926 0,9848 0,97 l8
27 I 0,9999 0,9994 0,9983 0,9960 0,99t2 0,9E27
28 I 0,9997 0,9992 0,9979 0,9950 0,9897
29 0,9999 0,9996 0,9989 0,9973 0,9941

30 I 0,9998 0,9995 0,9986 0,9967


3l 0,9999 0,9998 0,9993 0,9982
32 I 0,9999 0,9996 0,9990
33 I 0,9998 0,9995
34 0,9999 0,9998

35 I 0,9999
36 I

336 PH. TASSI . S. LEGAIT


TABLES NUMEFIOUES

Table no 5
FRACTILES DE LA LOI DE x'z(u)

2,11 1R4 5,02 6,61 7,88


I 0,001 0,004 0,016 0,455
?1R 9,21 10,6
2 0,012 oto 0,020 0,051 0,1 03 0,21 I r,39 4,61
6,25
5,99
7,81 s 15 l r,3 12,8
0,024 0,072 0,115 0,2r6 0,352 0,584 2,37
3
0,484 0,71 I 1,06 3,36 7,78 9,49 ll,l 13,3 14,9
4 0,091 0,201 0,291
I,r5 I 4,35 9,24 I I,l I 2,8 I 5,1 t6,7
5 0,2 l0 0,412 0,554 0,831 ,61
s 1s 10,6 t2,6 t4,4 16,8 I 8,5
6 0,381 0,676 0.8'72 |,24 |,64 2,20
6.35 r 2,0 14, I 16,0 18,5 20,3
1 0,598 0,989 1,24 1,69 2,t1 2.83
3,49 7,14 13,4 rs 5 17,5 20, I 22,0
8 0,857 1,34 I,65 2,r8 2,13
1'11 t4,7 16,9 19,0 21,'7 23,6
I,l5 2,09 2,10 4,t1 8,34
9 l .73
8,3 20,5 1L t )( t 29,6
I,48 2,56 3,25 1S4 4,8'7 9,34 I
t0
t9,1 zl,9 26,8 31,3
ll l,83 105 3,82 4.51
{ 11
5,58
6,30
10,3
I 1,3 2l ,0 23,3 26,2 28.3 32,9
t2 2,21 157 4,40
22,4 24,1 27,7 34,5
4,l l 5,01 5Rg 7,04 t2,3
l3 2,62 )2,1 26,1 29, l 36, I
4,66 5,63 6,57 7,79 13,3
t4 3,04
'7,26 )5 0 )? < 30,6 37,'7
5,23 6,26 8,55 14,3
l5 3,48
1q1
't,96 9,31 15,3 26,3 28.8 32,0
t6 3,94 5,81 6,91
2'7,6 30,2 33,4 40,8
7,56 8,67 10,I 16.3
l'l 4,42 6,41
28,9 3 r,5 34,8 42,3
7,01 8,23 9,39 10,9 17,3
l8 4,90 1?q 36,2 43,8
l9 5,41 7,63 8,91 10, I ll,7 18,3 30, I
31,4 34,2 ,6 45,3
20 5,92 8,26 ass r 0,9 t2,4 19,3 3"1

I 1,6 t3,2 20.3 7)'l 1( S 38,9 46,8


2l 6,45 8,90 10,3
9,54 12,3 14,0 )l 1 11S 36,8 40,3 48,3
22 6,98
))7 'l{ ) 38, I 4l ,6 49,'7
? {1 10,2 13, I 14,8
23 39,4 43,0 51,2
13.8 t5,1 23,3 36.4
24 8,08 10.9 52,6
16,5 24,3 37,1 40,6 44,3
25 8,65 l1,5 r 4,6
t? )5 38,9 4l ,9 45,6 54, I
9,22 |,2 rl t 15,4 1 1 35,6
26 1J,L s5 5
18, I 26,3 36,'7 40, I 4',1 ,0
27 9,80 il,8 t2,9 16,2
4l 44,5 48,3 5 r,0 56,9
28 10,4 r) 5 13,6 16,9 18,9 21 ,3 31 ,9 ,3
s) 1 sR1
28,3 39, I 42,6 45,7 49,6
29 I 1,0 r 3,l 14,3 t'7,'7
18,5 29,3 40,3 43,8 4'7,O 50,9 t1 l 59.'l
30 I 1,6 13,8
42,6 46,2 49.5 51 5 56,3 62,5
32 12,8 15,I 18,3 20,l 3 1.3
44,9 48,6 52,0 56, l 59,0 65,2
34 14,I 16,5 19,8 2t,-l
15 1 4'7,2 51,0 54,4 58,6 6l ,6 68,0
36 t'7,9 2t,3 23,3
70,7
24,9 17 1 49.5 53,4 56,9 6t,2 64,2
38 19,3 22,9
5l,8 55,8 59,3 63,7 66,8 13.4
40 )î'1 24,4 26,5
'7
t,4 '76,2 79,5 86,7
32,4 63,2 61 ,5
50
7 4,4 '7
9,1 83,3 88,4 92,0 99,6
60 40,5
85,5 90,5 95,0 100,4 t 04,2 I 12,3
70 48,8
116,3 124,8
80
{1 t 96,6 101,9 106,6 112,3

65,6 107,6 ll3.l I l8,l t24,1 128,3 t3'7,2


90 124.3 t29,6 r 35.8 140,2 t49.4
I18.5
r00
sulvante
N.8. Pour v > 30, on pourra utiliser I'approximation

xirvt:"(r-z*,,,f!*)'
où t" est le fractile d'ordre P de la loi normale réduite'

aal
PH. TASSi S. LEGAIT
TABLES NUMERIOUES

Table no 6
FRACTILES DE LA LOI DE STUDENT

Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour P> 0,60.
Pour fes valeurs P( 0,40, on a tp(v) : - t,, e(v).

1P
v\ 0,60 0,70 0,80 0,90 0,95 0,975 0,990 0,995 0,999 0,9995

I 0,325 0,727 I,3'16 ,078 5,3t4 t2,71 3 1,82 63,66 3r8,3 636,6
2 0,289 0,617 I ,061 ,886 2,920 4,303 6,965 9,925 22,33 31,60
3 0,277 0,584 0,978 ,638 2,3 53 3,1 82 4,541 5,84 r t0,22 t2,94
4 0,27 t 0,569 0,941 ,533 2,t32 2,776 3,747 4,604 7,t73 8,61 0
5 0,267 0,559 0,920 ,416 2,015 2,571 3,365 4,032 5,893 6,859
6 0,265 0,553 0,906 ,440 1.943 2,447 3,143 3,707 5,208 5,959
7 0,263 0,549 0,896 ,4t5 1,895 2,365 2,998 3,499 4,'t85 5,405
8 0,262 0,546 0,889 ,39'l 1,860 2,306 2,896 1 15S 4,501 5,041
9 0,26t 0,543 0,883 ,383 I,833 2,262 2,821 3,250 4,297 4,781
l0 0,260 0,542 0,879 -3tt 1,812 2,228 2,764 3,t69 4,t44 4,587
ll 0,260 0,540 0,876 ,363 t,796 2,20t 2,7 t8 3,r06 4,025 4,43't
t2 0,259 0,539 0,873 ,356 1,782 2,t79 2,681 10s5 3,930 4,3 l8
I3 0,259 0,538 0,870 ,350 t,77 t 2,160 2,650 3,0t2 3,852 4,221
t4 0,258 0,53 7 0,868 ,J45 I,761 2,t45 2,624 2,977 3,787 4,140
l5 0,258 0,536 0,866 .341 I,753 2,131 2,602 2,947 1 711 4,073
l6 0,258 n 51t 0,865 11? |,746 2,t20 2,5 83 2,921 3,686 4,0r5
l'7 0,2s7 0,534 0,863 ,333 I,740 2,1 l0 2,56't 2,898 3,646 3,965
l8 0,257 0,534 0,862 ,330 t,7 34 2,r01 2,552 2,878 3,61 l 3,922
l9 0,257 0,533 0,861 ,328 t,729 2,093 2,539 2,86 I 3,579 3,883
20 0,257 0,533 0,860 ,325 I,725 2,086 2,s28 2,845 3,55 2 3,850
2t 0,257 0,s32 0,859 ,323 I,72t 2,080 2,5 r8 2,831 3,s27 3,8 l9
22 0,256 0,532 0,858 ,32t t,7 t7 2,074 2,508 2,8 l9 3,505 3,'t92
23 0,256 0,532 0,858 ,3 r9 t,7 14 2,069 2,500 2,80'7 3,485 3,767
24 0,256 0,53 I 0,857 ,3 l8 t,7l I 2,064 2,492 2,797 3,46'7 3,745
25 0,256 0,53 l 0,856 ,3 l6 t,708 2,060 2,485 2,787 3,450 3.725
26 0,256 0,531 0,856 ,315 I,706 2,056 2,4'19 2,779 1 dl{ 3,707
2'7 0,2s6 0,531 0,855 ,3 l4 I,703 2,052 2,473 2,7't t 3,421 3,690
28 0,256 0,530 0,855 ,3 l3 t,701 2,048 2,46'7 2,763 3,408 3,67 4
29 0,256 0,530 0,854 ,31 I t,699 2,045 2,462 2,756 3,396 3,659
30 0,256 0,530 0,854 .3 l0 t,697 2.042 2,457 2;750 3,385 3,646
32 0,256 0,530 0,853 ,309 I,694 2,03'1 2.449 2,738 3,365 3,622
34 0,255 0,529 0,852 ,307 r,691 2,032 2,441 2,728 3,348 3,601
36 0,255 0,529 0,852 ,306 r,688 2,028 2,434 2,7 t9 3,333 3,582
38 0,255 0,529 0,851 ,304 t,686 2,024 2,429 2,7 t2 3,319 3,566
40 0,255 0,s29 0,851 ,303 1,684 2,02t 2,423 2,704 1 1n7 3,551
50 0,255 0,528 0,849 ,298 t,676 2,009 2,403 2,6'78 3,26r 3,496
60 0,254 0,527 0,848 ,296 t,67 I 2,000 2,390 2,660 3,232 3,460
70 0,254 0,527 0,847 ,294 t,667 I,994 2,381 2,648 3,2n 3,435
80 0,2s4 0,s27 0,846 ,292 t,664 i,990 2,374 2,639 3,195 3,4r5
90 0,254 a.526 0.846 ,29t t,662 I,987 2368 2,632 3,1 83 3,402
r00 0,254 0,526 0,845 ,290 t,660 I,984 2,365 2,626 3,174 3,389
200 0,254 0,525 0,843 ,286 t,653 I,972 2,345 2,601 3,13 1 3,339
500 0,253 0,525 0,842 ,283 t,648 I,965 2,334 2,586 3,1 06 3,3 l0
0,253 0.524 0.842 .282 r.645 1.960 2.126 2,576 3,090 3,29t

y'V.8. Pour v > 40, on pourra utiliser I'approximarion suivante

tp(v)-ue*(u)r+u"\/4v
où ur est le fractile d'ordre Pde Ia loi normale réduite.

338 PH, TASSI . S. LEGAIT


TABLES NUMERIOUES

Table no 7
FRACTILES DE LA LOI F (uI, uz\ P:0,95
DEGRÉS DE LIBERTÉ DU NUMÉRATEUR
N
Vr

2 3 4 5 6 7 8 9 l0 t2 t4
I l6l 200 2t6 225 230 214 237 239 241 242 244 245
z r 8,5 19,0 t9,2 19,2 19,3 19,3 t9,4 19,4 t9,4 19,4 t9,4 t9,4
3 10, r s 55 9,28 9,t2 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,71
4 7,71 6,94 6,59 6,39 6,26 6, t6 6,09 6,04 6,00 5,96 5,91 5,87
5 6,61 5?0 5,41 5,l9 5,05 4,95 4,88 4,82 4,77 4,7 4 4,68 4,64
6 5,99 5,t 4 4,7 6 4,53 4,39 4,28 4,21 4,l5 4, l0 4,06 4,00 J,96
7 5,59 4,7 4 4,35 4,12 147 3,87 3,79 171 3,68 3,64 3,57 3,53
8 5 1t 4,46 4,0'l 3,84 3,69 3,5 8 3,50 3,M 3,39 3,3 5 3,28 3,24
9 5,t2 4,26 3,86 161 3,48 117 3,29 3,23 3,l8 3, l4 3,07 3,03
l0 4,96 4, l0 3,71 3.48 111 3,22 3, l4 3,07 3,02 2,98 2,9t 2,86
ll 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,74
d, t2 4,7 5 3,89 3,49 3,26 3,il 3,00 2,91 2,8 5 2,80 ) 7( 2,69 2,64
f, l3 4,67 3,81 3,41 3,l8 3,03 2,92 2,83 ) 11 1?r 2,67 2,60 2,55
(r]
F l4 4,60 3,14 3,34 3,l l 2,96 2,85 2,76 2,70 2,65 2,60 2,s3 2,48
l5 4,54 3,68 3,29 3,06 2,90 2.79 2,7 t 2,64 2,59 2,54 2,48 2,42
l6 4,49 3,63 3,24 3,01 2,85 2,7 4 2,66 2,59 2,54 2,49 2,42 2,37
= t7 4,45 3,59 3,20 2,96 2,8 I 2,70 2,61 2,55 2,49 2,45 2,3 8 2,33
l8 4,4t 155 3, l6 2,93 2,77 2,66 2,5 8 2,5t 2,46 2,4t 2,34 2,29
z l9 4,38 3,s2 3, l3 2,90 2,7 4 2,63 2,54 2,48 2,42 2,38 2,3t
.(Jl 2,26
20 4,35 3,49 3, l0 2,87 2,7 t 2,60 2,51 2,45 2,39 2,3s 2,28 ) )',
f, 2t 4,32 141 3,0'l 2,84 2,68 t<? 2,49 2,42 237 )1) I l< 2,20
22 4,30 3,44 3,05 2,82 2,66 , {( 2,46 2,40 2,34 2,30 2,23 2,t7
.IJ.]
F
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 ))1 2,20 2,t5
24 4,26 3,40 3,0 r 2,78 2,62 2,5t 2,42 2,36 2,30 )')< 2,l8 z,t3
{! 25 4,24 3.39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,t6 2,n
: 26
27
4,23
4,2t
117
11s
2,98
2,96
2,14
)11
2,59
2,57
2,4'7
2,46
2,39
2,i7
232
2,3t
))1
))\
1 11
2,20
2,15
2,t3
2,09
q.) 2,08
28 4,20 3,34 2,95 2,7 t 2,56 2,45 2,36 ))o 2,24 2,t9 2,12 2,06
th 29 4,l8 3,33 2,93 2,70 ) {< 2,43 2,35 2,28 f f t 2,r8 2, l0 2,0s
.[] 30 4,t7 3,32 2,69 ))1
d,
2,92 2,53 2,42 2,2t 2,t6 2,09 2,04
() 5Z 4,l5 3,29 2,90 2,67 2,5t 2,40 2,31 2,24 2,19 2,t4 2,07 2,01
g
34 4,t3 3,28 2,88 2,65 2,49 2,38 ))o ))1 2,1"t 2,t2 2,05 I,99
!
36 4,l l 3,26 2,87 2,63 2,48 2,36 2,28 2,2t 2,t5 2,1 2,03 l,98
38 4,l0 3,24 2,85 2,62 2,46 2,35 2,26 2,t9 2,t4 2,09 2,02 I,96
40 4,08 3,23 2,84 2,6t 2,45 2,34 t 1< 2, r8 2,t2 2,08 2,00 I,95
50 4,03 3,l8 2,79 2,56 2,40 2,29 2,20 2,t3 2,0'l 2,03 t,95 1,89
60 4,00 3, t5 2,76 2,53 2,37 2,25 ', l1 2, l0 2,04 r,99 t,92 1,86
70 3,98 3, l3 2,74 2,50 z,3s 2,23 2,14 2,07 2,02 I,91 1,89 1,84
80 'l s6 3,l l 1 11 2,49 ') t!
2,33 2,t3 2,06 2,00 1,95 l,88. r,82
3, l0 11t
90 3.95 2,47 2,32 2,20 2,n 2.04 1,99 t,94 r,86 1.80
100 3,94 3,09 2,70 2,46 2,3t 2,t9 2, l0 2,03 I,97 1,93 I ,85 t,79
3.84 3.00 2.60 2,37 ) )t 2, l0 2,01 1.94 r .88 1.83 t,7 5 1.69

Pour les valeurs de Fcomprises entre 0 et l, on a:

F,-r(v,, vz): I
F, (vr' v'\

PH TASSI - S. LFGAIT 339


TABLES NUI\IEBIOUES

Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0.95

DEGRÉS DE LIBERTÉ DU NUMÉRATEUR: y.


l6 l8 20 22 24 26 28 30 40
"'/
60 100

246 247 248 249 249 249 250 250 251 252 253 ,.s4 I
t9,4 t9,4 t9,4 t9,5 19,5 19,5 19,5 19,5 t9,5 r9,5 19,5 9,5 2
8,69 8,67 8,66 i,65 8,64 8,63 8,62 8,62 1,59 157 3,5 5 ,53 3
5,84 5,82 5,80 t,79 571 5,76 5 ?S 5,7 5 i ?, i,66 ,63 4
4,60 4,58 4,56 J,54 4,51 A\) 4,50 4,50 t,46 ',69
1,43 +,41 ,37 5
3,92 3,90 3,87 ],86 3,84 3,83 3,82 3,8 r \'1'7 t,'74 ,,7 t ,67 6
3,49 3,47 3,44 t,43 3,41 3,40 110 3,38 I lr'. t10 t,27 ,21 '1

3,20 3,t7 3, r5 i,l3 3,12 3, r0 3,09 3,08 1,04 |,0 r )q7 ,93 8
2,99 2,96 2,94 1,92 2,90 2,89 2,87 2,86 )R1 t,79 2,7 6 ,7t 9
2,83 2,80 1 a1 )7{ 2,7 4 ', 1) 2,7 t 2,70 1,66 t,62 ){o ,54 l0
2,70 2,6"1 2,65 t,63 2,61 2,59 2,5 8 )<1 ) s1 t,49 2.,46 ,40 ll rn
2,60 )\1 2,54 | <r 2,51 2,49 2,48 2,47 ,-,43 1,3 8 )'t5 1n t2
2,5t 2,48 2,46 1,44 2,42 2,4t 2,39 2,3 8 t,34 1,30 2,26 ,2t l3 v
arJ.
2,44 2.4t 2,39 t,37 2,35 2,33 2,32 2,3t , 11 t)) z, l9 ,13 t4 (,
2,38 2,35 , 11 t,3 l ,to 2,21 2,26 t')< t,2a l,l9 't,t2 ,07 l5
2,33 2,30 ) r< 2,24 ))) l5 l,ll l6
arJ

2,29 2,26
2,28
z,z) t,2l 2,t9 2,t7
2,2t
2,16
2,19
2,t5
I,
I, l0 t,06
2,07
) (\)
,0i
,96 t7
-
2.25 ))) 2,t9 l,t7 2,15 2,t3 2,t2 2,lt 1,06 1,02 1,98 ,92 l8 t!
fa
2,21 2,l8 2,t6 I,l3 2,1I 2,10 2,08 2,07 )n1 ,98 1,94 ,88 l9
2,l8 2,t5 2,t2 I,l0 2,08 2,07 2,05 2,04 1,99 ,95 l,9l ,84 20 -J
lr)'
2,t6 l rt 2,t0 ,.,07 2,05 2.04 2,02 2,01 ,96 ,92 1,88 ,81 2t Ë
2,t3 2,t0 2,07 t,05 2,03 2,01 2,00 I,98 ,94 ,89 I ,85 ,78 22 c
2,n 2,0'l 2,05 t,02 2,00 l,99 |,97 1,96 ,91 ,86 I ,82 ,76 23
2,09 2,05 2,03 r,00 l,98 1,97 I,95 1,94 ,89 ,84 r,80 ?1 24 tr.
2,07 2,04 2,01 ,98 1,96 1,95 I,93 I,92 ,87 ,82 I ,78 ,'7 I 25
z
2,0s 2,02 t,99 q7 I,95 I,93 RS
I,91 1,90 ,80 I,76 ,69 26
2,04 2,00 |,97 st l,93 1,90 t,74
2,02 I,99 1,96 I,91
I,91
1,90
l ,88 ,84 ,'79 ,67 27
z=
,93 1,88 1,87 ,82 ,'77 l,'71 ,65 28
2,01 |,97 t,94 ,92 1,90 1,88 1,87 1,85 ,81 ,'7 5 t,71. ,64 29 -l
rn
l,99 I,96 I,93 ,91 1,89 I ,87 1,85 1,84 19 .'74 r,70 ,62 30 e
t,97 t,94 l,83 )2
I,95 |,92
I,91
1,89
,88
,86
1,86
l,84
I
1,82
,85
1,80
1,82
l,80
,1',l
,75
,'7 I

,69
t,67
t,65
,59
,57 34
:
l,93 1,90 I ,87 ,85 I,82 I ,81 I,79 1,78 ,73 ,6'7 1,62 55 36
1,92 1,88 I ,85 ,83 I,81 t,'19 I,77 I,76 ,7t ,65 r,6l 51 J6
I,90 I,87 1,84 ,81 I,79 t,77 t,76 t,7 4 ,69 ,64 5q ,5 I 40
l ,85 l,81 1,78 ,76 I,74 I,72 l,70 1,69 ,63 ,58 t,52 ,44 50
l,82 I,78 t,7 5 ,72 1,70 1,68 1,66 1,65 ,59 51 r,48 10 60
|,79 t,7 5 I,72 ,70 t,67 1,65 t,64 I,62 ,5'7 ,50 t,45 15 70
I,'7'l t,73 l,70 ,68 1,65 1,63 t,62 1,60 ,54 ,48 r,43 1',) 80
t,76 I,72 t,69 ,66 t,64 t,62 I,60 I,59 51 ,46 t,4l ,30 90
1,7 5 I ,71 1,68 ,65 I,63 I ,61 I,59 |,57 5) ,45 t,39 ,28 100
I,64 I,60 t,57 .54 |,52 1.50 I,48 t,46 .39 .32 I,24 ,00

Pour vr et vz ) 30, une bonne approximation est donnée par la formule:

f'. (v,, v:) : exP lÆ - l'5681 tu-' - ,t ll


Ly'(vr '+ v;'\- -0,475 I

340 PH TASSI - S. TEGAIT


TABLES NUMEFIOUES

Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uzl P : 0,975

opcnÉs oe lrnenrÉ ou NuvÉnettuR Vt

N I 648
I 2

800
3

864
4

9C0
5

922
6

937 948
7

957
8

963
9 l0
969
t2
977
l4
983
2 38,5 39,0 39,2 39,2 1S1 39,3 39,4 39.4 39,4 )9,4 1S4 39,4
3 t7,4 16,0 15,4 t5,r t4,9 t4,7 14,6 14,5 r4,5 14,4 14,3 14,3
4 t2,2 10,6 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,75 8,69
5 10,0 8,43 7,76 7,39 7,1 5 6,98 6,85 6,7 6 6,68 6,62 6,52 6,46
6 8,8 t 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5 5) 5,46 5,37 5,10
7 8,07 6,54 5,89 5 5' 5,29 5,t2 4,99 4,90 4,82 4"16 4,67 4,60
8 't \1 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,20 4,l3
9 7,2t 5,7 | 5,08 4,12 4,48 4,32 4,20 4, l0 4,03 3,96 3,87 3,80
l0 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 ?.1') 3,62 3,55
ll 6,72 5,26 4,61 4,28 4,04 3,88 3.76 3,66 3,59 1s1 3,43 3,36
;f t2
l3
6,55
6,4t
5,t0
4,97
4,47
4,35
4,12
4,00
1,89
),77
1 71
3,60
3,61
3,48
3,51
3,39
3,44
3,31
117
1 ){
3,28
3,1 5
3,21
3,08
gl
t4 6,30 4,86 4,24 3,89 3,66 3,50 3,3 8 3,29 3,Zl 3,r5 3,05 2,98
F
l5 6,20 4,76 4,15 3,80 3,5 8 3,41 3,29 J,20 3,12 3,06 2,96 2,89
z l6 6,t2 4,69 4,08 17'l 3,50 3,34 1, )) 3,l2 3,05 2,99 ?Rq 2,82
t'l 6,04 4,62 4,01 3,66 3,M 3,28 3,l6 3,06 2,98 2,92 2,82 ) l5
l8 5,98 4,56 105 3,6 r 3,38 7)) 3, l0 3,01 2,93 2,87 2,',77 2,70
z
.t! t9 <o) 4,5 I 3,90 3,56 3,33 3,17 105 2,96 2,88 2,82 1 11 2,65
4,46 l 1?q 3,r3 2,9t 2,84 1 11 2,68 2,60
U 20 5,87 3,86 3,5 3,01
f, 2t 5,83 4,42 3,82 3,48 1ts 3,09 2,97 2,8'l 2,80 2,73 2,64 ?.56
22 5,',l9 4,38 3,78 3,44 3,22 3,05 2,93 ) F,4 2,76 2,'10 2,60 2,s3
.t! 23 575 4,35 3,7 5 3,41 3,l8 3,02 2,90 2,81 2.73 2,67 )<1 2,50
F 24 <1) 432 3,72 3,38 3,l5 2,99 2,87 2,78 2,70 2,64 2,54 2,47
trl
co
25 5,69 4,29 3,69 1 1s 3, ll 2,9'7 2,8s t ?( 2,68 2,61 2,51 2,44

I 26 5,66 4,27 3,67 3,33 3, l0 2.94 2,82 2,73 2,65 2,59 2,49 2,42
2'7 5,61 4,24 3,65 3,3 l 3,08 2,92 2,80 2,7 | 2,61 2,57 2,47 ?10
rrl
! 28 5,61 4,22 3,63 t?s 3,06 )9n 2,78 2,69 2,6t 2,55 2,45 2,37
29 s5s 4,20 3,61 1)1 3,04 2,88 2,76 2,6'l ){o , (1 2,43 2,36
.ql -) f
30 557 4,18 15S 3,25 3,03 2,87 ?( 2,65 <1 2,5t 2,41 2.34
d,
U 32 5 S',l 4,l5 3,56 3,22 3,00 2,84 ) 1) 2,62 2,54 2,48 2,38 2,3t
ql 34 5,50 4,t2 3,53 3, l9 2,97 2,81 2,69 2,59 ) {t 2,45 2,35 2,28
a 36 5,47 4,09 3,5 I 3,t1 2,94 2,19 2,66 ){7 2.49 2,43 2,33 ) ){
J6 5,45 4,07 3,48 3, 15 2,92 2,'16 2,64 7 55 2,47 2,4t 2,3t t tt
4A 5,42 4,05 3.46 3, 13 2,90 2,7 4 2,62 ) {1 2,45 2,39 2,29 2,2t
50 5,34 3,98 1 '1S
3,06 2,83 2,61 2,55 2,46 2,3 8 ))) 2,14
60 5,29 1S1 114 3,01 2,79 2,63 2,51 2,4t ) 11 )11 ) 1'1 2,09
70 { ts 3,89 3,3 I 2,98 ) ?< 2,60 2,48 2,38 2,30 2,24 2,t4 2,06
80 <)) 3,86 3,28 2,95 ,'71 )<1 2,45 2,36 2,88 2,2t '2,n 2,03
90 5,20 3,84 J,27 2,93 2.7 t 7 5t 2,43 2,34 2,26 2.t9 2,09 2,02
100 5,l8 1 R1 3,75 2,92 2,10 2,54 2,42 ) lt 2,24 2, l8 2,08 2,00
5.02 3.69 3,t2 2.79 )\1 2.4t ))a 2.19 2.r I 2.05 1.94 l .87

PH. TASSI - S. LEGAIT


TABLES NUMERIOUES

Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0,975

DECRÉS DE LIBERTÉ DU NUMÉRATEUR: V ,,,/


l6 l8 20 22 24 26 l6 30 40 60 100 /vt
98'l 990 993 995 997 999 1000 100 I 1006 l0l0 l0l3 l0l8 I
39,4 39,4 39,4 39,5 39,5 39,5 39,5 39,5 39,5 39,s 39,5 39,5 2
t4,2 t4,2 t4,2 14,I 14, I t4,t 14,I 14,l 14,0 14,0 t4,0 13,9 3
8,64 8,60 8,56 8,53 8,51 8,49 8,48 8,46 8,41 8,36 8,32 8,26 4
6,4t 6,37 6,33 6,30 6,28 6,26 6,24 6,23 6,18 6,t2 6,08 6,02 5
5,25 5,2t 5,t7 5, l4 5,12 5, l0 5,08 5,07 5,01 4,96 4,92 4,85 6
4,54 4,50 4,47 4,44 4,42 4,39 4,38 4,36 4,3r 4,25 4,21 4,t4 7
4,08 4,03 4,00 3,97 3,9s 3,93 3,81 3,89 3,84 3,78 1,7 4 3,67 8
3,74 3,70 3,67 3,64 3,61 3,59 3,58 3,56 3,5 I 1r'S 3,40 3,33 9
3,50 145 3,42 3,39 117 3,34 3,3 l 3,26 3,20 3,15 3,08 l0
U
3,30 3,26 3,23 3,20 3,t7 3,l5 3, 13 3,t2 3,06 3,00 2,96 2,88 ll rî,
3,l5 3,1 I 3,07 3,04 3,02 3,00 2,98 2,96 2,9t 2,85 2,80 1 11 t2 ô
3,03 2,98 2,95 2,92 2,89 2,87 2,85 2,84 2,78 71) 2,6'7 2,60 l3
F
fll.
2,92 2,88 2,84 2,8t 2,79 2,77 'r 7< 2,73 2,67 2,6t 2,56 2,49 t4 (t
2,84 2,79 2,76 2,73 2,70 2,68 2,66 2,64 2,58 2,52 2,47 2,40 I5 U
ln
2,76 2,72 2,68 2,65 2,63 2,60 2,58 2,57 2,5t 2,45 2,40 l6
2,70 2,65 2,62 2,59 2,56 2,54 2,s2 2,50 2,44 2,J8 ?11
2,32
', )< t7 Ic!
2,64 2,60 2,56 2,53 2,50 2,48 2,46 2,44 2,3 8 2,32 2,2'l 2,t9 l8 rrl
2,59 2,55 2,5t 2,48 2,45 2,43 2,4t 2,39 2,33 111 111 2,13 l9 F
2,55 2,50 2,46 2,43 2,41 2,39 2,37 2,35 2,29 '1 )') 2,t7 2,09 20 -t
ln.
2,51 2,46 2,42 2,39 2,37 2,34 2,33 2,3t 2,25 2,t8 2,t3 2,04 )l l-
2,47 2,43 2,39 2,36 2,33 2,3t 2,29 2,27 2,21 2,14 2,09 2,00 22 e
2,4 2,39 2,36 2,33 2,30 2,28 2,26 2,24 2, l8 2,lt 2,06 |,97 t1 F

2,4t 2,36 2,33 2,30 ))< 2,23 2,2t 2,t5 2,08 2,02 I,94 24 11.
2,38 2,34 2,30 2,27 2,24 141 2,20 2,t8 2,t2 2,0s 2,00 l,9l 25
z
o
2,36 2,3t 2,28 2,24 J1) 2,t9 2,t7 2,t6 2,09 2,03 1,97 l,88 26
2,34 2,29 iJ< ,1a 2,t9 2,t7
E
2,15 2,t3 2,07 2,00 1,94 l ,85 27 z
2,32 aa1 t t2 2,20 2,t7 î r< 2,t3 2,tl 2,05 r,98 I,92 1,83 28
2,30 2,25 2,21 2,l8 2,t5 2,t3 2,n 2,09 2,03 I,96 I,90 l,81 29 -l
114 rn
2,28 2,20 2,t6 2,14 2,tl 2,09 2,07 2,0t I,94 l,88 I,79 30 C
))< 2,20 2,t6 2,t3 2, l0 2,08 2,06 2,04 I,98 I ,91 I ,85 t,7 5 32 v
)J) 2,t'l 2,t3 2, l0 2,07 2,05 2,03 2,0t 1,95 I,88 l,82 I,72 34
2,20 2,t5 2,n 2,08 2,05 2,03 2,00 I,99 I,92 l,85 I,79 I,69 36
2,t7 2,t3 2,09 2,05 2,03 2,00 I,98 l,96 l,90 I,82 t,76 t,66 38
2,t5 2,tt 2.07 2,03 2,01 l,98 1,96 t,94 r,88 l,80 1,74 t,64 40
2,08 2,03 t,99 t,96 I,93 I,91 l,88 I,87 I,80 t,72 t,66 r ,55 50
2,03 l,98 t,94 I,91 l,88 I,86 l,83 t,82 I,74 t,67 I,60 l,48 60
2,00 1,95 I ,91 r,88 l,85 1,82 r,80 I,78 I,7 t l,63 I,56 t,44 70
t,97 l,93 l,88 l,85 l,82 I,79 I,77 1,7 5 1,68 I,60 l,53 I,40 80
1,95 l,9l I,86 I,83 l,80 I,77 t,7 5 I,73 1,66 1,58 I,50 I,37 90
1,94 I,89 I,85 I,81 l,78 t,76 t,74 t,7l t,64 I,56 I,48 r ,35 100
l,80 |,75 I,71 t,6'7 I,U I,61 1.59 1.57 t.48 I,39 I.30 l,00

Pour yr ct yr > 30, une bonne approximation est donnée par la formule:

(v,, y:) - l:-2lll!- (";, - ur,)l


-î37 - ' 'J
4o,s exp 1.948
' [r|(t;r+ û1-1

342 PH, TASSI . S, LEGAIT


TABLES NUMERIOUES

Table no I
NOMBRES AU HASARD

t3407 62899 't8937 90525 25033 56358 78902 47008 72488 57949
50230 63237 94083 93634 7t652 02656 57532 60307 91619 48916
84980 62458 09703 78397 66t79 46982 676t9 39254 90763 74056
22lL6 33646 17545 31321 657'72 86s06 0981 l 82848 922n 5t 178
68645 15068 56898 87A2t 401 15 27524 42221 88293 67592 06430
26518 39t22 96561 56004 50260 68648 85596 83979 09041 62350
36493 41666 2787t 7t329 692t2 57932 65281 57233 07732 58439
77402 12994 59892 85581 70823 53338 34405 67080 16568 00854
83679 971s4 4034t 84741 08967 73287 94952 59008 95774 44927
71802 39356 02981 89107 79788 51330 37129 31898 3401 I 43304
57494 72484 22676 443t1 15356 05348 03582 66183 68392 86844
'73364 38416 93128 t0297 I l4l9 82937 84389 88273 96010 09843
tu99 83965 75403 18002 45068 s4257 18085 92626 6091 I 39137
40747 03084 0'1734 88940 88722 857t7 73810 79866 84853 68647
42237 59t22 92855 62097 81276 06318 81607 00565 56626 77422
32934 60227 58707 44858 36081 7998t 01291 68707 45427 82t45
05764 t4284 73069 80830 t723t 42936 484'.12 t8782 st646 37564
32706 94879 93188 66049 25988 46656 35365 13800 83745 40141
22190 2'7559 95668 53261 2t676 98943 43618 42n0 93402 93997
81616 t5641 9492t 959',70 63506 22007 29966 38tM 62556 07864
26099 65801 69870 84446 58248 21282 56938 54729 6775'7 684t2
71874 61692 8000t 21430 02305 59741 34262 15157 27545 14522
087'74 29689 42245 51903 69179 96682 91819 60812 4763t 50609
37294 92028 56850 83380 0s9t2 29830 37612 15593 73198 99287
33912 37996 78967 5720t 66916 73998 54289 07t47 84313 51939
63610 61475 26980 23804 54972 72068 19403 53756 0428t 98022
01570 4t702 30282 54647 06077 29354 95704 75928 2l8l I 88274
24t59 77787 38973 82178 46802 90245 01805 23906 96559 06785
92834 52941 88301 22t27 23459 40229 74678 2t859 98645 72388
16178 60063 59284 t62'79 48003 44634 08623 32752 40472 05470
81808 32980 80660 98391 62243 t9678 39551 18398 36918 43543
28628 82072 04854 52809 86608 68017 l l 120 28638 72850 03650
62249 65757 122'73 9t261 96983 15082 83851 77682 81728 52t47
8454t 99891 01585 96711 297t2 0287'7 70955 59693 26838 9601 I
89052 39061 9981 I 69831 47234 93263 47386 17462 18874 742t0
43645 89232 00384 10858 21789 14093 06268 46460 97660 23490
61618 1927s 40744 22482 12424 98601 19089 53166 41836 28205
68136 06546 04029 4'1946 t9526 2'1t22 425t5 55048 239t2 81 105
74005 34558 93779 96t20 01695 47720 88&6 73520 40050 90553
54437 88825 0'7943 81795 3t709 13358 04626 64838 92133 44221
0r990 94762 89926 84764 t9159 95355 982t3 t7704 47400 30837
02404 42408 6798t 43684 55467 47030 42545 43920 I I 199 36521
59253 7t535 26149 35629 87t2^7 45581 00185 0104t 46662 98897
20471 t3914 99330 37938 69649 57964 97149 4t628 78664 80727
65946 60766 74084 22484 495t4 89820 41310 19722 07045 28808
00939 47818 75949 44707 49105 06777 31998 79942 98351 t0265
499s2 29t23 45950 67578 13524 03023 18046 '15287 74989 58152
17328 70732 46319 269sO t9037 02831 36558 82712 05590 64941
19420 702t5 90476 76400 51553 12158 14668 15656 37895 94559
t9l2l 4l t90 49t45 05373 00755 t78t7 22757 76116 76977 945't0

PH, TASSI - S. LEGAIT 343


TABTES NUMER]OUES

Table no 9
NOMBRES AU I-IASARD GAUSSIEN N (0,1)

l.slg- .00{- t.3?r-


2.033- "620 .256 r.335 r.rsz .50a
_.986- -.a36 .82t- 1.169 L.162 .063_
.elo- 1.22. i-iià rlàÀi-
.866- .a23- I.878 r.!19- _.?9? t.os3 .3rt r.ssl- r.aoi- -.iôô_
.683 .392 .o53-
.24t 1.650 .?o3
.!?l- t..oq- .640- .s63_ .rrg
.s21. .zrr- :ié,
.226 .1zs- ..86- t.rgs l.oss .ase 1:ôàè
.7L6 .997 .a2o r.!19- l.g?l t.5?1. .s8e- 2.0?6 .o28- .65{
l. 136- .169 "t06 .223 1.E65 .060- .112 l.069 r.tee t-rii-
.{61- .390 .63? 1.166- .O42- 1..192- .,1,t3 .31O -ZSZ- t-zrt-
.986- .305- t.02{ l.??\- .5ol l.3ll l.tts- l...l.r- .eos :it5-
.686 1.036- .980 r.6sr .6s5- 1.126 .680- .o2z_ .zse :aaô
.393- 1.190- 1.sto
2.155- .2A7- .216 .q91 .gl? t"t75- .086 .?e2- .oe3 l.t:.E
.?65- 1.135 1.102 _.199- .llq- .e3?- l.o3e .r2s- .zzg- r.i6s-
r.ll! -.?19
2.161- 1.84? .s2a .522 .e68- .o{t .zsz- r.srt
.?-4?- r.g?5- .o3r- .71L t.tzz- z.qea r:?46
1.302- 1.?81 .{58- .589 .t71 1.4?8- .225- .606_ 2.619- .zsn-
r.qq! l.qlg- .7L!- .lqq- .89?- .66e_ .38? .16? 1.6?3
-:tià_ 1.1ôo-
.999- .t?9- .?s! .7o-2- .7e7 r.rss- .sss- -:âôô
.Z16-- .9i9 .03?- .l9g r.zos- z.ore- g.rzo- :ti1
.eas- .zos- :i6a-
,!?6-- .??7 2.222 r.el! r.!l? r.o12- .orr .ose r.oii :iat
.rs2- .{86 l.o3?- 1.320 .968- .ssr .aaz_ z.ezs i-.oéi- :iû_
.374- L.279 .17O- .531- .112- 2.257
.025 t.711- .a8a 1.89? .936- .O2t-
.710 1.203-.lal . l6a 1.8,t3 l. 862-
.347- .2L6 1.172 .908
1.075- .681- .o31- .{59- .251 .25O
.302- .762-
.29L 1.489 t..05t .2tq- .53?- 1.235- .326- .449 l.l?o- 1.172
.a56 .569- .t77 .011- .37O .441- 2.680- l.6,trl- 1.916- .Alg-
1.Ol,t- 1.088- .853 .?qc- ..9I- .56t- .99s- .,r15- 1.585 .5?8_
.85{- 2.102 .s9l _.276- 1.19? 1.603- .9O7- .8,13- Jeg- z.gel
.80?- .a3l 2.078 1.251 .35?- .387 .922- .6,19- .958- .ZSS-
.7!1. .!06- .2o8- .231- t.l8o L.127- .oo.- .2rO- l.6rto- .Brl-
-.91! l.!lq- 2.!?i
2.991 -.199- .628- 1.5?o r.zsg- r.glr .zas :iaô-
.?9q- -.?99 .?8?- 2.003- t:?o?- .oer .oos- :é{i-
.?3_? .qqg .r53- l.6E!- .075- .ers- .srs .5?O- 1.682- .zet_
.3Tt .6rl .o{9-1.219-.Bs8- .ls? .985- .eze .osr- .zto_ :æé-
.961 - .291 1.o03- .o{9 1.610
l.?aa ,227- .17A t.O2g .67?
1.826- .060- .709 .88?- -A23
.7lo- 1.t63- .6?0- .100- .327
.t57- .228- 1.012- 1.a50 t.22L-
1.830
.776
t.821
l.0l 9-
l. 73a

344 PH TASSI , S. LEGAIT


TABLLS NUIVERIOUES

Table no 1O
ESPERANCE DE LA STATISTIOUE D'ORDRE
table fournit E (X,,,), où X,,, est I'observation de rang i lorsque léchantillon
_.Cette
(X,, .. xn) extrait d'une loi normale N (0, l) est classé pu, o.J.. décroissant:
'
X,u ),X,r, )- ...2 X,,t ) ...) X,", ; n varie de 2 à 50. par symétrie, E (Xrrr :
-E(X," -',)
2 3 4s6 7E
I 0.5642 0.E463 1.0296 r.1630 t.2672 r.!522 1.4236
? -0.5642 0.oooo 0.2970 0.4950 0.6418 0.1574 0.e522
3 -0.846t -o.29t0 0.0000 0.2015 0.3527 0,4728
4 -1.o29ô -0.4950 -0.2015 _0"0000 0. L525
9l0ltt2u t4 15
I t.4850 1.5388 t.5864 t.6292 r.66S0 1.70t4 t.7t59
2 0.9323 l.ool4 l.06 l, t. lr57 r. r64t 1.20t9 1,2419
3 0.5720 o.6t6r 0.7286 0"7928 0.8498
4 0.2145 0.J756 0.4620 0.5]68 0.6028 0.901r o,9477
0.66IE 0.tr49
5 0.0000 0.t227 0.22{9 0.3t22 o.3ss3 0.4556 0.5157
6 -0.2''45 -O.t22t o.ooq) 0.1026 o.t9o5 0,26:/3 0.3351
t -0.5720 -0.3758 -O,2249 -o.1026 o.oooo o.os82 0.1653
16 t7 lE r9 20 21 22
I t.7660 r.7939 1.82@ 1.841.5 1.8675 r.E892 1.9097
2 r.284t l.3rE8 r.3to[ t.3799 r.@76 r.4336 1.45S2
3 0.990! 1.0295 l.o65t 1.0995 l. u09 l. r60t t. rE82
4 0.7532 0.E074 0.t481 0.E85t 0.92t0 0.9538 0.9846
5 0.5700 0.6r95 0.664t 0.7066 0.74'É 0.7E15 0.E153
6 0.3962 o.ôJu 0.tot6 0.y77 0.5903 0.629E O.6667
7 0.233E 0.2952 0.350s 0.4016 0.4433 0.4915 0.5316
t 0.07t3 0.1460 0.207t 0.2537 0.3r49 0.3620 0.ré56
9 -0.07tt 0.æ00 0.6S! 0. uot 0. 1870 0.2384 0.2r58
l0 -0.z3tt -0.1460 -0.06s! 0.0000 0.0620 0.1184 0.rt00
ll -0.3t62 -0.2952 -o.20r, -0.Llot -0.0620 0.0000 0.0564
23 24 2' 26 2t 2E Le
I 1.9292 r,%7t 1.9653 1.9E22 1.99E3 2.0U7 2.0285
2 1.4€14 r.5034 l.t2(! t.*2 r.5633 t"5815 l.r9E9
3 t"2144 1.2392 1.2626 t.2t5l r.3064 1.326t r.3462
4 1.0u6 t.o409 I .0'66t I .091ô l. rl47 l. t3t0 1.15E:
5 0.8470 0.!t68 0.9050 0.9tr7 0.9570 0.9812 1.00ôl
6 0.t012 0.733t 0.t64t 0.t929 0.8202 0.8461 0.8708
I 0.t690 0.6@ 0.6369 0.6679 0.6973 0,7251 0.75t5
t 0.4461 0.6839 0.519t 0.5t2t 0.t84t 0.6138 0.6420
I 0.329t 0.3705 0.4096 o.t t l.4 0.4780 0.5098 0.5t98
t0 0.21t5 0.2616 0.t0lt 0.34t0 0.37tr 0.4u0 0.(430
tl 0.108 r 0.1558 0.2001 0.2(13 0.2798 0.3160 0.3t01
l2 o.(xn, 0.0518 0.0995 0.r4!9 0. r852 0.2239 0.2602
lf -0. l08l -0.0t!t 0.0000 0.0478 0.0922 0.tit36 0.t724
l4 .0.2rtt -0. r35C -0.0995 -0.0{t8 0.0000 0.0444 0.0859
TABLES NUMERIOUES

Table no 1O (suite)
ESPERANCE DE LA STATISTIOUE D'ORDRE

t0 31 32 33 34 35 36

I 2.0428 2.0565 2,0697 2,0824 2.0947 2. 1066 2 . r r8 t


2 r.6156 r.6317 1.64.7 r 1.6620 1.6764 1.6902 1.7036
3 r.3648 t.3827 t.3999 1.4164 1.432t t.tA75 t.tÂ24
4 l. 1786 1.1980 1.2167 r.234'' 1.2520 r.2666 t.2847
5 1.026t l.o47t 1.0672 1.0865 1.1051 l.1229 t.1402
6 0.89t4 0.9169 0.9384 0.9590 0.9789 0.9979 1.0162
I 0.7767 0.E007 0.8236 0.8455 0.â666 0.8E68 0.9062
I 0.6688 0.6944 0.rt8t o"7420 0.t643 0.7857 0.8063
9 0.5683 0.5955 0.6213 0.6460 0.6695 0.592r 0.7r38
l0 0.a733 0.5021 0.5294 0.5555 0.5804 0.6043 0.6271
n 0"3824 0.4129 0.4418 0,t694 0.4957 0.5208 O.W9
t2 0.2915 0.3269 0.3575 0.386t 0.4144 0.4409 0.tû62
13 0.2088 0.2432 o.2751 0.!065 0.3358 0.3637 0.3903
l4 0. l24r 0.16u 0.1957 0.2283 0.2592 0.2886 0.3 166
l5 0.0415 0.0804 0. t169 0. 1515 0.1842 0.2152 0.2tA6
r6 -0.04r5 0.0000 0.0389 0.0755 0.1101 0. 1426 0.1739
l? -o.L241 -0.0804 -0.0389 0.0000 0.0366 0.0712 0.1040
t8 -0.20EE -0. t6 ul -0"1169 -0.0755 -0.0366 0.0000 0.0346
37 38 39 tâ 41 42 43

r 2.u93 2.lrol 2.1506 2.t60E 2.L707 2.r80! 2.1897


2 1.7166 r.7291 1.74L1 1.7531 1.76/+6 1.7757 1.7865
3 l.{768 1.4906 r.5040 r,5r70 r.5296 r.5419 1.5s38
4 r.3002 r.3r5t r.3296 r.3437 t.3573 1.3705 1.3833
5 1.1568 r.1728 l.tEEt 1.2033 1.2178 r.Èr9 r.2456
6 1.0339 1.0509 r.0674 r.0833 r.0967 1.t136 l.t28t
t 0.9250 0.9&30 0.9604 0.9772 0.9935 1.0092 1.0245
8 0.8260 0.8451 0.8634 0.6Ell 0.E983 0.9r48 0.9308
9 0.7316 0,754'' O.71tû 0.7926 0.8106 0.8279 0.W7
r0 0.6490 0.6701 0.6904 0.7099 0.7287 0.7tÉ9 0.7645
ll 0.5679 0.5900 0.6113 0.6318 0.6515 0.6705 0.6EE9
t2 0.4904 0. t 136 0.5359 0.3574 0.5780 0.59t9 0.6 r7 l
13 0.4158 0.rlol 0./635 0.4859 0.5075 0.5283 0.5483
14 0.3434 0.3669 0.3934 0.4 169 0.4394 0.46 lt 0.ô820
t5 0.2'127 0.2995 0.3252 0.3198 0.3734 0.3%0 0.4176
16 0.2014 0.2316 0.2585 0.2A42 0.3089 0.3326 0.3553
l7 0. 135 r 0. 1647 0 . l 929 0 .2 199 0.2457 O,2704 O.29t 2
l8 0.0674 0.0985 0.1282 0.1564 0.1835 0.2093 0.2341
19 0.0000 0.0328 0.0610 0.0916 0. t2r9 0.1490 0.1749
20 -0.067ô -0.0328 0.0000 0.03u 0.0608 0.0e92 0. l16l
2l -0.1351 -0.0985 -0.06ro -0.0312 0.0000 0.029? 0.0580

346 PH TASSI . S. LEGAIT


TABLES NUMEBIOUES

Table no 10 (suite)
ESPERAI\CE DE I-A STATISTIOUE D'ORDRE

I 2. l98t 2.207t 2.2164 2,2249 2.2331 2.24t2 2.249r


2 1.797t 1.8013 r.8u3 l.E27l 1.8366 1.8458 r.8549
3 1.5653 t.5766 1.5875 1.5982 t.6oE6 l.6rE7 t.62E5
4 1.395t 1.407E 1.4196 l.(3u l.tA22 t.453t 1.463?
t 1.2588 t.27rt r.2842 1.2964 1.3083 l.3r9E r.3lu
6 l.t42t l"t55E l.1690 l. lsl, t.1944 !.2066 r.2r85
1 1.0392 t.0536 l.067t t.0810 1"0942 !..1070 r. ll95
€ 0.9I'63 0. 96 14 0.9760 0.9902 l.0o4o _ r.0174 l.g3o4
I 0.86 t0 0.876t 0.8920 0.9068 0.9212 0.93s3 0.94s9
t0 0.7E15 0.t979 0.8139 0.t294 0.c,uA 0.8590 0.E732
il 0.7067 0.t238 0.7405 0.tt66 0.172t 0,7875 0.ao22
t2 0.6356 0.6535 0.6t09 0.68?t 0.7040 0.7198 0.735 t
r3 0.5616 0.5863 0.60rÉ 0.6219 0.6368 0.6552 0.67 rt
t4 0.5022 0.5217 0.5405 0.5586 0.5763 0.5933 0.6099
l5 0.4t89 0.4591 0.478t 0.4975 0.5159 0.53t6 0.5t08
l6 0.37t, 0.!9S! 0.418t 0.4363 0.45tt o.4't5, 0.4935
lt 0.!rto 0,3!90 0.t602 0.t806 0.4{x)t 0.4191 0.4379
It 0.257' 0.2808 0.10t9 0.324t 0.3t'46 o.tê,tA 0.!tt6
l9 0.r9rt 0.2236 0.2455 0.2636 0.2899 0.trot 0.!!oa
20 0.1422 0. t67l 0.1910 0.et40 0.2361 0.25t5 0.2761
2t 0.0851 0.tllt 0.u60 0.1t99 0.t830 0.2051 0.2265
22 0.02tt 0.0155 0.081ô 0.1064 0. u03 0.1534 0.1756
2l .0.02tt 0.0000 0.0271 0.053r 0.0781 0. t020 0. u5r
24 -0.0851 -0.05t5 -0.0271 0.00@ 0.0260 0.0509 0.0749
2t -0.1422 -0. lllr -0.08r4 -0.05t1 -0,0260 0.00co 0.0250

PH. TASSI . S, LEGAIT 347


TABLES NUMERIOUES

Table no 11
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
X, , représente l'observation de rang i dans un échantillon (X,, .. X") extrait d'une loi
N (0, l)classé par ordre décroissant : X,,, > ...2 X,",. Cette table iournit, par n allant cie 2 à
20.iesvaleursdeV(X,,,)etCov(X(i),X,;,).OnaCov(X,,,,X,;,) = Cov(X,",*,r,X1" 1*,r).

L ! L !- Â L g- Â l.
z I I 0.53 1' 7 3 ! 0.2197 9 { 5 0. ul70
2 0.3 U3 { 0.1656 6 0.lt2t
2 2 0.6t17 5 0. t:lt6 5 t 0.1661
ll I 0.5595 a 4 0.2104 t0 I I 0.3443
2 0.275t tt i 0.J729 2 0.ltlt
3 0.1649 2 o.1863 3 0. l16l
2 , g.tÆ1 3 0.1260 t 0.0882
4t I 0.ô917 a 0.094? 5 0.070t
2 0.2455 5 0.07lrt 6 0.0584
3 o.ljto 6 0.0602 t 0.04ê9
4 0.10ô7 t 0.0451 e 0.04It
2 1r.3605 t 0.036E I 0.03ré
3 0.2359 2 0.239t l0 0.0267
I O.t{?5 t 0.1632 2 0.2145
2 0.22ô! a 0. t233 ! 0.1466
3 g.lt{ I 5 0.0976 a 0. ut?
4 0. t05r 6 0.0787 5 0.089t
5 0.07{2 t 0.0632 ô 0.0742
2 0.3115 3 0.2008 7 0.0é22
, 0.2084 4 0. u2ô ! 0.0523
4 0.1499 5 0.ut0 9 0.0434
3 ! 0.2868 6 0.0978 t 0. l7r0
6l I 0..u9 4 0.1672 ô 0. l3t8
2 0.1085 5 0.1492 5 0.l0rt
I 0.1194 I 0.3574 6 0.0ô92
4 0.1024 2 0. lTEl t 0.0?ô9
5 0.0714 I 0. uot I 0.0630
6 0.0561 a 0.09L1 a 0.ur9
2 0.2796 t 0.0727 5 0. u7t
3 o.uto 6 0.0595 6 0.105t
4 0.1397 ? 0.q91 t 0.0869
5 0.1059 t 0.0401 5 5 0.1511
3 0.2662 , 0"0311 6 0. u56
I 0.lrtt 2 0.225' ll I I 0.3!32
I 0.!919 t 0. l54l 2 0.1654
2 0.1962 4 0.ltt0 t 0.1u4
3 0.t!2I t 0.09t4 a 0.065t
4 0.09E5 6 0.076t t 0.068E
t 0.0766 t 0.0632 6 0.0572
6 0.0599 E 0.051, t 0.o4t4
7 0.O4/.E ! 0.1E6{ t 0.04 u
2 0.2567 4 0.t421 9 0.03t1
3 0. lt49 5 0.1!!E l0 0.0294
4 0. Ll07 6 0.09t{ ll 0.023t
5 0.1020 r 0.0?72 I 0.2052
5 0.0Ê30 4 0,1706 ! 0. raoS

348 PH TASSI - S. LEGAIT


TABLES NUMERIOUES

Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

L t J o ! J L ! J

ll 2 4 0.t071 12 3 a 0.12t2 !t 3 6 0.0793


5 0.0864 5 0.09E3 7 0.0679
6 0.c719 6 0.0822 t 0.0589
t 0.0509 7 0.0701 9 0.0514
8 0.0520 6 0.0604 l0 0.0{50
9 0.0443 9 0.052! u 0.0J91
l0 0.0371 l0 0.0450 4 0. Lt30
I 0.1657 4 0.u9r t 0.108J
4 0.1:lr0 5 o. tt36 ô 0.0910
t 0.1026 6 0.0952 ? 0.0780
6 0.0E59 t 0.0612 t 0.0677
t 0.0725 ô 0.0701 9 0.0592
E 0.0519 9 0.0607 t0 0.0517
9 0.052e t 0. tito6 5 0.1233
4 0.1$0 6 0.1096 6 0.1037
J 0. lr99 7 0.0937 7 0.0890
6 0.loæ 8 0.0809 E 0.07i4
7 0.oE{9 6 6 0.1266 9 0.0ô76
t 0.0725 7 0.10E4 6 0.1183
t 0. u96 tit I I 0.3152 7 0. 1017
6 0. 1167 2 0.155t t 0.0886
? 0.0992 3 0.1059 7 ? 0. u6E
5 6 0. ljtr2 4 0.0609 14 I I 0.307t
12 I I 0.3236 5 0.065t 2 o.ut?
2 0. t602 6 0.0548 3 0.1032
3 0. t0c9 ? 0.0459 4 0.0789
ô 0.0tll t 0.066 5 0.06(0
5 0.0671 I 0.0354 6 0.0537
6 0.05ro l0 0.0t09 7 0.0461
7 0.0477 II 0.0269 t 0.0rot
t 0.0ct0 t2 0.0229 9 0.0352
t 0.0354 Li 0.0184 l0 0.0310
l0 0.0305 2 C.1904 n 0.0273
ll 0.025t J 0. L'02 u 0.0219
ll 0.0206 4 0.0997 u c.0205
2 0. tr?3 5 0.0809 14 0.0t66
! 0. lJ{9 6 0.0ô74 2 0.tt44
( 0.1032 7 0.0tr0 I 0.I26t
t 0.or3t t 0.0503 a 0.0967
6 0.0696 9 0.0439 t 0.0785
7 0.05 9r l0 0.ct84 6 0.0660
t 0.0512 ll 0.0!tt t 0.056t
I 0.O.i3 12 0.02tô t 0.049{
l0 0.0361 3 0. l5l4 9 0.043ô
ll 0.03Ë ô 0. u6! lo 0.0382
t 0. u60 5 0.094t ll 0.0337

PH TASSI . S. LEGAIT
349
TABLES NUMERIOUFS

Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

L1 L r-Â L a I L
142 u 0.0295 ut lt 0.0ut l5 7 t o. t02t
lJ 0.0253 2 2 0.lt9r ! 0.0900
3 3 0.t45t t 0. u2ô 9 0.0t97
4 0.1u0 { 0.09tt t t 0. t0t7
t 0.0il1 5 0.0764 16 I I 0.2950
t 0.0t6t 6 0.o64t 2 0. 1449
? 0.065, 7 0.0t5{ I 0.09E5
I o.otra t 0.0414 ô 0.0tta
I 0.050t , 0.042t I 0.0613
lo 0.0445 lo 0.03tt 6 0.0517
ll 0.0392 tl 0.03tt t 0.0446
tl 0.0r4t u 0.0299 t 0.0t90
a 0. utt u 0.0263 I 0.014t
t o. tott t4 0.022t lo 0.030t
6 0.0tta t o.laot 11 0.02?t
t 0.0t5t a o.rort u 0.02t6
t 0.06tt 5 0.0æ2 u 0.0220
9 0.05t6 ô 0.074t la 0.0195
lo 0.0t0t t 0.0641 u 0.016t
l! 0.0{4t t 0.0560 tô 0.0Lrt
5 0. u7t 9 0.or94 2 0.174{
6 0.096E l0 0.o6t9 t 0. t19l
t 0.0t51 ll 0.0!90 a 0.0il{
I 0.07ô2 u 0.0]at t 0.074,
t 0.o65t u 0.0æ5 6 0.06æ
lo 0.0516 a 0.1.it12 t 0.0542
ô o.uu t 0.09t7 t 0.0475
t 0.0t61 3 0.oE42 I 0.0421
t 0.0t40 t 0.0716 l0 0.0tr5
t o.0tl9 t 0.061t ll 0.03t6
.,
t 0. to90 t 0.0561 u o.0to0
t 0.095t l0 0.o49E u 0.0t6t
!.t I I O.tOUt u 0.o{4t l4 0.023t
2 o.t.tl u o.0t9a u 0.0206
I 0.100t t 0.1119 t 0. Ll6l
4 0.0t7t é 0.0945 a 0.104t
I 0.0626 t 0.ocr6 5 0.0ttt
6 0.052t I 0.071( 6 0.0722
t 0.o4tt I 0.06t1 , o,o6u
t 0.0t96 l! 0.0561 t 0.054t
9 0.0t4t ll 0.0{99 9 0.011ô4
t0 0.0110 6 0. 1059 l0 0.0{t2
tt 0.0275 r 0.0tu ll o.o3ô,
U 0.014/a t 0.0æl 12 0.0146
lJ 0.02u I 0.0t09 Lt 0.0309
t{ 0.01t5 lo 0.0630 tô 0.02t4

350 PH, TASSI . S. LEGAIT


TABLES NUMERIOUES

Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

D ! L B a
L L ! l-
l6 4 s 0.1179 l7 I l7 0.0127 l7 5 ll o.utE
5 0.0963 2 2 0.170t L2 0.0{31
6 o.08Lt 3 0. lt62 lJ 0.03Eâ
7 0.0703 ô 0.or92 6 0.0969
t 0.0617 5 0.072t 7 0.oô{ô
I 0.05at 6 0.0614 5 0.073'
t0 0.oaga t 0.0531 9 0.o65t
ll 0.0437 t 0.0466 l0 0.05E9
rt 0.0t9t I 0.o4la tl 0.05!{,
ll 0.0!49 lo 0"0170 12 0.047t
5 0. to74 ll 0.0t3! t 0.0929
6 0.0roa u 0.0too E o.oEu
t 0.0tEt u 0.02?0 t 0.072t
I 0.06t9 rÔ 0.02{2 10 0.o65t
9 0.0611 u 0.021t lt 0.05E!
l0 0.05a6 16 0.0ut 6 0.0st
lt 0.ûtr9 I 0. u2{ 9 0.oa0E
u o.o(tr a 0. trl9 l0 0.0725
6 0. !0r0 5 0.ot3l 9 9 0.0900
t 0.0875 6 0.070t Itl 1 0.?84t
E 0.076t 7 0.o60t 2 0. u93
9 0.0682 t 0.05t4 t 0.09a5
lo 0.0609 9 0.0475 4 0.072t
ll 0.0145 10 0.042t 5 0.0590
? o,o974 ll 0.0382 6 0.0499
! 0.0656 u 0.034a t 0.&31
9 0.07æ u 0.0110 t 0.0t79
l0 0.0679 14 0.02tt t 0.033t
3 t 0.0t5t u 0.02ôt l0 0.030!
9 0.0850 a o.ltao ll 0.0273
rt I I 0.2195 5 0.0932 u 0.0247
2 0. tatt 6 0.078t Ll o,at24
! 0,0965 7 0.0562 16 0.020t
a 0.0t39 t 0.0ôoo 15 0.01E2
5 0.0601 t 0.053! t6 0.0t6t
6 0.050t lo 0.o4tt r7 0.0r€
t 0.043t ll 0.0429 lt 0.0rD
t 0.03E5 u 0.036t 2 0. r66t
9 0.0tôt u 0.0t49 I 0. 1135
l0 0.0æt la 0.031;, ô 0.o€t2
ll 0.027a 5 0. t0'4 5 0.0?u
t2 0.0247 6 0.0616 6 0.0601
tt 0.022t 7 0.07J9 t 0.0520
l{ 0.02m t 0.066t r 0.045t
rt 0.017t 9 0.0r9t 9 0.o40t
16 0.0155 lo 0.0531 l0 0.036t

PH TASSI -S LFGAIT 351


TABLES NUMERIOUES

Table no 11 (sufte)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

L ! J s- ! J t- 1 J

l8 2 ll 0.0330 l8 6 9 0.0636 t9 2 t2 0.0296


12 0.0298 l0 0.0571 13 0.02t0
13 0.0270 t1 0.05t6 14 0.0246
14 0.0245 u 0.0467 u 0.02È
t5 0.0221 Lt 0.O42t 16 0.0202
16 0.0197 7 .0.08 90 t? 0.0181
l7 0.0172 t 0.07E5 lE 0.0u9
3 0. l2t9 9 0.0700 3 0.1257
a 0.0992 !0 0.062t 4 0.0967
5 0.0t10 ll 0.0569 5 0.0790
6 0.0615 u 0.05u 6 0.0669
7 0,059{ t 0.oEô5 7 0.0580
I 0.0522 9 0.0172 t 0.05u
9 0.0a6J l0 0.069ô t 0.0456
lo 0.o4tt tl 0.0627 l0 0.0410
lt 0.0377 9 0.0653 tl 0.0371
12 0.0341 l0 0.076t u 0.033t
lJ 0.0309 t9 I 0.2799 u 0.0307
l{ 0.02t0 2 0.Lt6t ll 0.02t0
15 0.0252 3 0.0929 u 0,0254
16 0.0225 a 0.07 u 15 0.0230
4 0. l106 5 0.0580 l, 0.0206
5 0.0904 6 0"0490 a 0. t075
6 0.0766 7 0.0425 t 0.0679
t 0.0664 t 0.0314 6 0.0741
t 0.05ô4 I 0.0333 1 0.o64t6
I 0.0520 lo 0.0300 t 0.0570
lg 0.0rri6? 11 0.02tt t 0.0509
tt 0.(xt2 l2 0.026 l0 0.o{5E
u 0.0112 lj! 0.0124 ll 0.o4tô
lJ 0.0346 l{ 0.020{ !:l 0.0376
l( 0.03Lt u 0.0u5 lJ 0.0343
u 0.02E3 16 0.016t 14 0.031t
5 0.0999 l7 0.0150 5 o.o2E4
6 0.0847 u 0.0132 16 0.025t
? 0.0734 lt 0.0t09 5 0.096t
t 0.06ô7 2 0.161ô 6 0.0t21
9 0.0577 t 0.nll 7 0.071t
t0 0.051t a 0.0853 t 0.0629
lt 0.o46t 5 0.0696 9 0.0561
u 0.(x2l 6 0.0569 l0 0.0505
ll 0.038{ t 0.0510 ll 0.95t
l4 0.0tl! t 0.0(50 12 0.0416
6 0.0932 r 9-9401 13 0.037 9
7 0.0609 l0 0.0360 la 0.0345
I 0-07Lt ll 0.0326 u 0.0314

352 PH. TASSI - S, LEGAIT


TABLES NUMER1OUES

Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

n ! J L E J. L! t
l9 6 6 0.0900 20 2 3 0. l08t 204 lt 0.0235
, 0.0782 4 0.083ô 5 5 0.o9lo
E 0.0690 5 0.06t2 6 0.0794
9 0.0616 6 0.057E ? 0.069!
t0 0.0555 7 0.0501 t 0.0611
ll 0.0502 t 0.0442 9 0.054t
12 0.0457 I 0.0395 lo 0.0491
tjt 0.0416 l0 0.0396 ll 0.o44t
14 0.0379 lr o.0t22 t2 0.olo8
7 0.0E56 L2 0.0294 Ll 0.0373
E 0.0756 13 0.0268 l4 0.0341
9 0.067t t{ 0.02{5 rJ 0.03u
t0 0.0608 15 0.0225 t6 0.02E5
ll 0.0551 16 0.0205 6 0.0872
12 0.0501 t7 0.0u6 7 0.075E
l3 0.o45t It 0.0167 t 0.0670
t 0.062t t9 0.0147 9 0.0599
9 0.07/€ 3 0. u2t t0 0.05{0
l0 0.0667 a 0.094t lt 0.04æ
tl 0.0604 5 0.0172 12 0.04{7
12 0.0550 6 0.0655 u 0.olÉ8
9 0.06u 7 0.056t la 0.0374
t0 0.07tt 6 0.0501 15 0.0342
ll 0.066t I 0.044t ? 0.0E26
l0 l0 0.080t t0 0.o{ol E 0.0730
20 I t 0.2t5? tt 0.0366 9 0.065!
2 0. ui45 12 0.0ltt I0 0.0589
! 0.0911 tt 0.0305 tl 0.0535
a 0.0700 l4 0.0279 12 0.046E
5 0.05t1 t5 0.0255 u 0.0446
6 0.04Et t6 0.0233 la 0.0tot
? 0.0418 17 0.0211 8 0.0796
t 0.0369 u 0.0190 9 0.07 13
9 0.0329 4 0.1047 l0 0.0641
l0 0.0297 5 0.0856 tl 0.0564
u 0.0269 6 0.0726 l2 0.0533
t2 0.0245 t 0.0631 lJ 0.O4o,
l! 0.0224 5 0.0557 9 0.0778
l4 0.0205 9 0.049E l0 0.0703
15 0.01E7 l0 0.0]148 ll 0.063E
16 0.0ltl ll 0.0ro7 12 0.05E2
17 0.0155 12 0.0171 l0 0.0?69
It 0.01J I lJ 0 .0319 ll 0.0699
19 0.0t21 l4 0.0310
20 0.0102 u 0.0284
2 0.1J96 t6 0.0259

PH TASSI . S, LEGAIT
I
INDEX

A D
Absolue coniinuité, bg, 7,l. Décile, 78.
Accroissements indépendants, 307. Densité, 59, 73, 80.
Affinité, 243. Dirac (mesure), 37.
Algèhre, 13. Distance de lipschitz, 244.
Approximation, 115, 214, 236. 0istance d'Hellinger, 243.
Attraction, 282. Distance de Paul Léuy,241.
Autocorrélation, 2g6. Distance de Frohorov, 244.
Autccorrélation partielle, 3 02. Distance en uaùation, 242.
Autocovarianc e, 292. Domaine d'attraction, 282.
Autorégressif. 31 l.

E
B
Ecart-type, 76.
Banach. I 66.
Echantillon, 154.
Bayes (théorènel, 27. .l3,
Espace mesurable. 3b.
Beppo-l-evi, 49.
Espace mesuré, 3b.
Bienaymé-Tchebichev, EZ, 76.
Espace probabilisable, I 3.
Bochner. I 89.
Espace probabiiisé, 22.
Borélien" 18.
Espérance, 51, 53, 7b.
Brownien, 31 1 .
Espérance conditionnelle, g8.
Etagée (fonct!on),46.
c
Etendue, 284.
Cauchy-Schwarz. Sl,83, I 69. Evénement, 12.
Centile, 78. Expérience, I 2.
Gentral limite (théorènel, 227. Extrême, 266.
Goefficient de corrélation, gJ, 1iZ.
Coefficient de détermination, I 7g.
Gomptage (mesure), 40. F

Convergence dans [r, 166. Famille exponentielle, 1 b2.


,|67.
Convergence dans l-a, Fisher (coefficienrs), 1 50.
Convergence dominée (théorème), bg. Fisher (théorème), I 82.
Convergence en loi, 2.l3. Fonction caraetéristique, I 86.
Convergence en probabilité, 20g. Fonction de répartition, 22, 72, 80.
Gonvergence presque sûre, 207. Fonetion de répartition empirique, 2S1.
Corrélogramm e, 297 . Fonction génératrice, 187.
eovariance, S2. Fonetion intégrahle, 50.
Cramer-von Mises, 247. Fonction mesurable, 40.
Cramer-Wold, 217. Fonction muette, 56.

PH TASSI - S. LEGAIT
INDEX

Fractile,77. Logarithme itété,253.


Fractile empirique, 273. loi conditionnelle, I1.
Frisch-Waugh, 302. Loi d'une u.a., 44, 71.
Fubini (théorènne), 65. loi des extrêmes, 276.
loi du type l, 277.
G Loi du gpe ,4, 277.
Loi du type all, 277.
Gnedenko, 281. Loi marginale, 86.
Grands nombres (loil, 223. lois usuelles :
Bernoulli, 108.
H Bêta,121.
Binomiale, 1 :10.
llellinger (distance), 243.
Binomiale négative, 1 15.
Hermite, 128.
Cauchy, 140.
Henry (droite), 143.
Dirac, 107.
Hilbeit (espace), 169.
Exponentielle, 1 1 8.
Holder (inégalité), 1 69.
Fisher-Snedecor, 140.
Gamma, 1 17.
I
Géométrique, 1 16.
lndépendance, 24, 87, 195. Gumbel, 124.
lnjectivité, 188. Hypergéométrique, I 13.
lntégrale bêta incomplète, 264. lndicatrice, 1 08.
lntégration, 46, 6 1 . Khi-deur 136, 255.
lnversion, I 88. laplace, I 92.
log-normale, 135.
Multinomiale, 1 10.
Itlormale unidimensionn elle, 1 24.
Jensen,52. ltlormale multidimensionnelle, 1 31.
Pascal, 1 16.
Poisson, 1 09.
K
Student, I 38.
Khintchine,223. Uniforme, 1 16.
Kofmogorov, 18,243. Weibull, 1 19.
Kuf lback-Leiblet, 248.
M
t Markov, 31 4.
lebesgue (mesure), 39. Masse, 35.
lebesgue-Nikodym, 6 1 . Médiane, 78.
Lebesgue (théorème), 59 Mesurable (application), 40.
lévy Paul (distance), 241. Mesure, 35.
lévy Paul (lois), 190. Mesure discrète, 37.
lévy Paul (théorème), 217 Mesure étrangère, 61.

356 PH, TASSI - S. LEGAIT


INDEX

Mesure image, 43. R


Mesure produit 64.
Mesure o-linie, 37. Radon-Nikodym, 6 1.
Minkowski, 168, 1 70. Happort de corrélation, 1 01.
Moment 75,82,271, Référentiel, 12.
Mouvement brownien, 3l I .
Bésulrar, 12.
Moyenne arithmétique, I 72.
Moyenne quadratique, I 71.
s
Slutsky (théorème), 21 1, 21 4.
N
Somme (de v.a.), 194.
ilégligeabilité, 54. srabiliré, 281.
Stationnarité, 2 9 1 .
Stationnarité laible, 2gZ.
0
Stationnarité stricte, 2gl.
0pérateur, 304. Statistique descriptive, 1 71.
0rdre, 258. Statistique d'ordre, 261.
0rdre (statistique), 26 1.

T
P
Tableau statistique, 92.
Papier fonctionnel, 1 42. Trajectoire, 290.
Pearson (coefficients), 1 50. Translert (théorème), 62.
Pearson (distance), 247. Tribu, I3.
Poincaré (formule), 21. Tribu borélienne, 1 7.
Polya (théorème), 189. Tribu engendrée, 1 6, 40.
Presque partout, 54. Tribu produit, 44.
Presque sûrement 54. Type,281.
Probabilité, 18.
Probabilité conditionnelle, 23.
V
Processus, 289.
Processus autorégressif, 31 1. Valeur extrêm e, 266, 278.
Processus de Poisson, 307. Variable aléatoire, 43, 71.
Processus de vie et de mort, 310. Variance, 75.
Processus équivalent, 2 g0. Variances-Covariances (matrice), 84.
Processus moyenne mobile, 3l g. Vitesse de convergence, 2b3.
Processus stationnaire, 291.
Prohorov, 244.
W
Proximiré, 246,253.
Woltowitz,247.

0uartile, 78.
Ouasi-étendue, 2 84. Yu|e,315,318.

PH TASSI - S. LEGAIT
lmprimé à
I'INSTITUT FRANCAIS DU PETROLE
B.P. 311
92506 RUEIL-MALMAISON CEDEX
FRANCE

Dépôt légal
: Achevé d'imprimer en janvier 199O
1"'trimestre 1990 No d'ordre éditeur : 8O5
/ r

lsBN 2.7 108-0582-0

Das könnte Ihnen auch gefallen