Sie sind auf Seite 1von 217

STATISTIQUE

ET PROBABILITS
70%
APPLICATIONS
30%
COURS
Jean-Pierre Lecoutre
4
e
dition
Statistique
et probabilits
TRAVAUX DIRIGS
Statistique
et probabilits
Rappels de cours
QCM et questions de rflexion
Exercices corrigs
Sujets dannales
4
e
dition
JEAN-PIERRE LECOUTRE
Matre de confrences luniversit
Panthon-Assas (Paris II)
Dunod, Paris, 2008
Dunod, Paris, 2005 pour la prcdente dition
ISBN 978-2-10-054431-8
Sommaire
Avant-propos VII
TD 1 Notion de probabilit 1
Lessentiel du cours 1
Pouvez-vous rpondre? 5
Questions de rexion 6
Entranement 6
Solutions 11
TD 2 Variable alatoire discrte 21
Lessentiel du cours 21
Pouvez-vous rpondre? 25
Questions de rexion 25
Entranement 26
Solutions 29
TD 3 Variable alatoire continue 35
Lessentiel du cours 35
Pouvez-vous rpondre? 39
Questions de rexion 40
Entranement 40
Solutions 44
TD 4 Couple et vecteur alatoires 51
Lessentiel du cours 51
Pouvez-vous rpondre? 56
Questions de rexion 56
Entranement 57
Solutions 61
VI TD Statistique et probabilits
TD 5 Notions de convergence 71
Lessentiel du cours 71
Pouvez-vous rpondre ? 75
Questions de rflexion 75
Entranement 76
Solutions 79
TD 6 Estimation ponctuelle 85
Lessentiel du cours 85
Pouvez-vous rpondre ? 89
Questions de rflexion 90
Entranement 90
Solutions 93
TD 7 Estimation par intervalle de confiance 105
Lessentiel du cours 105
Pouvez-vous rpondre ? 110
Questions de rflexion 110
Entranement 111
Solutions 115
TD 8 Thorie des tests 123
Lessentiel du cours 123
Pouvez-vous rpondre ? 127
Questions de rflexion 128
Entranement 128
Solutions 136
TD 9 Annales corriges 157
Sujets dexamen Licence 2
e
anne 157
lments de correction 167
Tables statistiques 193
Index 205
Ce volume de la srie TD, de la collection co Sup , sadresse aux tudiants de
Licence dconomie et de Gestion. Au dbut de chaque chapitre, les principales
notions de cours et les rsultats essentiels sont rappels de faon succincte dans
Lessentiel du cours . Un bref texte introductif indique les points essentiels qui
vont tre abords et tudis dans le chapitre. Il ne sagit pas dun rsum de cours,
mais seulement dun avant-propos o on essaie dexpliquer, dans un langage peu
formalis, le fondement et lutilit des notions dfinies ensuite de faon plus for-
melle.
Chacun des huit chapitres prsente la mme structure. Un certain nombre daffir-
mations constituent le paragraphe Pouvez-vous rpondre ? . La rponse en
vrai-faux permet ltudiant de vrifier sil a bien compris les principaux points
de cours. Il doit exercer sa vigilance face des affirmations, parfois simples, mais
qui peuvent contenir un pige.
Les Questions de rflexion qui sont proposes ensuite ont essentiellement
pour but de mettre laccent sur certains lments de cours un peu dlicats. Il faut
tre attentif aux commentaires qui figurent dans la solution de lexercice, en fin de
chapitre.
Les exercices d Entranement permettent enfin ltudiant de tester sa capa-
cit passer de la thorie la pratique. Ils suivent lordre de progression du cours
et sont prcds dun titre indiquant la principale notion laquelle ils se rappor-
tent. Une rubrique Analyse de lnonc et conseils prcise la dmarche suivre
et les rsultats de cours utiliser pour rsoudre lexercice propos.
Les solutions trs dtailles sont regroupes en fin de chapitre, trs souvent assor-
ties de commentaires.
Dans le dernier chapitre, les textes rcents des examens de 2
e
anne de Licence
dconomie et Gestion de luniversit Panthon-Assas permettent de retrouver
les principaux points abords dans les chapitres prcdents. Ltudiant peut ainsi
valuer le niveau de difficult de ce qui peut tre demand une preuve dexa-
men. Les corrigs sont rassembls aprs les noncs.
Je remercie Antoine Auberger pour ses judicieuses remarques et sa contribution
cette quatrime dition.
Avant-propos
Notion
de probabilit
1
Si on veut formaliser un problme dans lequel le hasard intervient, on doit construire un
modle probabiliste, choisi enfonctiondubut que lonpoursuit. Ce modle est constitu dun
ensemble fondamental, dune tribudvnements et dune probabilit. Le choix de lensemble
fondamental est trs important pour le calcul ultrieur des probabilits des vnements.
Nous introduirons aussi les notions de probabilit conditionnelle et dindpendance. La
formule de Bayes est souvent trs utile pour le calcul de probabilits conditionnelles.
1. Ensemble fondamental
Le rsultat dune exprience alatoire sappelle un vnement lmentaire. Len-
semble des rsultats possibles sappelle ensemble fondamental (ou univers) et est
not traditionnellement . Chaque lment de reprsente donc un vnement
lmentaire, et toute partie A (ou A P()) sera un vnement. Parfois on dit
que est lensemble des ventualits possibles et les vnements lmentaires sont
alors les singletons, cest--dire les ensembles rduits un seul lment {}, qui
sont effectivement en toute rigueur des vnements, puisquappartenant P(),
ce qui nest pas le cas du point .
2. Algbre et tribu dvnements
Le couple
_
, P()
_
sappelle un espace probabilisable. Mme si est ni, le cardinal
de P() peut tre un nombre trs grand et dans ce cas on est amen alors
ne considrer quune famille restreinte A de parties de , A P(). Pour que
le rsultat des oprations ensemblistes (union, intersection, complmentaire) soit
encore unvnement, il est ncessaire que la famille dvnements qui a t retenue
soit ferme, ou stable, vis--vis de ces oprations, cest--dire quil soit bien un
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
2 TD Statistique et probabilits
lment de la famille. De plus, les vnements certain , , et impossible , ,
doivent galement appartenir cet ensemble. Ainsi, on associera une preuve
alatoire un ensemble non vide de parties de , not A, qui vriera :
C
1
pour tout A A, alors

A A;
C
2
pour tout A Aet tout B A, alors A B A.
Il y a fermeture pour le complmentaire et lunion. Cet ensemble A sappelle une
algbre de parties de . Bien entendu, grce aux lois de Morgan, on a une dnition
quivalente en remplaant la condition C
2
par :
C

2
pour tout A Aet tout B A, alors A B A.
Proprits dune algbre
P
1
La famille tant non vide, on en conclut que :
A et A
P
2
Si A
j
Apour 1 j n, on dmontre par rcurrence que :
n
_
j=1
A
j
A
P
3
Si A
j
A pour 1 j n, on dmontre galement par passage au compl-
mentaire que :
n
_
j=1
A
j
A
Cependant, certaines expriences peuvent se drouler indniment et on a donc
besoinde renforcer la proprit P
2
de fermeture pour lunionnie par une condition
de fermeture pour lunion dnombrable, soit :
C
3
Si A
n
Apour tout n N, alors :

_
n=0
A
n
A
Cette condition exprime que toute union dnombrable dvnements est encore
un vnement. Lensemble A auquel on impose les conditions C
1
et C
3
sappelle
alors une -algbre ou tribu dvnements.
Le couple form de lensemble fondamental et de la tribu dvnements associe
Asappelle un espace probabilisable.
TD 1 Notion de probabilit 3
3. Probabilit
Dnition. On appelle probabilit P sur (, A) une application P : A [0, 1] telle
que :
(i) P() = 1;
(ii) pour toute suite A
n
dvnements incompatibles, soit A
n
Aavec A
m
A
n
=
pour m = n :
P
_

_
n=0
A
n
_
=

n=0
P(A
n
)
proprit dite de -additivit.
Une probabilit est donc une applicationqui unvnement va associer unnombre
compris entre 0 et 1. Le triplet (, A, P) sappelle un espace probabilis.
Proprits
P
1
Lvnement impossible est de probabilit nulle :
P() = 0
P
2
La probabilit de lvnement complmentaire dun vnement quelconque
A sobtient par :
P(

A) = 1 P(A)
P
3
Si un vnement en implique un autre, sa probabilit est plus petite :
A B P(A) P(B)
P
4
La probabilit de lunion de deux vnements sobtient par la formule de
Poincar :
P(A B) = P(A) +P(B) P(A B)
4. Probabilits conditionnelles
On considre lespace probabilis (, A, P) et un vnement particulier B de A
tel que P(B) > 0. La connaissance de la ralisation de B modie la probabilit de
ralisationdun vnement lmentaire, puisque lensemble des rsultats possibles
est devenu B et non plus . Cette nouvelle probabilit, note P(.|B), est dnie sur
la tribu conditionnelle :
A|B = {A B/A A}

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
4 TD Statistique et probabilits
par :
P(A|B) =
P(A B)
P(B)
La formule de dnition de la probabilit conditionnelle peut aussi scrire, si
P(A) > 0 :
P(A B) = P(B)P(A|B) = P(A)P(B|A)
Elle sappelle parfois formule des probabilits composes et se gnralise par rcur-
rence :
P(A
1
A
2
. . . A
n
) = P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) . . .
P(A
n
|A
1
A
2
. . . A
n1
)
= P(A
1
)
n

k=2
P
_
A
k
|
k1
_
i=1
A
i
_
5. Thorme de Bayes
Un systme complet dvnements est une partition de en vnements {A
1
, . . . , A
n
}
de probabilits strictement positives, P(A
i
) > 0 pour 1 i n, et incompatibles
deux deux, i.e. avec A
i
A
j
= pour i = j et

n
i=1
P(A
i
) = 1. On suppose que
les probabilits des vnements inclus dans chacun des A
i
sont connues et on va
donc dcomposer un vnement quelconque B sur ce systme :
B = B = B
_
n
_
i=1
A
i
_
=
n
_
i=1
(A
i
B)
On aboutit ainsi la formule de la probabilit totale :
P(B) =
n

i=1
P(A
i
B) =
n

i=1
P(A
i
)P(B|A
i
)
Ceci va nous permettre de calculer les probabilits a posteriori P(A
i
|B), aprs rali-
sation dun vnement B, partir des probabilits a priori P(A
i
), 1 i n :
P(A
i
|B) =
P(A
i
B)
P(B)
=
P(A
i
)P(B|A
i
)
n

i=1
P(A
i
)P(B|A
i
)
rsultat appel formule de Bayes ou parfois thorme de Bayes.
TD 1 Notion de probabilit 5
6. Indpendance en probabilit
Dnition. Deux vnements A et B sont dits indpendants, relativement la probabilit
P, si :
P(A B) = P(A)P(B)
La probabilit de ralisation simultane de deux vnements indpendants est
gale au produit des probabilits que chacun de ces vnements se produise
sparment. En consquence, si P(B) > 0 :
P(A|B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A)
La ralisation dun vnement ne modie pas la probabilit de ralisation de
lautre.
Indpendance mutuelle
Si lon considre n vnements A
i
, avec n > 2, il y a lieu de distinguer lindpen-
dance deux deux qui impose :
P(A
i
A
j
) = P(A
i
)P(A
j
) 1 i = j n
de lindpendance mutuelle, condition plus forte qui scrit :
P(A
i
1
A
i
2
. . . A
i
k
) = P(A
i
1
)P(A
i
2
) . . . P(A
i
k
) 2 k n
pour tous les sous-ensembles {i
1
, . . . , i
k
} de {1, 2, . . . , n}.
Vrai Faux
1. On peut associer deux ensembles fondamentaux diffrents
une mme exprience.
2. Lgalit P(AB) = P(A) +P(B) implique que les vnements
A et B sont incompatibles.
3. Linformation apporte par la connaissance de la ralisation
dun vnement B augmente la probabilit dun autre vnement
A, i.e. P(A|B) P(A).
4. Si deux vnements sont incompatibles, alors ils sont indpen-
dants.
5. Si deux vnements sont indpendants, alors leurs compl-
mentaires le sont aussi.
6. Soit = {a, b, c, d} avec quiprobabilit des vnements l-
mentaires sur P(). Les vnements A = {a, b} et B = {a, c} sont
dpendants car ils sont raliss simultanment quand lvnement
lmentaire a est ralis.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
6 TD Statistique et probabilits
7. On lance deux pices de monnaie parfaitement identiques et on note les trois
rsultats possibles PP, FF et PF o la lettre P (resp. F) dsigne le rsultat pile (resp.
face). Lvnement lmentaire PF est-il de probabilit 1/3?
8. Un roi sanguinaire a imagin le jeu suivant : il fait arrter quelques-uns de ses
sujets et les fait conduire devant un sac contenant mille jetons numrots de un
mille ; ils doivent alors tirer trois fois un jeton dont on note le numro avant de
le remettre dans le sac. Le roi leur demande alors de choisir le cas dans lequel ils
seront pendus : soit lorsque le produit des trois nombres est pair, soit dans le cas
contraire. Quelle est la probabilit pour un sujet dtre pendu :
sil connat le calcul des probabilits?
sil ne le connat pas?
9. On considre deux vnements quelconques A et B. Exprimer en fonction de
P(A), P(B) et P(A B) les probabilits conditionnelles suivantes : P(A|A B),
P(A|A B) et P(

B|

A) ; que devient cette dernire probabilit lorsque A et B sont
indpendants?
10. On suppose que dans une famille de deux enfants, les diffrentes rpartitions
ordonnes lle-garon sont quiprobables.
a) Sachant que lun au moins des enfants est une lle, calculer la probabilit que
les deux enfants soient des lles.
b) Si vous sonnez lappartement de cette famille et quune lle vous ouvre,
quelle est la probabilit que lautre enfant soit une lle?
Ensemble fondamental
11. On lance simultanment deux ds numrots de 1 6. Dterminer lensemble
fondamental dans les cas suivants :
a) Les deux ds sont distincts (par exemple un rouge et un bleu).
b) Les deux ds sont identiques.
c) Les deux ds sont identiques et on sintresse seulement la parit du rsultat.
Analyse de lnonc et conseils. Lensemble fondamental est dtermin chaque fois
par la manire dont un rsultat lmentaire va tre not.
TD 1 Notion de probabilit 7
12. On lance six boules dans quatre cases distinctes. Reprsenter lensemble
fondamental dans les deux cas suivants.
a) Les boules sont numrotes de 1 6.
b) Les boules sont identiques.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, il faut se poser la
question de savoir ce qui caractrise un vnement lmentaire.
13. Au rsultat pile du lancer dune pice on associe la valeur +1 et la valeur 1
face. Dterminer lensemble fondamental associ aux expriences alatoires
suivantes :
a) On effectue six lancers successifs.
b) On lance six pices identiques simultanment.
c) On lance six pices identiques simultanment et on ne sintresse qu la valeur
du rsultat total obtenu.
Analyse de lnonc et conseils. Chaque vnement lmentaire est spci de faon
diffrente selon les cas.
Atomes
14. Soit A, Bet Ctrois vnements quelconques lis une mme preuve alatoire.
Dcomposer les vnements E = (A B)C et F = A (BC) en une runion
dvnements incompatibles deux deux et indcomposables, appels atomes.
Dans quel cas les vnements E et F sont-ils confondus?
Analyse de lnonc et conseils. Si un schma ne peut en aucun cas remplacer une
dmonstration, la reprsentation des vnements E et F partir de A, B et C sera une
aide prcieuse pour dterminer leur dcomposition en atomes. Ces derniers sont des
vnements qui sexpriment sous la forme A B

C,

A

B C. . .
Algbre dvnements
15. Soit = {a, b, c, d}. Dterminer lalgbre Acontenant les vnements {c} et {d}.
Analyse de lnonc et conseils. Ce sont les proprits gnrales dune algbre qui
vont permettre de dterminer celle qui est demande.
16. Soit = {a, b, c, d, e}. Dterminer lalgbre A engendre par la partition
=
_
{a}, {b, c}, {d} , {e}
_
de .
Analyse de lnonc et conseils. Lalgbre demande doit contenir tous les lments
de la partition et donc aussi toutes leurs runions.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
8 TD Statistique et probabilits
17. Dterminer toutes les algbres dvnements dnies sur les ensembles
suivants.
a) = {a}.
b) = {a, b}.
c) = {a, b, c}.
Analyse de lnonc et conseils. Les algbres nies comportent 2
k
lments, avec k
variant de 1 card .
18. laide des oprations dunion, dintersection et de passage au complmen-
taire, construire partir de deux sous-ensembles quelconques Aet Bde toutes les
parties possibles de cet ensemble fondamental. Montrer quil sagit dune algbre
dvnements.
Analyse de lnonc et conseils. Il faut considrer la partition de que lon peut
former partir des atomes (cf. exercice 14, page prcdente).
Tribu dvnements
19. Soit un ensemble inni non dnombrable et C lensemble des parties A de
telles que A ou bien

A est dnombrable. Montrer que C est une -algbre ou
tribu dvnements.
Analyse de lnonc et conseils. Il faut vrier les proprits caractristiques dune
tribu et utiliser le fait quun ensemble inclus dans un ensemble dnombrable est lui-
mme dnombrable.
Calcul de probabilits
20. Soit A et B deux vnements tels que P(A) =
1
4
, P(B) =
2
3
et P(A B) =
1
8
.
Calculer les probabilits de E = au moins lun de ces vnements se produit et
F = un seul de ces vnements se produit .
Analyse de lnonc et conseils. Cest une application directe de la formule de
Poincar.
21. On considre un lot de 100 bulletins sur lesquels gurent les rponses oui
ou non trois questions. Aprs dpouillement, les nombres de rponses oui aux
questions 1, 2 et 3 sont respectivement 60, 40 et 30. Les nombres de rponses oui
associes aux questions 1 et 2, 1 et 3 et 2 et 3 sont respectivement 24, 15 et 12. Enn,
sur 10 bulletins il est rpondu oui aux trois questions. On dsigne par E
i
, 1 i 3,
TD 1 Notion de probabilit 9
lvnement la rponse est oui la ime question sur un bulletin prlev au
hasard parmi les 100. On demande dexprimer laide des E
i
les trois vnements
suivants, puis de calculer leur probabilit : sur le bulletin prlev, on a obtenu deux
oui et un non, un oui et deux non, trois non.
Analyse de lnonc et conseils. Il faut dcomposer chaque vnement considr en
vnements incompatibles et utiliser une formule souvent utile dans ce type dexercice :
P(A

B) = P(A) P(A B).
22. Un tudiant doit rpondre quatre questions choix multiple o trois
rponses sont proposes chaque fois, une seule tant correcte.
a) Dans le cas o ltudiant rpond au hasard et de faon indpendante chaque
question, calculer la probabilit quil donne plus de rponses justes que fausses.
b) Que devient cette probabilit sil ny a que deux rponses possibles chaque
question? et sil y en a quatre?
Analyse de lnonc et conseils. On construit lensemble fondamental le plus simple
dcrivant lensemble des rsultats possibles, de telle sorte quil y ait quiprobabilit des
vnements lmentaires. Ayant crit lvnement considr laide de ces vnements
lmentaires, le calcul de sa probabilit se fait sans difcult.
23. Deux joueurs A et B participent un jeu avec des probabilits respectives de
victoire chaque partie p et q = 1 p. Le gagnant est celui qui le premier obtient
deux victoires de plus que lautre. Quelle est la probabilit de gain de chaque
joueur?
Analyse de lnonc et conseils. Il est conseill de faire un arbre du droulement
des deux premires parties et de marquer lextrmit des quatre branches la nouvelle
valeur de la probabilit de gain du joueur A par exemple.
Problmes de dnombrement
24. On jette trois ds identiques numrots de 1 6. Calculer la probabilit
dobserver les rsultats suivants.
a) Trois fois le mme chiffre.
b) Deux fois le mme chiffre et un autre diffrent.
c) Trois chiffres diffrents.
Analyse de lnonc et conseils. Ayant construit lensemble fondamental o il y
a quiprobabilit des vnements lmentaires, on crit, en utilisant par exemple les
lettres de lalphabet, la forme gnrale du rsultat considr pour calculer ensuite le
nombre de rsultats diffrents de cette forme.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
10 TD Statistique et probabilits
25. On tire au hasard et sans remise cinq cartes dun jeu de trente deux. Calculer
la probabilit dobtenir : une paire (rsultat de la forme aabcd), deux paires (aabbc),
un full (aaabb).
Analyse de lnonc et conseils. Voir exercice prcdent. Il sagit de problmes
combinatoires dlicats qui demandent beaucoup dattention pour bien dterminer tous
les rsultats diffrents ayant la mme forme.
26. Un tiroir contient n paires de gants diffrentes. En raison dune panne dlec-
tricit, Achille Talon prend au hasard 2r gants dans ce tiroir, avec r < n. Quelle est
la probabilit quil nait obtenu aucune paire de gants appareills?
Analyse de lnonc et conseils. Il faut daborddnombrer tous les rsultats possibles
quiprobables. Ensuite, on doit examiner comment les gants doivent tre choisis pour
quil ny ait aucune paire appareille, en noubliant pas quune paire est constitue de
deux gants, un droit et un gauche !
Probabilits conditionnelles
27. On cherche une lettre qui a la probabilit p de se trouver dans lun des quatre
tiroirs dun secrtaire. Quelle est la probabilit quelle se trouve dans le quatrime
tiroir, sachant quon ne la pas trouve dans les trois premiers?
Analyse de lnonc et conseils. Cest une simple application de la dnition dune
probabilit conditionnelle. Il faut cependant bien noter que p est la probabilit que la
lettre soit dans le secrtaire et que, si elle y est, tous les tiroirs ont la mme probabilit
de la contenir.
28. On considre trois urnes U
1
, U
2
et U
3
qui contiennent respectivement deux
boules noires, deux boules blanches et une blanche et une noire. On vous prsente
lune de ces trois urnes tire au hasard; quelle est la probabilit que ce soit U
1
:
si vous savez que lurne contient au moins une boule noire?
si vous tirez une boule noire?
Analyse de lnonc et conseils. Il sagit encore du calcul dune probabilit condi-
tionnelle o il faut seulement tre attentif la dnition de lvnement par lequel on
conditionne.
29. Une lection a lieu au scrutin majoritaire deux tours. Deux candidats A
et B sont en prsence. Au premier tour 40 % des voix vont A et 45 % B, le
reste tant constitu dabstentions. Aucun candidat nayant la majorit absolue,
un second tour est organis. Tous les lecteurs ayant vot la premire fois voteront
nouveau. Un sondage indique par ailleurs que 5 % des voix de A se reporteront
sur B et que 10 % des voix de B iront A. On estime de plus que les deux tiers des
lecteurs nayant pas vot au premier tour voteront, raison de 60 % pour A et
40 % pour B.
TD 1 Notion de probabilit 11
a) Quelle est la probabilit pour quun abstentionniste du premier tour vote
pour A? pour B?
b) Daprs ce sondage, quel candidat a la plus forte probabilit dtre lu?
Analyse de lnonc et conseils. Les rsultats du premier tour se traduisent en termes
de probabilits et les lments du sondage en termes de probabilits conditionnelles
au vote du premier tour. On doit ensuite calculer les probabilits conditionnelles
labstention au premier tour et en dduire la probabilit du vote au second tour, pour
chacun des candidats.
Thorme de Bayes
30. On classe les grants de portefeuille en deux catgories : ceux qui sont bien
informs et ceux qui ne le sont pas. Lorsquun grant bien inform achte une
valeur boursire pour son client, la probabilit que le cours de celle-ci monte est
de 0,8 ; dans le cas dun grant mal inform, cette probabilit ne vaut que 0,5. Si
on choisit au hasard un grant dans un annuaire professionnel, la probabilit quil
soit bien inform est de 0,2. Calculer la probabilit que le grant ainsi choisi soit
mal inform, sachant que la valeur quil a achete a mont.
Analyse de lnonc et conseils. Cest une application directe du thorme de Bayes.
31. Dans la coupe de France de football, une quipe E de premire division
estime quelle gagnera si elle rencontre une quipe de division infrieure et quelle
a une chance sur deux de gagner si cest une quipe de premire division. Sachant
que la probabilit de rencontrer une quipe de division infrieure est p, calculer la
probabilit que E ait rencontr une quipe de division infrieure, sachant quelle
a remport son match.
Analyse de lnonc et conseils. Aprs avoir traduit en termes de probabilits les
informations fournies dans lnonc, on applique la formule de Bayes.
1

Vrai. Lensemble dpendvidemment de lexprience considre, mais aussi
du choix de celui qui construit le modle, et par l prsente donc un certain arbi-
traire. Lensemble fondamental naturel associ un jet de d est = {1, 2, 3, 4, 5, 6},
mais si on ne sintresse qu la parit du rsultat, on peut retenir galement
=
_
{1, 3, 5} , {2, 4, 6}
_
.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
12 TD Statistique et probabilits
2

Faux. Il suft que P(A B) = 0, ce qui est diffrent de A B = . Soit par
exemple = {a, b, c} avec P({a}) = P({b}) = 1/2 et P({c}) = 0 ; les deux vnements
A = {a, c} et B = {b, c} ne sont pas disjoints car {a, c} {b, c} = {c} et pourtant
P(A B) = P() = 1 = P(A) +P(B).
3

Faux. La probabilit de tirer une boule rouge au deuxime tirage sans remise
dans une urne qui contient deux noires et une rouge est P(A) =
2
3

1
2
=
1
3
alors
que si lvnement B = tirer une boule rouge au premier tirage est ralis, on a
bien sr P(A|B) = 0.
4

Faux. Lincompatibilit se traduit par P(A B) = 0 et lindpendance par
P(AB) = P(A)P(B), produit en gnral diffrent de 0, sauf cas particulier o lun
des deux vnements est de probabilit nulle.
5

Vrai. Si les vnements A et B sont indpendants, on obtient :
P(A

B) = P(A) P(A B) = P(A) P(A)P(B)
= P(A) [1 P(B)] = P(A)P(

B)
donc les vnements A et

B sont indpendants. De mme :
P(

A

B) = P(

B) P(A

B) = P(

B) P(A)P(

B)
= P(

B) [1 P(A)] = P(

A)P(

B)
donc

A et

B sont aussi indpendants.
6

Faux. En raison de lquiprobabilit : P(A) = P(B) = 1/2 et P(AB) = P({a}) =
1/4 = P(A)P(B), donc les vnements A et B sont indpendants.
7

Lvnement not PF peut tre obtenu de deux faons diffrentes, le rsultat
pile par exemple pouvant apparatre sur lune ou lautre des deux pices ; sa pro-
babilit est donc 2/4. Les vnements PP et FF par contre ne peuvent tre obtenus
que dune seule faon (leur probabilit est 1/4) ; il ny a donc pas quiprobabilit
des rsultats possibles retenus. Ceci peut tre source derreur dans le calcul des
probabilits et il vaut mieux retenir ici lensemble fondamental = {P, F}
2
, cest-
-dire lensemble des couples ordonns, chaque lment du couple tant associ
une pice particulire, mme si les pices sont identiques.
8

Pour que le produit soit impair, il faut que chacun des nombres soit impair. Le
sujet qui connat le calcul des probabilits sait donc que P(impair) =
1
2

1
2

1
2
=
1
8
et il choisira donc dtre pendu (vnement not PE) si le rsultat est impair. Dans
le cas contraire, le choix pair (P) ou impair (I) se fait au hasard, la probabilit dtre
pendu tant alors calcule par la formule de la probabilit totale :
P(PE) = P(P)P(PE|P) +P(I)P(PE|I) =
1
2

7
8
+
1
2

1
8
=
1
2
Do lintrt parfois de connatre le calcul des probabilits !
TD 1 Notion de probabilit 13
9

Il suft dappliquer la formule de Bayes et de remarquer que A A B :
P(A|A B) =
P(A)
P(A B)
=
P(A)
P(A) +P(B) P(A B)
P(A)
Savoir que A ou B est dj ralis augmente la probabilit de A.
Si A et B sont raliss, lvnement A lest bien sr et on peut vrier que
P(A|A B) = 1.
En appliquant nouveau la formule de Bayes :
P(

B|

A) =
P(

A

B)
P(

A)
=
P(

A B)
P(

A)
=
1 P(A B)
1 P(A)
= 1
P(B) P(A B)
1 P(A)
Si A et B sont indpendants, on a vu dans lexercice 5, page 5, que

A et

B sont aussi
indpendants, ce que lon retrouve ici en obtenant dans ce cas P(

B|

A) = P(

B).
10

Par hypothse, il y a quiprobabilit sur = {FF, FG, GF, GG}.
a) Onconditionne ici par lvnement A = {FF, FG, GF} et la probabilit demande
se calcule par :
P(FF|A) =
P(FF)
P(A)
=
1/4
3/4
=
1
3
b) La diffrence avec le cas prcdent peut ne pas apparatre immdiatement car
lvnement B = une lle vient ouvrir implique videmment que lun au moins
des enfants est une lle. Mais il y a un lment supplmentaire dinformation
qui va renforcer cette probabilit conditionnelle : la lle sest dplace pour venir
ouvrir. Si on admet que lle et garon ont la mme curiosit de venir ouvrir, on
obtient ici :
P(B) =
1
2
P(FG) +
1
2
P(GF) +P(FF) =
2
4
< P(A)
et donc
P(FF|B) =
P(FF)
P(B)
=
1/4
2/4
= 1/2 > P(FF|A)
11

a) Les deux ds tant distincts, un vnement lmentaire est reprsent
par un couple ordonn = (x
1
, x
2
) o x
1
(resp. x
2
) reprsente le chiffre obtenu sur
le d rouge (resp. bleu). Ainsi = E
2
avec E = {1, 2, 3, 4, 5, 6} et card = 36.
b) Les ds tant identiques, lensemble fondamental est constitu par les couples
non ordonns dlments de E, avec ici card = 6
2

6 5
2
=
6 7
2
= 21.
c) Si on note I (resp. P) un rsultat impair (resp. pair) sur un d, lensemble
fondamental se rduit ici = {IP, PP, II} soit card = 3.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
14 TD Statistique et probabilits
12

a) Un vnement lmentaire est caractris par le numro C
i
, 1 i 4,
de la case o a t lance chacune des boules. Il sagit donc dune application de
E = {1, 2, 3, 4, 5, 6} dans F = {C
1
, C
2
, C
3
, C
4
} avec card = 4
6
.
b) Si les boules sont identiques, un vnement lmentaire est caractris cette
fois par le nombre x
i
, 1 i 4, de boules tombes dans la case i, et :
=
_
(x
1
, x
2
, x
3
, x
4
) /0 x
i
6,
4

1
x
i
= 6
_
Le cardinal de est gal au nombre de combinaisons avec rptitions (cf. compl-
ments du chapitre 1 du livre Statistique et Probabilits, Lecoutre, Dunod, 3
e
ed, 2006)
de 6 lments choisis parmi 4, soit card =
_
6 + 4 1
6
_
=
_
9
3
_
= 84.
13

a) chaque lancer est associ lensemble fondamental E = {P, F} et aux six
lancers = E
6
.
b) Un vnement lmentaire est caractris par le nombre n
1
de rsultats P
obtenus et dans ce cas = {0, 1, 2, 3, 4, 5, 6}. Le nombre de rsultats F tant bien
sr n
2
= 6 n
1
.
c) Le total obtenu a pour valeur n
1
n
2
= 2n
1
6, ce qui conduit =
{6, 4, 2, 0, 2, 4, 6}.
14

Par dnition de la diffrence symtrique :
E = [(A B)

C] [(A B) C] = (A

C) (B

C) (

A

B C)
Lvnement A

C par exemple nest pas un atome et se dcompose laide du
troisime vnement B en AB

C et A

B

C. On obtient donc la dcomposition
en atomes :
E = (A B

C) (A

B

C) (

A B

C) (

A

B C)
Par le mme procd, on aboutit :
F = (A B C) (A B

C) (A

B C)
(A

B

C) (

A B

C) (

A

B C)
A A
B B
C C
E
F
Figure 1.1
TD 1 Notion de probabilit 15
On voit ainsi que F = E (A C), donc pour que F soit identique E il faut que
A C = , cest--dire que A et C soient incompatibles.
15

Lalgbre A contenant {c} et {d} doit contenir aussi leur union {c, d} et
leurs complmentaires {a, b, d} et {a, b, c}. La fermeture pour lintersection implique
quelle contienne aussi {a, b, d} {a, b, c} = {a, b}. Au total on obtient :
A =
_
, {c}, {d} , {c, d} , {a, b} , {a, b, d} , {a, b, c} ,
_
On peut vrier quil sagit bien dune algbre 2
8
lments.
16

Lalgbre Aengendre par la partition est constitue par les 2
4
runions des
ensembles de cette partition, soit :
A =
_
, {a}, {b, c} , {d} , {e} , {a, d} , {a, e} , {d, e} , {a, b, c} ,
{a, d, e} , {b, c, d} , {b, c, e} , {a, b, c, d} , {a, b, c, d, e} ,
_
17

Tous les ensembles tant nis, les algbres que nous allons construire
seront aussi des -algbres.
a) Il ny a que lalgbre lmentaire A = {, }.
b) Il ny a que lalgbre lmentaire A = {, } et lalgbre la plus complte
P () =
_
, {a}, {b} ,
_
.
c) On peut construire ici cinq algbres, de la plus lmentaire A
1
= {, }
la plus complte P () =
_
, {a} , {b}, {c}, {a, b} , {b, c} , {a, c} ,
_
, en passant par
les algbres quatre lments A
2
=
_
, {a}, {b, c} ,
_
, A
3
=
_
, {b}, {a, c} ,
_
et
A
4
=
_
, {c}, {a, b} ,
_
.
18

Lalgbre Aest engendre par la partition de constitue des quatre atomes
forms partir de Aet B, soit = {AB, A

B,

AB,

A

B}. Elle comporte 2
4
= 16
lments :
A =
_
, A, B,

A,

B, A B, A

B,

A B,

A

B,
A B,

A B, A

B,

A

B, AB, AB,
_
19

Lensemble C est non vide car il contient , puisque

= est dnombrable
(card = 0). Par ailleurs, il est par dnition ferm pour le passage au compl-
mentaire. Enn, soit A
n
C pour tout entier n; si A
n
est dnombrable pour tout n,
alors il en est de mme de lunion dnombrable
nN
A
n
qui est alors un lment
de C. Sil existe un entier n
0
tel que A
n
0
nest pas dnombrable, cest donc que son
complmentaire lest, et par consquent
nN
A
n
=
nN
A
n
A
n
0
est dnombrable.
Dans tous les cas il y a fermeture pour lunion dnombrable, ce qui nit de prouver
que C est une tribu.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
16 TD Statistique et probabilits
20

Les vnements considrs sont E = A B et F = (A

B) (

A B) dont les
probabilits se calculent par :
P(E) = P(A B) = P(A) +P(B) P(A B) =
19
24
P(F) = P(A

B) +P(

A B) = P(E) P(A B) =
2
3
21

Le premier vnement scrit :
A = (E
1
E
2
E
3
) (E
1
E
2
E
3
) (E
1
E
2
E
3
)
Sa probabilit se calcule partir de :
P(E
1
E
2
E
3
) = P(E
1
E
2
) P(E
1
E
2
E
3
)
Soit :
P(A) =
_
24
100

10
100
_
+
_
15
100

10
100
_
+
_
12
100

10
100
_
=
21
100
Le deuxime vnement scrit :
B = (E
1
E
2
E
3
) (E
1
E
2
E
3
) (E
1
E
2
E
3
)
Sa probabilit se calcule partir de :
P(E
1
E
2
E
3
) = P[E
1
(E
2
E
3
)] = P(E
1
) P[E
1
(E
2
E
3
)]
= P(E
1
) P(E
1
E
2
) P(E
1
E
3
) +P(E
1
E
2
E
3
)
Soit :
P(B) =
60
100
+
40
100
+
30
100
2
_
24
100
+
15
100
+
12
100
_
+3
10
100
=
58
100
Le troisime vnement scrit C = E
1
E
2
E
3
, de probabilit :
P(C) = 1 P(A) P(B) P(E
1
E
2
E
3
) =
11
100
22

a) Si on note J (resp. F) lvnement ltudiant fournit une rponse juste
(resp. fausse) , lvnement considr correspond trois ouquatre rponses justes,
soit :
E = (FJJJ) (JFJJ) (JJFJ) (JJJF) (JJJJ)
Comme il y a quiprobabilit sur lensemble fondamental = {J, F}
4
et indpen-
dance des choix chaque question, la probabilit demande est :
p = P(E) = 4
2
3
_
1
3
_
3
+
_
1
3
_
4
=
1
9
TD 1 Notion de probabilit 17
b) Sil ny a que deux rponses possibles, cette probabilit devient :
p

= 4
1
2
_
1
2
_
3
+
_
1
2
_
4
=
5
16
Avec quatre rponses possibles :
p

= 4
3
4
_
1
4
_
3
+
_
1
4
_
4
=
13
256
On a bien sr p

> p > p

.
23

Soit P(A) la probabilit de gain du joueur A au dbut du jeu et examinons
ce quelle devient aprs les deux premires parties. Si A gagne les deux parties,
cette probabilit est devenue gale 1, et 0 sil les a perdues. Sil gagne une seule
partie elle est inchange. On a donc la relation :
P(A) = 1 p
2
+0 q
2
+P(A) pq +P(A) qp
Do on dduit :
P(A) =
p
2
1 2pq
=
p
2
p
2
+q
2
Par consquent :
P(B) = 1 P(A) =
q
2
p
2
+q
2
0
A
A
A
B
B
B
p
p
p
q
q
q
1
P(A)
P(A)
P(A)
Figure 1.2
24

Il y a quiprobabilit des vnements lmentaires de lensemble fondamen-
tal = {1, 2, 3, 4, 5, 6}
3
de cardinal 6
3
. La probabilit dun vnement quelconque
A se calcule donc par P(A) =
cardA
card

a) Lvnement considr est de la forme aaa, o il y a six choix possibles pour le


chiffre a. Sa probabilit est donc :
P(aaa) =
6
6
3
=
1
36

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
18 TD Statistique et probabilits
b) Il sagit cette fois dun vnement de la forme aab, avec six choix pour le chiffre
a, cinq choix pour b et trois possibilits pour la place du rsultat b, donc :
P(aab) = 3
6 5
6
3
=
15
36
c) Un rsultat quelconque de la forme abc correspond une permutation sans
rptition de trois chiffres choisis parmi six, soit :
P(abc) =
6 5 4
6
3
=
20
36
On vrie bien que la somme de ces trois probabilits est gale 1.
25

Il ya quiprobabilit de chaque vnement lmentaire qui correspond une
main de cinq cartes, i.e. une combinaison sans rptition de cinq cartes choisies
parmi 32. Le cardinal de lensemble fondamental est donc
_
32
5
_
= 201 376 et il
va falloir maintenant dnombrer les diffrentes mains proposes. Une paire est
dtermine par le choix de la hauteur (il y en a 8) avec
_
4
2
_
choix possibles pour les
couleurs. Il y a ensuite
_
7
3
_
hauteurs des cartes daccompagnement et 4
3
couleurs
possibles. Le nombre total de paires est donc le produit de ces diffrentes valeurs,
soit 8
_
4
2
_

_
7
3
_
4
3
= 107 520 et :
P(aabcd) =
107 520
201 376
=
480
899
= 0,534
Il y a
_
8
2
_
choix pour les hauteurs des paires avec
_
8
2
_
choix de couleurs pour
chacune et il reste ensuite 6 choix de la hauteur de lautre carte, avec 4 choix de
couleurs, soit un nombre total de doubles paires gal
_
8
2
_

_
4
2
_

_
4
2
_
6 4 =
24 192. Ainsi :
P(aabbc) =
24 192
201 376
=
108
899
= 0,120
Enn, il y a 8 choix de hauteurs pour a avec
_
4
3
_
= 4 choix de couleurs, 7 choix
de la hauteur de la paire et
_
4
2
_
= 6 choix pour la couleur, soit un total de
8 4 7 6 = 1 344 fulls. On obtient donc :
P(aaabb) =
1 344
201 376
=
6
899
= 0,006 7
TD 1 Notion de probabilit 19
26

Chaque ensemble de 2r gants pris auhasardparmi les 2ngants contenus dans
le tiroir a la mme probabilit 1
_
_
2n
2r
_
. Pour quaucune paire ne soit appareille, il
faut que les 2r gants aient t choisis parmi les npaires difrentes, ce qui correspond

_
n
2r
_
possibilits. Mais, chacun de ces gants peut tre soit le droit, soit le gauche,
soit un total de 2
2r
_
n
2r
_
choix dpareills. La probabilit demande est donc :
2
2r
_
n
2r
_
_
2n
2r
_
Pour n = 2 et r = 1 par exemple, cette probabilit vaut
2
3

27

On note A lvnement la lettre est dans le quatrime tiroir et B lv-
nement la lettre nest pas dans les trois premiers tiroirs . La dnition de la
probabilit conditionnelle conduit :
P(A|B) =
P(A B)
P(B)
Chaque tiroir a la mme probabilit de contenir la lettre, si celle-ci est dans lun
dentre eux, donc P(AB) = p
1
4
. On calcule ensuite P(B) = P(AB) +P(

AB)
avec bien sr P(

A B) = 1 p. Ainsi :
P(A|B) =
p/4
p/4 +1 p
=
p
4 3p
Notons que p/4 < P(A|B) < p avec P(A|B) = 0 si p = 0 et P(A|B) = 1 si p = 1.
28

Avec des notations videntes, la premire probabilit scrit :
P(U
1
|U
1
U
3
) =
P(U
1
)
P(U
1
) +P(U
3
)
=
1/3
1/3 +1/3
=
1
2
La deuxime probabilit demande scrit :
P(U
1
|N) =
P(U
1
N)
P(N)
=
P(U
1
)P(N|U
1
)
P(U
1
)P(N|U
1
) +P(U
2
)P(N|U
2
)
=
1 1/3
1 1/3 +1/2 1/3
=
2
3
On voit ainsi que les deux probabilits sont distinctes. Linformation du tirage
dune boule noire implique bien sr la prsence dune boule noire mais ne se
confond pas avec cette dernire information. Ceci dmontre la ncessit dune trs
grande rigueur dans la dnition dun vnement et laide que peut apporter la
formalisation dans le calcul dune probabilit.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
20 TD Statistique et probabilits
29

Soit A
i
(resp. B
i
), i = 1,2, lvnement voter pour le candidat A (resp. B)
au i-me tour et O
i
lvnement sabstenir au i-me tour . Les informations
fournies dans lnonc se traduisent par les probabilits suivantes :
P(A
1
) = 0,40 P(B
1
) = 0,45 P(O
1
) = 0,15
P(B
2
|A
1
) = 0,05 P(A
2
|B
1
) = 0,10 P(O
2
|O
1
) = 2/3
P(A
2
|O
1
O
2
) = 0,60 P(B
2
|O
1
O
2
) = 0,40
a) Les vnements demands scrivent A
2
|O
1
et B
2
|O
1
, leurs probabilits se
calculant par :
P(A
2
|O
1
) = P(O
2
|O
1
)P(A
2
|O
1
O
2
) = 0,60
2
3
= 0,40
P(B
2
|O
1
) = P(O
2
|O
1
)P(B
2
|O
1
O
2
) = 0,40
2
3
=
4
15
b) Calculons par exemple :
P(A
2
) = P(A
1
)P(A
2
|A
1
) +P(B
1
)P(A
2
|B
1
) +P(O
1
)P(A
2
|O
1
)
= 0,95 0,40 +0,10 0,45 +0,40 0,15 = 0,485
On obtient de la mme faon P(B
2
) = 0,465, ce qui montre que les abstentionnistes
apporteront la victoire au candidat A.
30

Notons MI (resp. BI) lvnement le grant est mal (resp. bien) inform et
M lvnement la valeur a mont . Les hypothses formules se traduisent par
les probabilits P(BI) = 0,2, P(M|BI) = 0,8 et P(M|MI) = 0,5. On obtient alors par
application de la formule de Bayes :
P(MI|M) =
P(MI M)
P(M)
=
P(MI)P(M|MI)
P(MI)P(M|MI) +P(BI)P(M|BI)
=
0,8 0,5
0,8 0,5 +0,2 0,8
=
5
7
31

Soit Alvnement lquipe Ea rencontr une quipe de premire division
et G lvnement lquipe E a gagn son match . Par hypothse P(

A) = p,
P(A) = 1 p, P(G|A) = 1/2 et P(G|

A) = 1. La formule de Bayes permet alors
dobtenir :
P(

A|G) =
P(

A G)
P(G)
=
P(

A)P(G|

A)
P(A)P(G|A) +P(

A)P(G|

A)
=
p
(1 p)/2 +p
=
2p
p +1
Le rsultat est une fonction croissante de p, de la valeur 0 pour p = 0 la valeur 1
pour p = 1.
Variable
alatoire
discrte 2
Chaque rsultat dune exprience alatoire est cod au moyen dune application qui, si
elle permet dassocier une probabilit chacune de ses valeurs numriques discrtes, sera
appele variable alatoire discrte. La loi de cette variable alatoire est alors dtermine
par les probabilits de toutes ses valeurs possibles. Elle est souvent caractrise par les
deux premiers moments qui sont lesprance, caractristique de valeur centrale, et la
variance, caractristique de dispersion autour de cette valeur centrale. Nous prsenterons
les principales lois de probabilit discrtes.
1. Variable alatoire relle discrte
1.1 Dnition
On appelle v.a. discrte dnie sur (, A) une application X : R telle que
X() est dnombrable, i.e. en correspondance bijective avec N, et telle que pour
tout x rel :
X
1
(x) = { /X() = x} A
ce qui exprime tout simplement que X
1
(x) est un vnement.
1.2 Loi de probabilit
La probabilit note P
X
, dnie sur

= X() et dnie par :


P
X
(X = x) = P
_
X
1
(x)
_
= P{ /X() = x}
sappelle la probabilit image de P par X. Lensemble

tant dnombrable, il existe


une bijection permettant de reprsenter ses lments par lensemble des x
i
, i N.
La loi de probabilit est alors dnie par les probabilits individuelles :
p
i
= P
X
(X = x
i
) = P
_
X
1
(x
i
)
_
, i N
On appelle alors distribution ou loi de probabilit de X lensemble des couples
(x
i
, p
i
)
iN
.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
22 TD Statistique et probabilits
1.3 Fonction de rpartition
On appelle fonction de rpartition de la v.a. X, la fonction F dnie pour x rel par :
F(x) = P
X
{X < x} =

_
p
i
/x
i
< x
_
Cette valeur reprsente la probabilit de toutes les ralisations strictement inf-
rieures au rel x.
1.4 Moments dune v.a. discrte
Esprance mathmatique
Dnition. On appelle esprance mathmatique de la v.a. X la quantit, si elle existe :
E(X) =

iN
p
i
x
i
Proprits. Si on ajoute une constante une v.a., il en est de mme pour son
esprance :
E(X +a) = E(X) +a a R
Si on multiplie une v.a. par une constante, il en est de mme pour son esprance :
E(aX) = aE(X) a R
Lesprance dune somme de deux v.a. est la somme des esprances :
E(X +Y) = E(X) +E(Y)
On rsume ces trois proprits en disant que loprateur esprance est linaire :
E(X +Y) = E(X) +E(Y) R, R
Variance
Il sagit dun indicateur mesurant la dispersion des valeurs x
i
autour de E(X) :
V(X) =

iN
p
i
[x
i
E(X)]
2
lorsque cette quantit existe. Elle scrit aussi :
V(X) = E[X E(X)]
2
= E
_
X
2
_
E
2
(X)
On note encore cette quantit V(X) =
2
X
,
X
dsignant alors lcart type de la v.a. X.
Proprits. Par dnition :
V(X) 0
TD 2 Variable alatoire discrte 23
Pour tout rel a :
V(X +a) = V(X)
Pour tout rel a :
V(aX) = a
2
V(X)
Si X et Y sont deux v.a. indpendantes, alors :
V(X +Y) = V(X) +V(Y)
On dnit la covariance de deux v.a. X et Y par Cov(X, Y) = E(XY) E(X)E(Y) et
on a, dans le cas gnral :
V(X +Y) = V(X) +V(Y) +2 Cov(X, Y)
Moments non centrs et centrs
On appelle moment non centr dordre r N

la quantit, lorsquelle existe :


m
r
(X) =

iN
p
i
x
r
i
= E(X
r
)
Le moment centr dordre r N

est :

r
(X) =

iN
p
i
[x
i
E(X)]
r
= E[X E(X)]
r
2. Lois usuelles discrtes
2.1 Loi de Dirac
Soit a Run point x. On appelle loi de Dirac la loi de la v.a. certaine X, cest--dire
qui est constante, avec X() = a quel que soit le rsultat de lpreuve. Ainsi :
X() = {a} et P
X
(X = a) = P{ /X() = a} = P() = 1
Bien entendu, on obtient comme moments E(X) = a et V(X) = 0.
2.2 Loi de Bernoulli
On appelle v.a. indicatrice de lvnement A de A, la v.a. dnie par X = 1
A
:
X() = 1
A
() =
_
1 si A
0 si

A
Ainsi X() = {0, 1} avec P
X
(X = 0) = P(

A) = 1 P(A) = q et P
X
(X = 1) =
P(A) = p. On dit que X suit une loi de Bernoulli de paramtre p, ce quon crit
X B(1, p), de moments E(X) = p et V(X) = pq.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
24 TD Statistique et probabilits
2.3 Loi binmiale
On effectue n preuves successives indpendantes o on observe chaque fois la
ralisation ou non dun certain vnement A, et on note le nombre Xde ralisations
de A. On dnit ainsi une v.a. X qui suit une loi binmiale de paramtres n et
p = P(A), caractrise par X() = {0, 1, . . . , n} et, pour k X(), par :
P
X
(X = k) =
_
n
k
_
p
k
(1 p)
nk
On crit X B(n, p) avec E(X) = np et V(X) = npq. Si X
1
B(n
1
, p) et
X
2
B(n
2
, p), les v.a. X
1
et X
2
tant indpendantes, alors X
1
+X
2
B(n
1
+n
2
, p).
2.4 Loi hypergomtrique
On effectue n tirages sans remise dans une urne contenant N objets dont N
A
objets
A et on note X le nombre dobjets A tirs. Pour tout k tel que 0 k n :
P
X
(X = k) =
_
N
A
k
__
N N
A
n k
_
_
N
n
_
La loi hypergomtrique scrit symboliquement X H(N, n, N
A
), de moments :
E(X) = np, V(X) = npq
N n
N 1
ayant pos p = P(A) = N
A
/N et q = 1 p = 1 N
A
/N.
2.5 Loi de Poisson
Une v.a. X suit une loi de Poisson de paramtre > 0 si cest une variable valeurs
entires, X() = N, avec pour k N :
P
X
(X = k) = e

k
k!
On utilise lcriture symbolique X P() et le calcul des moments donne
E(X) = V(X) = . Si deux variables suivent des lois de Poisson et sont indpen-
dantes, X P() et Y P(), alors leur somme suit aussi une loi de Poisson :
X +Y P( +).
2.6 Loi gomtrique ou de Pascal
On effectue des preuves successives indpendantes jusqu la ralisation dun
vnement particulier Aet onnote Xle nombre dpreuves effectues ; pour k N

:
P
X
(X = k) = (1 p)
k1
p
o p = P(A) avec E(X) =
1
p
et V(X) =
q
p
2
, q = 1 p.
TD 2 Variable alatoire discrte 25
2.7 Loi binmiale ngative
On effectue des preuves successives indpendantes jusqu ce que n vnements
A soient raliss et on note Y le nombre dpreuves effectues. Pour tout entier
y n :
P
Y
(Y = y) =
_
y 1
n 1
_
p
n
(1 p)
yn
o p = P(A)
avec comme moments E(Y ) =
n
p
et V (Y ) =
nq
p
2
, q = 1 p
Vrai Faux
1. Une variable alatoire est une valeur numrique.
2. Toute application de P() dans N est une variable alatoire
discrte.
3. Lesprance mathmatique dune v.a. discrte est la valeur
quelle prend le plus frquemment.
4. Lesprance mathmatique dune somme de deux v.a. discrtes
est toujours la somme de leurs esprances.
5. Si deux v.a. ont la mme esprance, alors elles ont la mme
variance.
6. La variance dune somme de deux v.a. discrtes est toujours la
somme de leurs variances.
7. Une urne contient trois billes numrotes 1, 2, 3, celle portant le n 1 tant la
seule en mtal. On retient donc sur lensemble fondamental = {1, 2, 3} la tribu
associe A =
_
, {1}, {2, 3},
_
. Si on extrait une bille de cette urne au moyen dun
aimant, dterminer la probabilit P associe cette exprience. On considre alors
lapplication identit X sur et lapplication Y dnie par Y() = 1 pour tout
de . tablir que P(X = Y) = 1 et que pourtant on ne peut pas en conclure que X
et Y ont la mme loi de probabilit.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
26 TD Statistique et probabilits
8. Si X et Y sont deux v.a. indpendantes qui admettent une variance, on sait que
V(X + Y) = V(X) + V(Y). Dans quel cas peut-on avoir la relation V(X Y) =
V(X) V(Y)?
9. Un examen comporte n questions quun candidat tire au hasard dans le pro-
gramme, avec remise. On note X la v.a. qui reprsente le nombre de questions
tires dont il connat la rponse et Y celle qui reprsente le nombre de celles dont
il ignore la rponse. Si p est la proportion de questions du programme que ce
candidat connat, calculer V(X), V(Y) puis V(X +Y). Que remarque-t-on?
Loi de probabilit
10. On considre une urne contenant une boule blanche et deux boules noires
identiques. On effectue deux tirages successifs dans cette urne, la premire
boule tire tant remplace par une boule de couleur diffrente. On demande
de construire lensemble fondamental associ cette preuve alatoire, si on
tient compte de lordre des tirages, et de dterminer la probabilit de chacun des
vnements lmentaires. Endduire la loi de probabilit de la v.a. Xqui reprsente
le nombre de boules noires tires.
Analyse de lnonc et conseils. Dans tout problme de tirages successifs, il est
important dtablir sils sont indpendants ou non. Pour la construction de lensemble
fondamental associ, il est recommand de toujours tenir compte de lordre des tirages,
mme dans le cas o cela na aucune inuence sur les vnements considrs, car cela
facilite gnralement le calcul des probabilits de ceux-ci. La loi de probabilit dune
v.a. discrte X se dduit des probabilits des vnements lmentaires, en dterminant
pour toutes ses valeurs possibles x lensemble X
1
(x) des vnements lmentaires
auxquels correspond cette mme valeur x.
11. Une urne contient six boules dont quatre blanches et deux noires. On extrait
une boule de lurne, puis on la remet et on effectue ensuite des tirages sans remise
jusqu obtention dune boule de mme couleur. Dterminer la loi de probabilit
du nombre X de tirages aprs remise de la boule tire initialement.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, on note que la
composition de lurne volue au cours des tirages qui sont sans remise, donc dpen-
dants. Pour dterminer la loi de X, il faut dabord dterminer lensemble de ses valeurs
possibles et ensuite leurs probabilits. Pour cela, il est conseill de distinguer deux cas
selon le rsultat du tirage prliminaire, cest--dire de dterminer la loi conditionnelle,
puis de regrouper ces deux cas en appliquant la formule de la probabilit totale vue au
chapitre prcdent.
TD 2 Variable alatoire discrte 27
Esprance mathmatique
12. Un joueur paie une mise de cent francs pour participer un jeu o il doit
obtenir deux rsultats pile successifs en quatre lancers au plus dune pice de
monnaie. Son gain est alors G = 20
4 X
pour un nombre alatoire X de lancers.
Calculer son esprance de gain.
Analyse de lnonc et conseils. Une esprance mathmatique se calcule par rapport
une loi de probabilit. Comme G est fonction de X qui est une v.a., cest aussi une v.a.
Pour chaque valeur possible x de X, il faut calculer la valeur correspondante du gain
G et multiplier par la probabilit du rsultat conduisant ce gain et qui ne sera pas la
probabilit de la valeur x. En effet, lexpression de G ne correspond quaux rsultats
qui se terminent par deux pile.
13. Un garagiste commande au constructeur N voitures, le nombre alatoire X de
voitures quil peut vendre dans lanne tant lun des entiers de 0 n, tous ayant
la mme probabilit, o n est un entier x tel que n N. Toute voiture vendue
rapporte au garagiste un bnce a et toute voiture invendue entrane une perte
b. Calculer lesprance du gain G du garagiste et en dduire ce que doit tre sa
commande optimum.
Analyse de lnonc et conseils. Il faut au pralable exprimer le gain en fonction de X
et son esprance va ensuite tre calcule par rapport la loi de X quil faut dterminer
en tenant compte des lments fournis par lnonc. Une commande est optimum si
elle rend maximale cette esprance.
Loi de probabilit et moments
14. Une v.a. X peut prendre lune des trois valeurs 0, 1 ou 2 avec des probabilits
positives. Dterminer sa loi de probabilit sachant que E(X) = 1 et V(X) = 1/2.
Analyse de lnonc et conseils. Lexpressiondes deux premiers moments noncentrs
laide des probabilits individuelles va nous fournir deux relations qui lient ces trois
valeurs. La troisime permettant de les dterminer sobtient partir de la condition
gnrale relative une loi de probabilit.
15. Un jouet se trouve cach dans lune des N botes fermes o un enfant le
cherche. Celui-ci ouvre une bote au hasard et recommence jusqu ce quil trouve
le jouet. On suppose qu chaque tentative il a oubli le rsultat de toutes les
prcdentes. Dterminer la loi de probabilit de la v.a. X gale au nombre de
tentatives effectues jusqu la dcouverte du jouet, puis calculer son esprance.
Prciser le nombre N
0
de botes si lenfant a environ trois chances sur quatre de
trouver le jouet lissue de ses trois premires tentatives.
Analyse de lnonc et conseils. On reconnatra dans le descriptif de lexprience le
schma dune loi usuelle et il sufra dappliquer la formule du cours pour le calcul de
lesprance. La valeur de la probabilit que X soit infrieure ou gale 3 tant xe
0,75 environ, ceci va dterminer lentier N
0
auquel est associe une valeur proche.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
28 TD Statistique et probabilits
Loi du maximum
16. Dans une urne qui contient N boules numrotes de 1 N, on en extrait avec
remise n. Dterminer la loi de probabilit de la v.a. X gale au plus grand des n
numros tirs.
Analyse de lnonc et conseils. Les tirages tant avec remise sont indpendants. Il est
facile de voir que X peut prendre toutes les valeurs entires de 1 N. Pour dterminer
la probabilit dun entier k donn, il est conseill de calculer dabord la probabilit de
lvnement X k puis de remplacer k par k 1.
17. La v.a. X reprsente le chiffre obtenu aprs le lancer dun d six faces
numrotes de 1 6. Dterminer la loi de probabilit de la v.a. Y = X(7 X) puis
calculer E(Y) et V(Y). On dsigne par Y
1
, . . . , Y
n
les valeurs observes lissue de
n lancers indpendants. Dterminer la loi de probabilit de la v.a. M
n
gale la
plus grande de ces valeurs.
Analyse de lnonc et conseils. La loi de Y se dduit de celle de X en calculant la
valeur obtenue pour chaque valeur possible de X. Pour dterminer ensuite la loi du
maximum, il faut exprimer lvnement M
n
= k laide dvnements portant sur les Y
i
,
en faisant parfois intervenir lvnement complmentaire et en se rappelant que toutes
les v.a. Y
i
sont indpendantes et de mme loi. Par ailleurs, il est conseill de commencer
par les valeurs de k qui correspondent aux vnements les plus simples exprimer.
Lois usuelles
18. On dsigne par X la v.a. qui reprsente le nombre de boules rouges obtenues
aprs cinq tirages avec remise dans une urne qui contient deux boules rouges et
six boules blanches. Dterminer sa loi de probabilit puis calculer E(X) et V(X).
Analyse de lnonc et conseils. Il est facile de reconnatre ici une loi usuelle dont les
moments sont donns par le cours.
19. On dsigne par Xla v.a. qui reprsente le nombre de boules blanches obtenues
aprs trois tirages sans remise dans une urne qui contient deux boules noires et
huit boules blanches. Dterminer sa loi de probabilit puis calculer E(X) et V(X).
Analyse de lnonc et conseils. Voir exercice prcdent.
TD 2 Variable alatoire discrte 29
1

Faux. Une variable alatoire est une application qui un vnement fait
correspondre un nombre.
2

Vrai. Si on prend comme tribu A = P(), toute application X est une v.a.
puisque X
1
(x) P() pour tout x rel.
3

Faux. Cest simplement la moyenne en probabilit de toutes ses valeurs pos-
sibles et ne correspond dailleurs pas forcment lune des valeurs quelle peut
prendre. Par exemple, si X est la v.a. qui code 0 le rsultat pile et 1 le rsultat face
dun lancer de pice de monnaie :
E(X) = 0 P
X
(X = 0) +1 P
X
(X = 1) = 0
1
2
+1
1
2
=
1
2
La valeur moyenne en probabilit de X est 1/2, bien que X ne prenne jamais cette
valeur.
4

Vrai. La seule condition est bien sr que lesprance de chacune de ces deux
variables existe.
5

Faux. Une esprance commune na aucune incidence sur la valeur de la
variance. Considrons par exemple les deux distributions suivantes :
X 4 8 12
1/4 1/4 1/2
Y 8 6 66
1/2 1/3 1/6
Elles ont comme valeurs moyennes :
E(X) = 1 +2 +6 = 9 et E(Y) = 4 +2 +11 = 9
donc mme centre de distribution. Par contre :
E
_
X
2
_
= 4 +16 +72 = 92 et E
_
Y
2
_
= 32 +12 +726 = 770
do V(X) = 11 et V(Y) = 689, valeur trs suprieure qui indique une dispersion
de Y autour de sa moyenne beaucoup plus grande que celle de X.
6

Faux. La variance dune somme de deux v.a. indpendantes est gale la
somme de leurs variances, mais le rsultat nest pas vrai en gnral pour deux
variables quelconques, contrairement ce qui se produit pour lesprance.
7

Seule la pice en mtal est attire par laimant et on a donc P({1}) = 1 et
P({2, 3}) = 0. Par ailleurs :
P(X = Y) = P
_
{ /X() = Y()}
_
= P({1}) = 1
donc ces deux applications sont gales avec une probabilit gale 1 (vnement
certain). Lapplication Y est constante, avec Y
1
(1) = , donc cest une variable
alatoire certaine : P(Y = 1) = 1. Cependant, on ne peut pas en conclure que la loi
de X est la mme, puisque X nest pas une variable alatoire et que cette notion na
donc pas de sens. En effet, X
1
(2) = {2} / A, donc lapplication X nest pas une
v.a. et on ne peut donc pas lui associer une loi de probabilit.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
30 TD Statistique et probabilits
8

Si on pose Z = X Y, on peut crire X = Y +Z et la relation propose scrit
alors V(Z) = V(X)V(Y), ce qui est la mme chose que V(X) = V(Y)+V(Z). Cette
relationsera donc vrie enparticulier si les variables Yet Zsont indpendantes. Il
ne faut surtout pas lire cette relation sous la forme variance dune diffrence gale
la diffrence des variances car cest simplement un jeu dcriture consistant
crire sous une autre forme la relation (qui elle est vraie) variance dune somme
de deux v.a. indpendantes gale la somme des variances .
9

La v.a. Xsuit une loi binmiale B
_
n, p
_
, la probabilit que le candidat connaisse
une rponse tire tant p et les tirages tant indpendants, puisque avec remise.
On en dduit comme rsultat du cours que V(X) = np
_
1 p
_
. De mme, puisquil
y a une probabilit 1 p que le candidat ne connaisse pas une rponse, la v.a. Y
suit une loi binmiale B
_
n, 1 p
_
et on a aussi V(Y) = np
_
1 p
_
. Bien entendu
on a toujours X+Y = n, la somme de ces deux variables ntant pas alatoire, avec
donc V(X + Y) = 0. La somme des variances nest pas gale la variance de la
somme de ces deux v.a. qui ne sont pas indpendantes, leur somme tant dailleurs
constante, donc de variance nulle.
10

La composition initiale de lurne est {B, N, N} et selon que la premire
boule tire sera B ou N, les compositions respectives avant le second tirage seront
{N, N, N} ou {B, B, N}. Dans le premier cas, seul le rsultat (BN) est possible, alors
que dans le second cas on peut avoir (NB) ou (NN). Ceci correspond donc
lensemble fondamental = {(BN) , (NB) , (NN)}. Les tirages sont bien sr dpen-
dants ici puisque la composition de lurne dpend du tirage prcdent. Pour le
calcul des probabilits des vnements lmentaires, nous allons noter B
i
(resp.
N
i
) lvnement avoir tir une boule blanche (resp. noire) au i-me tirage , avec
i = 1 ou 2. On obtient alors aisment P(BN) = P(B
1
) P(N
2
|B
1
) =
1
3
1 =
1
3
,
P(NB) = P(N
1
) P(B
2
|N
1
) =
2
3

2
3
=
4
9
et P(NN) = P(N
1
) P(N
2
|N
1
) =
2
3

1
3
=
2
9
.
Lensemble fondamental nous indique que X ne peut prendre comme valeurs que
1 ou 2, avec X
1
(1) = {(BN) , (NB)} et X
1
(2) = {(NN)} et par consquent :
P(X = 1) = P(BN) +P(NB) =
7
9
P(X = 2) = P(NN) =
2
9
11

Si la boule tire initialement est blanche, comme il ny a que deux noires, il
y aura au maximum trois tirages. Nous noterons B
i
(resp. N
i
) lvnement avoir
tir une boule blanche (resp. noire) au i-me tirage , avec 0 i 5. La loi de X,
conditionnellement B
0
, se dtermine par :
P(X = 1|B
0
) = P(B
1
) =
4
6
=
10
15
P(X = 2|B
0
) = P(N
1
B
2
) =
2
6

4
5
=
4
15
P(X = 3|B
0
) = P(N
1
N
2
B
3
) =
2
6

1
5

4
4
=
1
15
TD 2 Variable alatoire discrte 31
Notons au passage que la somme de ces probabilits conditionnelles est bien gale
1.
Si la boule tire initialement est noire, il peut y avoir cette fois jusqu cinq tirages
avant dobtenir une noire, puisquil y a quatre blanches. La loi conditionnelle est
dnie par :
P(X = 1|N
0
) = P(N
1
) =
2
6
=
5
15
P(X = 2|N
0
) = P(B
1
N
2
) =
4
6

2
5
=
4
15
P(X = 3|N
0
) = P(B
1
B
2
N
3
) =
4
6

3
5

2
4
=
3
15
P(X = 4|N
0
) = P(B
1
B
2
B
3
N
4
) =
4
6

3
5

2
4

2
3
=
2
15
P(X = 5|N
0
) = P(B
1
B
2
B
3
B
4
N
5
) =
4
6

3
5

2
4

1
3

2
2
=
1
15
La loi de X se dduit de la formule de la probabilit totale en dcomposant
lvnement (X = x) sur B
0
et N
0
, avec pour x X() = {1, 2, 3, 4, 5} :
P(X = x) = P(B
0
) P(X = x|B
0
) +P(N
0
) P(X = x|N
0
)
soit P(X = 1) =
2
3

10
15
+
1
3

5
15
=
5
9
, P(X = 2) =
2
3

4
15
+
1
3

4
15
=
4
15
,
P(X = 3) =
2
3

1
15
+
1
3

3
15
=
1
9
, P(X = 4) =
1
3

2
15
=
2
45
et P(X = 5) =
1
3

1
15
=
1
45
. On vrie nouveau que la somme de ces probabilits est gale 1.
12

Les valeurs possibles de X sont 2, 3 et 4, avec un gain qui sera associ
seulement aux rsultats correspondants PP, FPP et FFPP ou PFPP de probabilits
respectives
1
2
2
,
1
2
3
et
1
2
4
. On obtient donc comme esprance de gain, en tenant
compte de la mise initiale de 100 francs :
E(G) =
1
2
2
20
42
+
1
2
3
20
43
+
2
2
4
20
44
100 =
21
8
13

Si X N, le nombre de voitures vendues est X, ce qui correspond un gain
pour le garagiste de valeur G = aN. Si X < N, le garagiste vendra X voitures et il
lui en restera NX, ce qui correspond un gain G = aXb (N X). Lexpression
de lesprance du gain est donc dnie partir de la loi de X par :
E(G) = aNP(X N) +
N1

x=0
[ax b (N x)] P(X = x)

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
32 TD Statistique et probabilits
Tous les entiers x de {0, 1, . . . , n} ont la mme probabilit, cest--dire que X suit
une loi uniforme discrte, avec P(X = x) = 1/ (n +1). On obtient donc :
E(G) = aN
n

x=N
1
n +1
+
N1

x=0
(a +b) x bN
n +1
=
aN(n N +1)
n +1
+(a +b)
N(N 1)
2 (n +1)

bN
2
n +1
=
N[(2n +1) a b (a +b) N]
2 (n +1)
Cette valeur est maximum quand le numrateur h (N) est maximum, avec h

(N) =
(2n +1) a b 2 (a +b) N qui sannule pour N =
(2n +1) a b
2 (a +b)
et une drive
seconde h

(N) = 2 (a +b) < 0. La commande optimum correspond donc bien


cette valeur de N.
14

Les probabilits p
i
= P(X = i) pour i = 0, 1, 2 sont bien sr lies par
p
0
+p
1
+p
2
= 1. On donne dautre part E(X) = p
1
+ 2p
2
= 1. Enn, par
E
_
X
2
_
= V(X) +E
2
(X) =
3
2
= p
1
+4p
2
, on dduit p
2
= 1/4, p
1
= 1/2 et p
0
= 1/4.
15

Labsence de mmoire de lenfant se traduit par une indpendance des
tentatives successives qui ont chaque fois la mme probabilit 1/N de russir. Ces
tentatives seffectuant jusqu la dcouverte dujouet, il sagit dune loi gomtrique
de paramtre p = 1/N, soit pour tout entier strictement positif k :
P(X = k) =
_
1
1
N
_
k1
1
N
et une esprance E(X) = N.
Le jouet est trouv lissue de n tentatives avec une probabiit qui se calcule par :
P(X n) =
n

k=1
P(X = k) =
1
N
n

k=1
_
1
1
N
_
k1
= 1
_
1
1
N
_
n
Pour n = 3, on doit donc trouver une valeur de N telle que (1 1/N)
3
soit proche
de 0,25, ce qui correspond N voisin de 2,7, donc le nombre de botes est lentier
le plus proche N
0
= 3.
16

Lvnement X k exprime qu chaque tirage on a obtenu une boule de
lensemble {1, 2, . . . , k} et, en raison de lindpendance des tirages :
P(X k) =
_
k
N
_
n
On en dduit alors par diffrence :
P(X = k) = P(X k) P(X k 1) =
_
k
N
_
n

_
k 1
N
_
n
pour 2 k N, avec P(X = 1) = (1/N)
n
.
TD 2 Variable alatoire discrte 33
17

Le plus simple est de dterminer les valeurs de Y partir du tableau des
valeurs possibles de X :
X 1 2 3 4 5 6
Y 6 10 12 12 10 6
La loi de X tant la loi uniforme discrte sur les entiers {1, 2, 3, 4, 5, 6}, il en est de
mme de la loi de Y sur les entiers {6, 10, 12}. On obtient alors aisment :
E(X) =
1
3
(6 +10 +12) =
28
3
E
_
X
2
_
=
1
3
(36 +100 +144) =
280
30
V(X) =
56
9
La variable M
n
peut prendre aussi les valeurs 6, 10 ou 12. Pour que M
n
soit gale
6, il faut que toutes les variables Y
i
aient pris la valeur 6, do :
P(M
n
= 6) = P
_
n
_
i=1
(Y
i
= 6)
_
=
_
1
3
_
n
Si M
n
est gale 12, cest que lun des vnements Y
i
= 12 est ralis, le compl-
mentaire tant tous les vnements Y
i
< 12 sont raliss, soit :
P(M
n
= 12) = P
_
n
_
i=1
(Y
i
= 12)
_
= 1 P
_
n
_
i=1
(Y
i
10)
_
= 1
_
2
3
_
n
La probabilit du dernier vnement M
n
= 10 pourrait se dduire des probabilits
prcdentes puisque la somme de ces valeurs doit tre gale 1, mais cette mthode
est vivement dconseille car elle enlve justement la possibilit de dtection dune
erreur en faisant la somme des probabilits individuelles dont on sait quelle doit
tre gale 1. On exprime donc lvnement M
n
= 10 qui signie que tous les
vnements Y
i
10 sont raliss, mais pas lvnement tous les Y
i
sont gaux 6,
soit :
P(M
n
= 10) = P
_
_
_
n
_
i=1
(Y
i
10)
_
n
_
i=1
(Y
i
= 6)
_
_
_
= P
_
n
_
i=1
(Y
i
10)
_
P
_
n
_
i=1
(Y
i
= 6)
_
=
_
2
3
_
n

_
1
3
_
n
18

Les tirages tant avec remise sont indpendants et donc X suit une loi
binmiale de paramtres n = 5 et p = 2/8 avec E(X) = np = 5/4 et V(X) =
np
_
1 p
_
= 15/16.
34 TD Statistique et probabilits
19

On reconnat le schma de la loi hypergomtrique de paramtres N = 10,
n = 3 et N
A
= 8, soit daprs les rsultats du cours :
P(X = 0) = 0 , P(X = 1) =
1
15
, P(X = 2) = P(X = 3) =
7
15
avec E(X) = 3
8
10
=
12
5
et V(X) = 3
8
10

2
10

7
9
=
28
75

Variable
alatoire
continue 3
On associe aux rsultats dune exprience alatoire un ensemble de valeurs qui forment un
(ou plusieurs) intervalle(s) rel(s). Si on peut calculer la probabilit de tous les intervalles
qui sont inclus dans cet ensemble, lapplication qui ralise ce codage se nomme variable
alatoire (v.a.) continue. Sa loi de probabilit est gnralement dnie par une densit qui
sera la drive de la fonction de rpartition. Le calcul des moments seffectue laide de
cette densit par une intgration.
1. Variable alatoire relle continue
1.1 Dnition
On appelle v.a. relle dnie sur (, A) une application X : R telle que pour
tout intervalle I R on ait :
X
1
(I) = { /X() I} A
Cette condition est vrie si pour tout rel x, on a X
1
(], x[) A.
1.2 Loi de probabilit
Elle est dtermine par la fonction de rpartition (f.r.) F, dnie pour tout x rel
par :
F(x) = P
X
(X < x) = P
_
X
1
(], x[)
_
= P{ /X() < x}

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
36 TD Statistique et probabilits
1.3 Proprits de la fonction de rpartition
Elle est croissante au sens large et prend ses valeurs entre 0 et 1 :
0 F(x) 1 avec lim
x
F(x) = 0 et lim
x+
F(x) = 1
Elle est continue gauche :
lim
h0
+
F(x h) = F(x)
1.4 Loi continue
Si la fonction F est continue, on dit que X est une variable alatoire relle continue.
Dans ce cas, pour tout rel x, P
X
(X = x) = 0, et on dit que la loi est diffuse.
1.5 Loi absolument continue
Dans le cas o la fonction F admet une drive f , celle-ci est appele densit
de probabilit de la v.a. X, de loi qualie dabsolument continue. La f.r. est alors
dtermine par lintgrale :
F(x) =
_
x

f (t) dt
Une densit est positive et intgrable sur R, dintgrale gale 1 :
_
+

f (t) dt = 1
La probabilit dun intervalle sobtient en intgrant la densit sur cet intervalle :
P
X
{X [x
1
, x
2
]} =
_
x
2
x
1
f (t) dt
1.6 Moments dune v.a. absolument continue
Esprance mathmatique
Elle est dnie par :
E(X) =
_
+

xf (x) dx
lorsque cette intgrale gnralise existe. Pour tout rel a :
E(X +a) = E(X) +a et E(aX) = aE(X)
Si X et Y sont deux v.a. qui admettent une esprance :
E(X +Y) = E(X) +E(Y)
TD 3 Variable alatoire continue 37
Variance
Elle est dnie par :
V(X) = E[X E(X)]
2
=
_
+

[x E(X)]
2
f (x) dx = E
_
X
2
_
E
2
(X) =
2
(X)
lorsque cette intgrale gnralise existe. Pour tout rel a :
V(X +a) = V(X) et V(aX) = a
2
V(X)
Si X et Y sont deux v.a. indpendantes admettant une variance :
V(X +Y) = V(X) +V(Y)
Moments non centrs et centrs
Le moment non centr dordre r N

de X est la quantit, lorsquelle existe :


m
r
(X) = E(X
r
) =
_
+

x
r
f (x) dx
Le moment centr dordre r N

de X est la quantit, lorsquelle existe :

r
(X) = E[X E(X)]
r
=
_
+

[x E(X)]
r
f (x) dx
2. Lois usuelles continues
2.1 Loi uniforme
Une v.a. X suit une loi uniforme si sa densit est constante sur un intervalle [a, b] :
f (x) =
_
_
_
1
b a
si x [a, b]
0 sinon
On crit X U([a, b]). Sa fonction de rpartition est dnie par :
F(x) =
_

_
0 si x < a
x a
b a
si a x < b
1 si b x
Elle admet pour moments :
E(X) =
b +a
2
et V(X) =
(b a)
2
12

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
38 TD Statistique et probabilits
2.2 Loi exponentielle
La loi exponentielle de paramtre > 0 est celle dune variable positive de densit :
f (x) =
_
e
x
si 0 x
0 si x < 0
On crit X E(). Sa f.r. est nulle pour x 0, et pour x > 0 :
F(x) =
_
x
0
e
t
dt =
_
e
t
_
x
0
= 1 e
x
Ses moments sont :
E(X) =
1

et V(X) =
1

2
2.3 Loi normale ou de Laplace-Gauss
Cest la loi dune variable alatoire X valeurs dans R, de densit :
f (x) =
1

2
exp
(x m)
2
2
2
On note X N(m, ) avec E(X) = m et V(X) =
2
.
Si X N(m
1
,
1
) et Y N(m
2
,
2
) sont des v.a. indpendantes, alors :
X +Y N
_
m
1
+m
2
,
_

2
1
+
2
2
_
.
2.4 Loi gamma
Une v.a. X de loi gamma de paramtres p > 0 et > 0 est positive, de densit :
f (x) =

p
( p)
e
x
x
p1
si x 0
La fonction gamma est dnie pour tout p > 0 par :
( p) =
_
+
0
e
x
x
p1
dx
On crit X ( p, ), de moments :
E(X) =
p

et V(X) =
p

2
La v.a. Y = X est de loi ( p, 1), note ( p), de moments E(Y) = V(Y) = p.
Si X ( p, ) et Y (q, ) sont des v.a. indpendantes, alors X+Y ( p+q, ).
TD 3 Variable alatoire continue 39
2.5 Loi du khi-deux
La loi du khi-deux n degrs de libert, note
2
n
, est la loi (n/2, 1/2) o n est un
entier positif. Ses moments se dduisent de ceux de la loi gamma :
E
_

2
n
_
=
n/2
1/2
= n et V
_

2
n
_
=
n/2
1/4
= 2n
Si X
2
n
et Y
2
m
sont des v.a. indpendantes, alors X +Y
2
n+m
.
Notons une proprit importante qui peut servir de dnition de cette loi : si
X
1
, . . . , X
n
sont des v.a. indpendantes et de mme loi N(0, 1), alors X
2
1
+ +X
2
n
suit une loi du khi-deux n degrs de libert.
2.6 Loi de Student
Soit U une v.a. de loi N(0, 1) et Y une autre v.a. indpendante de loi
2
n
. Le
rapport U/

Y/n suit une loi de Student n degrs de libert, note T


n
. Comme
le numrateur U suit une loi symtrique par rapport 0, il en est de mme de T
n
,
avec E(T
n
) = 0 pour n > 1. On obtient aussi V(T
n
) =
n
n 2
pour n > 2.
2.7 Loi de Fisher-Snedecor
Si U et V sont deux v.a. indpendantes de lois respectives
2
n
et
2
m
, alors le rapport
(U/n) / (V/m) suit une loi de Fisher-Snedecor n et m degrs de libert, note
F(n, m).
Vrai Faux
1. La f.r. dune loi absolument continue est strictement croissante
sur lensemble des nombres rels x tels que F(x) > 0.
2. Si une loi est symtrique par rapport lorigine, cest--dire si
F(x) = 1 F(x) ou f (x) = f (x), alors son esprance est nulle.
3. Si les v.a. X et Y suivent des lois normales, alors X+Y suit aussi
une loi normale.
4. Si une loi admet une variance, alors elle admet aussi une esp-
rance.
5. Si une v.a. X est telle que P(X = x) = 0 pour tout x rel, alors
elle admet une densit.
6. Si on dnit la v.a. Y = g (X) laide dune fonction continue
g, alors on peut dterminer sa loi partir de celle de X, mme si g
nest pas injective.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
40 TD Statistique et probabilits
7. Comment dterminer si la loi de probabilit dune v.a. relle X est continue (ou
diffuse), mixte ou absolument continue, connaissant sa fonction de rpartition F?
8. Si une loi est dnie par une densit, indiquer comment on peut tudier
lexistence de ses moments centrs.
Fonction de rpartition
9. Soit f la fonction dnie par :
f (x) =
_
k (1 x) si 0 x 1
0 sinon
Dterminer la constante k pour que f soit la densit dune loi dont on prcisera la
fonction de rpartition.
Analyse de lnonc et conseils. Pour quune fonction soit une densit, il faut quelle
soit positive et dintgrale gale 1. Cest cette dernire condition qui va permettre de
calculer prcisment la valeur de la constante k. On dtermine ensuite la f.r. en intgrant
la densit de x, en choisissant x dans chacun des intervalles o lexpression de
cette densit reste la mme.
Loi de Pareto
10. Une v.a. X suit une loi de Pareto de densit f dnie par :
f (x) =
_
_
_
k
x
3
si x x
0
0 sinon
o x
0
est une constante positive. Dterminer la constante k pour que f soit bien une
densit et prciser la fonction de rpartition de X.
Analyse de lnonc et conseils. Voir exercice prcdent.
TD 3 Variable alatoire continue 41
Loi symtrique
11. Soit X une v.a. de densit :
f (x) =
_
_
_
3x
4
(2 x) si 0 x 2
0 sinon
Dterminer la f.r. de X, puis indiquer sans calculs les valeurs de P(X > 1) et E(X).
Analyse de lnonc et conseils. La densit se prsente sous la forme usuelle dune
fonction qui est non nulle seulement sur un intervalle ni, le support de la loi. La
f.r. sera donc nulle avant lorigine de cet intervalle, puisquil ny a aucune masse de
probabilit, et vaudra 1 au-del de lextrmit du support puisque toute la masse de
probabilit sera situe gauche du point considr. Si on remarque une symtrie de la
densit par rapport au centre de lintervalle, celui-ci sera centre de symtrie de la loi,
cest--dire sera la fois mdiane et moyenne de la loi.
Calcul de moments
12. Soit X une v.a. de densit :
f (x) =
_
_
_
2x

2
si 0 x
0 sinon
o est un nombre positif donn. Dterminer la f.r. F de X puis calculer E(X) et
V(X).
Analyse de lnonc et conseils. Le calcul des moments se fait par intgration, sans
difcults particulires dans le cas dune densit nie sur un intervalle ni. Pour le
calcul de la variance, il est presque toujours prfrable de calculer E
_
X
2
_
puis dutiliser
la formule dveloppe.
Loi de Laplace
13. Soit X une v.a. de densit :
f (x) =
1
2
e
|x|
o est un nombre rel donn. Calculer E(X) et V(X).
Analyse de lnonc et conseils. Le principe est le mme que dans lexercice prc-
dent mais il sagit ici dintgrales gnralises dont il faut examiner la convergence,
puisquon intgre sur tout R. On pourra ici simplier le calcul par la recherche dun
centre de symtrie de la loi.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
42 TD Statistique et probabilits
Loi dnie par sa f.r.
14. Soit X une v.a. de f.r. F dnie par :
F(x) =
_

_
0 si x 1
lnx si 1 < x e
1 si e < x
Calculer E(X) et V(X).
Analyse de lnonc et conseils. La loi est ici dnie par sa f.r. dont on peut remarquer
quelle est drivable partout. Il sagit donc dune loi absolument continue dont on
dterminera la densit en drivant F et le calcul des moments seffectuera alors comme
dans les exercices prcdents.
Lecture de tables : loi normale
15. a) Si X suit une loi N(35, 5), calculer P(X < 25), P(37,5 < X < 40) et
P(32,5 < X < 37,5).
b) Calculer lesprance et la variance dune v.a. Y de loi normale, telle que
P(Y > 3) = 0,691 5 et P(Y < 2) = 0,977 2.
Analyse de lnonc et conseils. La table 1, page 194, fournit les probabilits asso-
cies la loi normale centre et rduite. Il faut donc dans le cas gnral centrer la
variable normale, cest--dire retrancher son esprance, et la rduire, cest--dire la
diviser ensuite par son cart type. Les valeurs de F(u) ne sont fournies que pour
u 0 ; la valeur de F(u) est obtenue en prenant le complment 1 de celle de
F (u). Dans la seconde question, cest partir de la table 2, page 195, des fractiles que
lon devrait pouvoir dterminer les valeurs de la variable centre-rduite associes
aux probabilits donnes. Cependant ici ces probabilits gurent dans la table 1,
ce qui permet de dterminer sans interpolation les valeurs exactes de la variable.
Loi normale et loi du khi-deux
16. a) Soit X une v.a. de loi normale telle que P(X < 2) = 0,308 5 et P(X > 8) =
0,006 2. Calculer la valeur de la probabilit P
_
X
2
6X < 1,84
_
.
b) Soit Y une v.a. de loi normale telle que P(Y < 2) = 0,022 8 et P(Y > 3,5) =
0,158 7. Calculer la valeur du rel a tel que P
_
(X 3)
2
< a
_
= 0,975.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, les probabilits
fournies vont permettre de dterminer lesprance et lcart type de la loi. Il faudra
ensuite utiliser le rsultat de cours relatif la loi du carr dune v.a. de loi normale
centre-rduite.
TD 3 Variable alatoire continue 43
Fractiles des lois de Student et de Fisher-Snedecor
17. a) Dterminer les fractiles dordres 0,8 et 0,2 de la loi de Student 12 degrs
de libert.
b) Dterminer le fractile dordre 0,05 de la loi de Fisher-Snedecor 30 et 10 degrs
de libert.
Analyse de lnonc et conseils. On utilise les tables 6, page 200, et 7, page 201, des
fractiles, en utilisant les proprits de ces lois.
Loi exponentielle tronque
18. Soit X une v.a. de densit :
f (x) =
_
e
(x)
si x >
0 sinon
o est un nombre rel donn.
a) Dterminer la f.r. F et la mdiane de cette loi.
b) Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que X et posons
m
n
= min{X
1
, . . . , X
n
}. Dterminer la f.r., puis la densit, de la v.a. m
n
.
Analyse de lnonc et conseils. La mdiane de la loi est le fractile dordre 1/2,
cest--dire la valeur Md telle que F(Md) = 1/2. Pour dterminer la loi de la plus
petite valeur dun chantillon, cest--dire de v.a. indpendantes et de mme loi, il
faut exprimer lvnement (m
n
> x) laide dvnements associs aux variables X
i
,
1 i n. Ces vnements seront indpendants, du fait de lindpendance de ces v.a.
Loi du maximum
19. Soit X une v.a. de densit :
f (x) =
_
_
_
1
36
_
9 x
2
_
si 3 < x < 3
0 sinon
Dterminer la f.r., puis la densit, de la v.a. M
n
= max {X
1
, . . . , X
n
}, o X
1
, . . . , X
n
sont des v.a. indpendantes et de mme loi que X.
Analyse de lnonc et conseils. La f.r. de M
n
se dtermine aprs avoir obtenucelle de
X et en exprimant lvnement (M
n
< x) laide dvnements indpendants associs
aux variables indpendantes X
1
, . . . , X
n
.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
44 TD Statistique et probabilits
Changement de variable
20. Soit X une v.a. de densit :
f (x) =
_
_
_
1

x
1/1
si 0 x 1
0 sinon
o est un nombre positif donn.
Dterminer la loi de probabilit de la v.a. Y = lnX.
Analyse de lnonc et conseils. La loi de Y est dtermine par sa fonction de
rpartition que lon exprimera en fonction de celle de X, puis que lon drivera pour
reconnatre une loi usuelle.
Loi de Gumbel
21. Soit X une v.a. de densit :
f (x) = exp
_
(x ) e
(x)
_
et X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que X. Dterminer la loi de
probabilit de Y = exp(X ) et en dduire celle de S
n
=

n
i=1
Y
i
, ayant pos
Y
i
= exp(X
i
), 1 i n.
Analyse de lnonc et conseils. La loi de Y se dtermine dabord par sa f.r. que
lon exprime laide de celle de X. On calcule ensuite sa densit par drivation. On
reconnatra une loi usuelle, ce qui permettra den dduire facilement celle de S
n
par
application dun rsultat de cours.
1

Faux. La densit f est une fonction positive qui peut trs bien sannuler sur
certains intervalles o la f.r. sera alors constante. Considrons par exemple la
densit dnie par :
f (x) =
_

x
4

1
2
si 4 < x < 2
x
4

1
2
si 2 < x < 4
0 sinon
Pour 2 < x 2 la densit est nulle et F(x) = F(2) = 1/2 reste constante.
TD 3 Variable alatoire continue 45
2

Faux. On peut donner comme contre-exemple la loi de Cauchy de densit
1/
_
1 +x
2
_
et qui pourtant nadmet pas desprance. Cependant, si lintgrale
gnralise
_
+

xf (x) dx existe, alors on a bien E(X) = 0.


3

Faux. La variable Y = X suit une loi normale, comme X, et X +Y = 0, donc
cette variable suit une loi de Dirac (que lon pourrait envisager comme cas limite
dune loi normale dcart type nul). Bien sr lnonc devient vrai si on ajoute la
condition dindpendance des variables X et Y.
4

Vrai. Lexistence dun moment dun certain ordre implique celle de tous les
moments dordres infrieurs.
5

Faux. La loi est continue, la f.r. est continue et strictement croissante mais pas
forcment drivable. On peut trouver des exemples assez complexes o la loi est
continue mais pas absolument continue, cest--dire nadmettant pas de densit.
6

Vrai. Prenons lexemple de la fonction g dnie par g (x) = |x|. Elle nest pas
injective et pourtant on peut dterminer la loi de Y = |X|. En effet, pour tout
y > 0 lvnement Y < y est quivalent y < X < y, dont on peut calculer la
probabilit. Cependant, si g nest pas injective on na pas la certitude de pouvoir
toujours dterminer la loi de Y.
7

Si la fonction F est drivable, on peut conclure que sa drive est la densit
de la loi, qui est alors absolument continue. Sinon, on tudie la continuit de F
sur son domaine de dnition. Si elle est continue partout, la loi est continue, ou
diffuse, cest--dire quil ny a aucune masse de probabilit en aucun point. Par
contre, sil existe au moins un point x
0
o F est discontinue, on a alors F(x
0
+0) =
lim
h0
+
F(x
0
+h) = F(x
0
) ; la loi est mixte, comportant une partie continue et une
partie discrte, car il y a au moins un point de masse non nulle : P(X = x
0
) =
F(x
0
+0) F(x
0
).
8

Lexistence dun moment centr dordre entier r est quivalente celle du
moment non centr de mme ordre, qui stablit en tudiant la convergence de
lintgrale gnralise
_
+

x
r
f (x) dx. Si cette intgrale existe pour tout r, cest que
la loi admet des moments de tous ordres. Si on tablit lexistence dun moment
dordre r
0
, tous les moments dordres infrieurs r
0
existent.
9

Lintgrale de f sur ], +[ se rduit :
k
_
1
0
(1 x) dx =
k
2
qui vaut 1 pour k = 2.
Pour x 0, la densit est nulle et donc F(x) = 0. Pour 0 < x 1, on dcompose
lintervalle dintgration de f en deux :
F(x) =
_
x

f (t) dt =
_
0

0 dt +2
_
x
0
(1 t) dt = 2x x
2
Enn, pour x > 1 on dcompose en trois intgrales qui correspondent aux trois
intervalles o f conserve la mme expression :
F(x) =
_
x

f (t) dt =
_
0

0 dt +2
_
1
0
(1 t) dt +
_
x
1
0 dt = 1

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
46 TD Statistique et probabilits
10

Lintgrale de f sur R se rduit :
k
_
+
x
0
x
3
dx =
k
2x
2
0
qui vaut 1 pour k = 2x
2
0
.
Pour x < x
0
, la densit est nulle et donc F(x) = 0. Pour x x
0
, on dcompose
lintervalle dintgration de f en deux :
F(x) =
_
x

f (t) dt =
_
x
0

0 dt +2x
2
0
_
x
x
0
t
3
dt = 1
x
2
0
x
2
11

Pour x 0, la densit est nulle, donc son intgrale aussi et F(x) = 0. Pour
0 < x 2, le calcul de la f.r. F se rduit :
F(x) =
3
4
_
x
0
_
2t t
2
_
dt =
3x
2
4

x
3
4
Pour x 2, on intgre la densit sur tout lintervalle o elle est non nulle, donc
son intgrale vaut 1 et F(x) = F(2) = 1. On peut remarquer ici que f (2 x) = f (x)
et cette symtrie de la densit implique la symtrie de la loi par rapport au centre
x = 1 de lintervalle, qui est donc la mdiane, avec P(X < 1) = P(X > 1) =
1
2
, et
aussi la moyenne, avec E(X) = 1, puisque lintgrale seffectue sur un intervalle
de longueur nie.
12

On obtient aisment :
F(x) =
_

_
0 si x < 0
x
2

2
si 0 x
1 si x >
On calcule lesprance :
E(X) =
_
+

xf (x) dx =
2

2
_

0
x
2
dx =
2

2
_
x
3
3
_

0
=
2
3

Puis le moment non centr dordre deux :


E
_
X
2
_
=
_
+

x
2
f (x) dx =
2

2
_

0
x
3
dx =
2

2
_
x
4
4
_

0
=

2
2
Et enn V(X) = E
_
X
2
_
E
2
(X) =

2
18

TD 3 Variable alatoire continue 47


13

Tous les moments de cette loi existent, daprs le thorme des croissances
compares, en raison de la prsence de lexponentielle qui lemporte sur toutes
les puissances de x. Cela assure donc la convergence des intgrales
_
+

x
r
f (x) dx
pour tous les entiers r. Si on remarque que f (2x ) = f (x), on en conclut que est
centre de symtrie de cette loi, donc la mdiane, mais aussi la moyenne puisque
nous savons que celle-ci existe : E(X) = . Pour le calcul du moment dordre deux,
il sera donc judicieux de faire le changement u = x :
E
_
X
2
_
=
_
+

x
2
f (x) dx =
1
2
_
+

(u +)
2
e
|u|
du
=
_
+
0
u
2
e
u
du +
2
_
+
0
e
u
du = 2 +
2
et V(X) = E
_
X
2
_
E
2
(X) = 2.
14

Il sagit bien dune fonction de rpartition, strictement croissante de F(1) = 0
F(e) = 1, de drive nulle en dehors de lintervalle [1, e], avec F

(x) = f (x) = 1/x


pour 1 < x e. On calcule donc :
E(X) =
_
+

xf (x) dx =
_
e
1
dx = e 1
E
_
X
2
_
=
_
+

x
2
f (x) dx =
_
e
1
x dx =
1
2
_
e
2
1
_
et V(X) = E
_
X
2
_
E
2
(X) =
1
2
_
e
2
+4e 3
_
.
15

a) On retranche 35 puis on divise par 5 pour pouvoir ensuite utiliser la
table 1, page 194 :
P(X < 25) = P
_
X 35
5
< 2
_
= (2) = 1 (2) = 0,022 8
o est la f.r. de la loi N(0, 1). On obtient par le mme procd :
P(37,5 < X < 40) = (1) (0,5) = 0,149 8
et :
P(32,5 < X < 37,5) = (0,5) (0,5) = 2(0,5) 1 = 0,383 0
b) Les valeurs fournies pour les probabilits gurent dans la table 1, page 194,
associes aux nombres 0,5 et 2. En centrant sur m = E(Y) puis divisant par =

V(Y), les hypothses se traduisent donc par :


P(Y > 3) = P
_
Y m

>
3 m

_
= 1
_
3 m

_
= (0,5)
P(Y < 2) = P
_
Y m

<
2 m

_
=
_
2 m

_
= (2)

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
48 TD Statistique et probabilits
Ce qui conduit au systme :
3 m

= 0,5 et
2 m

= 2
de solution m = 2 et = 2.
16

a) La lecture de la table 1, page 194, permet dobtenir :
P
_
X m

<
2 m

_
= 0,308 5 = 1 0,691 5 = 1 (0,5) = (0,5)
o est la f.r. de la loi N(0, 1) et ayant pos m = E(X) et =

V(X). De mme,
P
_
X m

<
8 m

_
= 0,993 8 = (2,5), ce qui donne les quations :
2 m

= 0,5 et
8 m

= 2,5
de solution m = 3 et = 2. On remarque ensuite que X
2
6X = (X 3)
2
9,
donc on doit calculer la probabilit p = P
_
(X 3)
2
< 10,84
_
. On sait par ailleurs
que (X 3)
2
/4 suit une loi du khi-deux un degr de libert, donc on calcule
p = P
_
(X 3)
2
/4 < 2,71
_
= 0,90, valeur lue dans la table 5, page 199.
b) Avec m = E(Y) et =

V(Y), on obtient :
P
_
Y m

<
2 m

_
= 1 0,977 2 =
_
2 m

_
= 1 (2) = (2)
et :
P
_
Y m

<
3,5 m

_
= 0,841 3 = (1)
soit :
2 m

= 2 et
3, 5 m

= 1
de solution m = 3 et = 1/2. La loi de 4(X 3)
2
est une loi du khi-deux un degr
de libert, donc 4a est le fractile dordre 0,975 de cette loi, lu dans la table 5, soit
4a = 5,02 et a = 1,255.
17

a) La lecture de la table 6, page 200, fournit la valeur 0,873 du fractile dordre
0,8. En raison de la symtrie de cette loi par rapport lorigine, le fractile dordre
0,2 est donc 0,873.
b) La table 7, page 201, ne comporte pas le couple de degrs de libert (30, 10),
mais le couple (10, 30), qui fournit le fractile 2,16, soit P(X < 2,16) = 0,95 avec
X F(10, 30). Linverse de X suit une loi F(30, 10), donc P(1/X > 1/2,16) = 0,95
et le fractile dordre 0,05 de la loi F(30, 10) est donc 1/2,16 = 0,46.
TD 3 Variable alatoire continue 49
18

a) La f.r. est nulle pour x . Son expression pour x > est :
F(x) =
_
x
0
e
(t)
dt = 1 e
(x)
La mdiane vrie donc e
(Md)
= 1/2, soit Md = +ln2.
b) Lvnement (m
n
> x) est quivalent lvnement tous les lments de
lchantillon sont plus grands que x , ce qui scrit :
(m
n
> x) =
n
_
i=1
(X
i
> x)
Du fait de lindpendance des variables X
i
et de leur identit de loi avec X :
P(m
n
> x) = P
_
n
_
i=1
(X
i
> x)
_
=
n

i=1
P(X
i
> x) = P
n
(X > x)
Ainsi :
G(x) = P(m
n
< x) = 1 P
n
(X > x) = 1 [1 F(x)]
n
soit :
G(x) =
_
0 si x
1 e
n(x)
si x >
Et par drivation :
g (x) = G

(x) = nf (x) [1 F(x)]


n1
=
_
0 si x
ne
n(x)
si x >
19

La f.r. de X est nulle pour x 3 et vaut un pour x > 3. Si 3 x 3, on
obtient :
F(x) =
1
36
_
x
3
_
9 t
2
_
dt =
x
3
108
+
x
4
+
1
2
Lvnement (M
n
< x) est quivalent toutes les variables de lchantillon sont
infrieures x et comme toutes les v.a. sont indpendantes et de mme loi que X,
on obtient :
G(x) = P(M
n
< x) = P
_
n
_
i=1
(X
i
< x)
_
=
n

i=1
P(X
i
< x) = F
n
(x)
La densit tant :
g (x) = nf (x) F
n1
(x)

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
50 TD Statistique et probabilits
20

Puisque 0 < X < 1, la variable Y = lnX est une variable positive dont la
f.r. est dnie pour y > 0 par :
G( y) = P
_
Y < y
_
= P
_
lnX < y
_
= P
_
X > e
y
_
= 1 F
_
e
y
_
Sa densit est obtenue par drivation :
g( y) = G

( y) = e
y
f
_
e
y
_
=
1

e
y/
On reconnat la loi exponentielle de paramtre 1/.
21

La v.a. Y est positive et pour y > 0 sa f.r. est dnie par :
G( y) = P
_
Y < y
_
= P
_
exp(X ) < y
_
= P
_
(X ) < lny
_
= P
_
X > lny
_
= P
_
X > lny
_
= 1 F
_
lny
_
Par drivation, on obtient comme densit pour y > 0 :
g( y) =
1
y
f
_
lny
_
= e
y
qui est la densit dune loi exponentielle ou loi (1). La variable S
n
est donc la
somme de v.a. indpendantes qui suivent la mme loi (1) et suit donc une loi
(n).
Couple
et vecteur
alatoires 4
Ce chapitre gnralise plusieurs dimensions la notion de variable alatoire. Un vecteur
alatoire a comme composantes des variables alatoires relles. Le vecteur des esprances va
dnir lesprance de ce vecteur. La gnralisation de la variance est la matrice de variances-
covariances qui contient les variances des composantes sur la diagonale principale et les
covariances comme autres lments. Si toute combinaison linaire des composantes dun
vecteur alatoire suit une loi normale, alors ce vecteur suit une loi normale multidimen-
sionnelle.
1. Couple de v.a. discrtes
1.1 Loi dun couple
Un couple de v.a. discrtes est constitu de deux v.a. discrtes X et Y dont les
ensembles de valeurs possibles sont {x
i
}
iI
et {y
j
}
jJ
, avec I, J N, de loi dnie
par :
p
ij
= P
_
X = x
i
, Y = y
j
_
1.2 Lois marginales
la loi dun couple sont associes deux lois marginales :
P(X = x
i
) =

jJ
P
_
X = x
i
, Y = y
j
_
=

jJ
p
ij
= p
i.
P
_
Y = y
j
_
=

iI
P
_
X = x
i
, Y = y
j
_
=

iI
p
ij
= p
.j

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
52 TD Statistique et probabilits
1.3 Lois conditionnelles
Pour Y = y
j
x, la loi conditionnelle de X est dnie par :
P
_
X = x
i
|Y = y
j
_
=
P
_
X = x
i
, Y = y
j
_
P
_
Y = y
j
_ =
p
ij
p
.j
= p
j
i
1.4 Indpendance
Les v.a. X et Y sont indpendantes si pour tout i I et tout j J :
P(X = x
i
, Y = y
j
) = P(X = x
i
)P(Y = y
j
)
1.5 Moments associs un couple
Si h : R
2
Rest une application continue, elle dnit une v.a. h (X, Y) desprance
qui se calcule par :
E[h (X, Y)] =

iI

jJ
p
ij
h
_
x
i
, y
j
_
Pour h(X, Y) = [X E(X)] [Y E(Y)], on dnit le moment appel covariance de X
et Y :
Cov(X, Y) = E{[X E(X)] [Y E(Y)]} = E(XY) E(X)E(Y)
On appelle coefcient de corrlation linaire de deux v.a. X et Y le nombre rel :
= Corr(X, Y) =
Cov(X, Y)

V(X)

V(Y)
1.6 Loi dune somme
La loi de probabilit de la v.a. Z = X +Y est dnie par :
P(Z = z
k
) =

_
P
_
X = x
i
, Y = y
j
_
/x
i
+y
j
= z
k
_
Si X et Y sont indpendantes, on parle alors de convolution des lois de X et Y et :
P(Z = z
k
) =

iI
P(X = x
i
)P(Y = z
k
x
i
)
=

jJ
P
_
Y = y
j
_
P
_
X = z
k
y
j
_
TD 4 Couple et vecteur alatoires 53
2. Couple de v.a. continues
2.1 Loi du couple
Si X et Y sont deux v.a. continues, la loi de (X, Y) est dtermine par sa f.r. :
F
_
x, y
_
= P
_
X < x, Y < y
_
Si F est drivable par rapport x et y, la loi de (X, Y) admet une densit f :
f
_
x, y
_
=

2
F
_
x, y
_
xy
2.2 Lois marginales
Les fonctions de rpartition marginales de X et Y sont dnies par :
F
X
(x) = P(X < x) = F(x, +) et F
Y
( y) = P(Y < y) = F(+, y)
Si la loi du couple est dnie par sa densit, les densits marginales sont :
f
X
(x) =
_
+

f (x, y) dy et f
Y
( y) =
_
+

f (x, y) dx
2.3 Lois conditionnelles
Pour une loi de densit f , les lois conditionnelles sont dnies par les densits :
f
X
_
x|Y = y
_
=
f (x, y)
f
Y
( y)
et f
Y
_
y|X = x
_
=
f (x, y)
f
X
(x)
2.4 Indpendance
Les v.a. X et Y sont dites indpendantes, si pour tous les rels x et y :
f (x, y) = f
X
(x)f
Y
( y)
2.5 Moments associs un couple
Si h : R
2
R est une application continue, elle dnit une v.a. h (X, Y) dont
lesprance se calcule par lintgrale double :
E[h (X, Y)] =
__
R
2
h(x, y)f (x, y) dx dy

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
54 TD Statistique et probabilits
2.6 Rgression
La fonction : x E(Y|X = x), sappelle fonction de rgression de Y en X, avec :
E(Y|X = x) =
_
+

yf
Y
( y|X = x) dy =
_
+

y
f (x, y)
f
X
(x)
dy
2.7 Loi dune somme
La loi de la v.a. Z = X +Y se dtermine par sa f.r. G, dnie par :
G(z) = P(Z < z) = P(X +Y < z)
Elle peut se calculer, dans le cas o ce couple admet une densit f , par :
G(z) =
__
D
f (x, y) dx dy
o D =
__
x, y
_
/x +y < z
_
. Dans le cas particulier o X et Y sont indpendantes :
G(z) =
_
+

_
z

f
X
(x)f
Y
(s x) ds dx =
_
z

g(s) ds
o g est la densit de Z, dnie par :
g(z) =
_
+

f
X
(x)f
Y
(z x) dx =
_
+

f
X
(z y)f
Y
( y) dy
3. Vecteur alatoire
Un vecteur alatoire X de R
n
est une application de dans R
n
dont toutes les
composantes X
i
, 1 i n, sont des v.a. relles. On dnit son esprance par le
vecteur :
E(X) =
_
_
_
_
_
E(X
1
)
.
.
.
E(X
n
)
_
_
_
_
_
La gnralisation de la variance est la matrice de variances-covariances :
V(X) = E
_
[X E(X)]
t
[X E(X)]
_
TD 4 Couple et vecteur alatoires 55
Si A est une matrice de format (m, n) et b un vecteur de R
m
:
E(AX +b) = AE(X) +b et V(AX +b) = V(AX) = AV(X)
t
A
3.1 Loi multinomiale
Le vecteur alatoire N, de composantes N
1
, . . . , N
k
, suit une loi multinomiale de
paramtres n, p
1
, . . . , p
k
si :
P(N
1
= n
1
, . . . , N
k
= n
k
) =
n!
n
1
! . . . n
k
!
p
n
1
1
. . . p
n
k
k
o

k
j=1
p
j
= 1. Si on pose
t
p =
_
p
1
, . . . , p
k
_
, on crit N M(n; p) desprance
E(N) = np et de matrice de variances-covariances :
V(N) = n
_
p
i
_

i
j
p
j
__
1i,jk
o
i
j
est le symbole de Kronecker qui vaut 1 quand i = j et 0 sinon.
3.2 Loi normale vectorielle
Dnition. Un vecteur alatoire X valeurs dans R
n
suit une loi normale si toute
combinaison linaire de ses composantes suit une loi normale dans R :
X N
n
a R
n
,
t
aX =
n

i=1
a
i
X
i
N
1
La loi normale est dtermine par le vecteur esprance = E(X) et la matrice
variances-covariances = V(X), la densit au point x = (x
1
, . . . , x
n
) tant :
f (x) =
1
_

2
_
n
det
exp
1
2
t
(x )
1
(x )
Si X
1
, . . . , X
n
sont des v.a. normales indpendantes, de lois respectives N(
i
,
i
),
1 i n, alors elles constituent les composantes dunvecteur normal Xde densit :
f (x) =
1
_

2
_
n
_
n

i=1

i
_ exp
1
2
n

i=1
_
x
i

i

i
_
2

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
56 TD Statistique et probabilits
Vrai Faux
1. Les lois de X et Y permettent de dterminer celle du couple
(X, Y).
2. Lexpression E(Y|X) dsigne une variable alatoire.
3. Deux variables alatoires indpendantes ont une covariance
nulle.
4. La somme de deux lois binmiales est une loi binmiale.
5. Si on connat les densits des deux v.a. continues Xet Y, on peut
calculer celle de X +Y.
6. Dans le cas multidimensionnel, loprateur esprance est
linaire.
7. Si la densit f dun couple (X, Y) scrit sous la forme f
_
x, y
_
=
g (x) h
_
y
_
, o g et h sont deux fonctions positives, alors les v.a. X et
Y sont indpendantes.
8. Le vecteur dont les composantes X
1
, . . . , X
n
sont des v.a. nor-
males est un vecteur normal.
9. Si X et Y sont deux variables alatoires relles normales de
covariance nulle, elles sont indpendantes.
10. Comment lexamen du tableau donnant la loi dun couple de v.a. discrtes
permet-il de conclure facilement la dpendance de ces deux variables?
11. Indiquer le moyen gnralement le plus simple pour obtenir les densits
marginales dun couple de v.a. continues dont on connat la fonction de rpartition.
12. Si X est une v.a. relle de loi N(, ), on lui associe la variable centre-
rduite U =
1
(X ), notamment pour pouvoir utiliser les tables. Dans le cas
dun vecteur alatoire X de loi N
n
(, ), indiquer la transformation qui permet
dobtenir un vecteur de loi normale centre-rduite N
n
(0, I).
TD 4 Couple et vecteur alatoires 57
Variance dune somme
13. Onlance und six faces numrotes de 1 6 et onnote Xla v.a. qui reprsente
le chiffre obtenu. Si celui-ci est pair, la v.a. Y prend la valeur 1 et 0 sinon. Calculer
la variance V(X +Y).
Analyse de lnonc et conseils. La valeur de Y dpend du rsultat X; donc on
peut penser intuitivement que ces variables sont dpendantes. Pour pouvoir calculer
la variance de la somme, il faut donc dterminer sa loi de probabilit, ce qui ncessite
au pralable dobtenir la loi du couple (X, Y).
Somme de variables dpendantes
14. Une urne contient quatre boules numrotes de 1 4 et lon effectue deux
tirages successifs sans remise, notant X (resp. Y) la v.a. indiquant le chiffre marqu
sur la boule tire au premier (resp. second) tirage. Dterminer la loi de probabilit
de la v.a. X +Y.
Analyse de lnonc et conseils. La loi de la somme de ces variables ne peut tre
dtermine quaprs avoir tabli celle du couple, car elles ne sont pas indpendantes.
Les tirages tant sans remise, on ne peut pas tirer deux fois le mme numro. Pour
obtenir facilement la loi de la somme, il est conseill de faire gurer sa valeur dans le
tableau donnant la loi du couple.
Loi conditionnelle discrte
15. On jette deux ds six faces numrotes de 1 6 et on note X la v.a. qui
reprsente la somme des deux chiffres obtenus et Y la v.a. qui est gale au plus
grand de ces deux chiffres.
a) Dterminer la loi de probabilit du couple (X, Y) puis calculer E(X). Les v.a. X
et Y sont-elles indpendantes?
b) Dterminer la loi conditionnelle de Y pour X = 6, puis son esprance
E(Y|X = 6).
Analyse de lnonc et conseils. Les couples ordonns (x
1
, x
2
) de rsultats associs
aux deux ds ont la mme probabilit 1/36. Pour chacun deux il faut calculer la somme
x
1
+x
2
, qui donnera la valeur de X, et max {x
1
, x
2
} qui sera celle de Y, puis regrouper les
couples de valeurs identiques ; leur nombre sera la probabilit, en 1/36-me du couple
obtenu. La loi conditionnelle est obtenue partir de la colonne du tableau associe
X = 6, en divisant les probabilits de cette colonne par la probabilit marginale
P(X = 6).

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
58 TD Statistique et probabilits
Esprance conditionnelle
16. La loi de probabilit du couple (X, Y) est indique dans le tableau suivant, les
valeurs tant exprimes en dizimes :
Y
X 1 2 3 4
1 1 1 2 1
2 0 1 1 0
3 1 0 0 2
Dterminer la loi de probabilit de la v.a. E(Y|X), puis calculer son esprance et la
comparer avec la valeur de E(Y).
Analyse de lnonc et conseils. Lexpression E(Y|X) est bien celle dune variable
alatoire puisquil sagit dune fonction de X, qui est elle-mme une v.a. Pour une
ralisation telle que X prend la valeur X() = x, cette variable prend la valeur de
la rgression en x, cest--dire que E(Y|X) () = E(Y|X = x). Il faut donc calculer les
diffrentes valeurs de cette fonction de rgression, qui seront les valeurs possibles de
cette v.a. On peut ensuite calculer lesprance de cette v.a. par rapport la loi de X.
Loi conditionnelle binmiale
17. Le montant de lindemnit verse une entreprise qui a souscrit une police
dassurance incendie, aprs un sinistre, est une v.a. X de loi connue. Le nombre
annuel dincendies est une v.a. N qui suit une loi de Poisson de paramtre .
Dterminer la loi de probabilit de la v.a. K
x
qui reprsente le nombre annuel
dincendies dun montant suprieur une valeur x positive donne. Dterminer
ensuite la loi conditionnelle de N pour K
x
= k.
Analyse de lnonc et conseils. Il faut envisager toutes les valeurs possibles n de N et
ensuite reconnatre la loi de probabilit de K
x
, pour chaque valeur xe N = n. La loi de
K
x
sobtiendra comme loi marginale ducouple (K
x
, N). Pour obtenir la loi conditionnelle
de N, il suft ensuite dappliquer la dnition dune probabilit conditionnelle.
Couple de v.a. indpendantes
18. Soit (X, Y) un couple de v.a. dont la loi est dnie par la densit :
f
_
x, y
_
=
_
4x
_
1 y
_
si 0 x 1, 0 y 1
0 sinon
TD 4 Couple et vecteur alatoires 59
a) Calculer la probabilit de lvnement (0 X < 1/3, 0 Y < 1/3).
b) Dterminer les fonctions de rpartition marginales des v.a. X et Y et tablir
quelles sont indpendantes.
Analyse de lnonc et conseils. Pour calculer la probabilit dun vnement dter-
min par deux v.a. continues, on intgre la densit sur lensemble des valeurs qui
ralisent cet vnement. Les f.r. marginales vont se dduire des densits marginales
obtenues par intgration de la densit du couple par rapport lautre variable. Si le
produit de ces densits est gal la densit donne, cest que les variables du couple
sont indpendantes.
Couple de v.a. dpendantes
19. Soit (X, Y) un couple de v.a. dont la loi est dnie par la densit :
f
_
x, y
_
=
_
2e

(
x+y
)
si 0 y x
0 sinon
a) Calculer la probabilit de lvnement (X +Y < 1).
b) Dterminer la fonction de rpartition du couple (X, Y).
c) Dterminer les densits marginales de X et Y. Ces variables sont-elles indpen-
dantes?
Analyse de lnonc et conseils. Pour dterminer la f.r. du couple en un point
M
_
x
0
, y
0
_
, il faut intgrer la densit sur le domaine E =] , x
0
[] , y
0
[. Il faudra
alors distinguer plusieurs cas selon la position du point M par rapport au domaine D
o cette densit est non nulle. Ayant dtermin cette f.r., on en dduit aisment les f.r.
marginales en faisant tendre successivement y
0
et x
0
vers plus linni. Cest la mthode
ici la plus simple pour obtenir ensuite les densits marginales par drivation de ces f.r.
marginales.
Valeurs extrmes dune loi uniforme
20. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi uniforme sur [0, 1].
Dterminer la loi de probabilit du couple de valeurs extrmes (m
n
, M
n
), ayant
pos m
n
= min{X
1
, . . . , X
n
} et M
n
= max {X
1
, . . . , X
n
}.
Analyse de lnonc et conseils. Il faut dabord exprimer la f.r. du couple laide de
lvnement (m
n
x)
_
M
n
< y
_
qui scrit facilement laide dvnements associs
aux variables X
1
, . . . , X
n
et dont la probabilit sera facile calculer. La densit de ce
couple de variables continues sen dduira alors par drivation.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
60 TD Statistique et probabilits
Fonction de rgression
21. Soit (X, Y) un couple de v.a. dont la loi est dnie par la densit :
f
_
x, y
_
=
_
3y si
_
x, y
_
D
0 sinon
o D est lintrieur du triangle de sommets (1, 0) , (0, 1) et (1, 0). Dterminer
lexpression de la fonction de rgression de Y en X.
Analyse de lnonc et conseils. La fonction de rgression est dnie au point x par la
valeur de lesprance conditionnelle E(Y|X = x). La loi tant continue, cette esprance
va se calculer aprs dtermination de la densit conditionnelle, obtenue en divisant la
densit du couple par la densit marginale de X.
Loi multinomiale
22. On effectue n tirages avec remise dans une urne qui contient une boule noire,
deux blanches et trois vertes. Dterminer la loi de probabilit du vecteur N dont les
composantes N
1
, N
2
et N
3
dsignent respectivement le nombre de boules noires,
blanches et vertes tires. Calculer ensuite E(N) et V(N).
Analyse de lnonc et conseils. Les rsultats du cours permettent dobtenir sans
difcults les rponses.
Transformation linaire dun vecteur gaussien
23. Si X
1
, X
2
et X
3
sont trois v.a. indpendantes de mme loi N(0, 1), dterminer
la loi de probabilit du vecteur Y dont les composantes sont dnies par :
Y
1
=
1
2
(X
1
+X
2
) , Y
2
=
1
3
(X
1
+X
2
X
3
) , Y
3
=
1
6
(X
1
+X
2
+2X
3
)
Analyse de lnonc et conseils. Le vecteur Y est le transform linaire du vecteur
X de composantes X
1
, X
2
et X
3
. On tablira facilement que X est un vecteur gaussien,
ce qui permettra den dduire par application du cours quil en est de mme de Y.
TD 4 Couple et vecteur alatoires 61
1

Faux. Dans le cas gnral, la connaissance des lois marginales ne permet pas
de dterminer la loi du couple. Par contre, dans le cas particulier o les variables
sont indpendantes, la loi du couple sobtient comme produit des lois marginales.
2

Vrai. Il sagit dune variable alatoire car cest une fonction de X, qui est une
variable alatoire. Pour un vnement lmentaire tel que X prend la valeur
X() = x, cette v.a. aura comme ralisation la valeur de la fonction de rgression
aupoint x, cest--dire E(Y|X) () = E(Y|X = x). Onpeut donc calculer lesprance
de cette variable par rapport la loi de X et on tablit que E[E(Y|X)] = E(Y).
3

Vrai. Si deux v.a. X et Y sont indpendantes, alors E(XY) = E(X) E(Y), ce
qui implique que Cov(X, Y) = 0. Par contre, la rciproque est fausse dans le cas
gnral, cest--dire que deux variables peuvent avoir une covariance nulle et tre
dpendantes.
4

Faux. Pour que lnonc devienne vrai en gnral, il faut ajouter la condition
dindpendance des deux lois. Si par exemple X suit une loi binmiale, X+X = 2X
ne suit pas une loi binmiale.
5

Faux. Il est ncessaire, dans le cas gnral, de connatre la loi du couple (X, Y)
pour pouvoir dterminer celle de X + Y, puisquelle implique ces deux variables
simultanment. Cependant, si les deux variables sont indpendantes, lnonc
devient vrai.
6

Vrai. Cette proprit, qui tait vraie en unidimensionnel, subsiste dans le cas
multidimensionnel, cest--dire que si X et Y sont deux vecteurs alatoires n
composantes et A, B deux matrices de format
_
p, n
_
, alors :
E(AX +BY) = AE(X) +BE(Y)
7

Vrai. Cependant, g et h ne sont pas forcment les densits marginales de X et
Y car il y a plusieurs factorisations possibles. Par contre, si ce sont des densits, ce
sont les densits marginales.
8

Faux. Les composantes dun vecteur normal sont bien des v.a. normales, mais
la rciproque est faussse en gnral : des composantes normales ne constituent pas
toujours un vecteur normal. Il faut pour cela quelles soient indpendantes.
9

Faux. Pour quune covariance nulle implique lindpendance de deux v.a., il
ne suft pas quelles soient normales, il faut quelles soient les composantes dun
vecteur normal.
10

Il suft de trouver dans les marges une valeur p
i.
en ligne et une valeur p
.j
en colonne dont le produit soit diffrent de la valeur p
ij
du tableau pour conclure
la dpendance de ces deux variables. Par contre, pour tablir lindpendance des
variables dun couple, il faut effectuer tous les produits des probabilits marginales
et retrouver les valeurs donnes dans le tableau.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
62 TD Statistique et probabilits
11

Connaissant les valeurs F
_
x, y
_
de la f.r. du couple, en faisant tendre succes-
sivement y et x vers plus linni, on obtient les f.r. marginales F
X
(x) et F
Y
_
y
_
. Il
suft alors de driver pour obtenir les densits marginales :
f
X
(x) =
dF
X
(x)
dx
et f
Y
_
y
_
=
dF
Y
_
y
_
dy
12

Le vecteur X est bien sr centr. Pour rduire, on utilise la proprit, lie
aux matrices symtriques et dnies-positives, dexistence dune matrice sym-
trique S telle que S
2
=
1
et que nous noterons S =
1/2
. La transformation
Y =
1/2
(X ) est celle demande puisque :
V(Y) =
1/2
V(X)
1/2
= S(S) = SS
1
= I
car S
2
= I.
13

La loi du couple (X, Y) sobtient sans difcults. Elle est indique dans le
tableau suivant :
Y
X 1 2 3 4 5 6
0 1/6 0 1/6 0 1/6 0 1/2
1 0 1/6 0 1/6 0 1/6 1/2
1/6 1/6 1/6 1/6 1/6 1/6 1
On peut voir par exemple que P(X = 1, Y = 1) = 0 = P(X = 1) P(Y = 1) et donc
que les variables X et Y sont bien dpendantes. On dduit de ce tableau la loi de la
somme :
X +Y 1 3 5 7
1/6 1/3 1/3 1/6
Puis on calcule :
E(X +Y) =
1
6
1 +
1
3
3 +
1
3
5 +
1
6
7 = 4
et :
E(X +Y)
2
=
1
6
1 +
1
3
3
2
+
1
3
5
2
+
1
6
7
2
=
59
3
soit enn V(X +Y) =
11
3
. Le calcul de V(X) = 35/12 et V(Y) = 1/4 conrme que
V(X) +V(Y) = V(X +Y) et donc que X et Y ne peuvent pas tre indpendantes.
TD 4 Couple et vecteur alatoires 63
14

Le premier chiffre x, tir dans lensemble E = {1, 2, 3, 4}, a la probabilit 1/4
et le second y, tir dans E {x}, la probabilit 1/3 puisquil ne reste plus que trois
boules. Chaque couple
_
x, y
_
tel que x = y est donc de probabilit
1
4

1
3
=
1
12
.
Cela permet de construire le tableau de la loi de probabilit du couple (X, Y), o les
valeurs numriques sont exprimes en douzimes et ola valeur entre parenthses
est celle de x +y.
Y
X 1 2 3 4
1 0(2) 1(3) 1(4) 1(5) 3
2 1(3) 0(4) 1(5) 1(6) 3
3 1(4) 1(5) 0(6) 1(7) 3
4 1(5) 1(6) 1(7) 0(8) 3
3 3 3 3 12
De ce tableau se dduit aisment la loi de la somme :
X +Y 3 4 5 6 7
1/6 1/6 1/3 1/6 1/6
15

a) La loi de probabilit du couple (X, Y) gure dans le tableau ci-dessous,
les probabilits tant exprimes en 1/36. La somme X = 6 est obtenue par exemple
pour les deux rsultats de ds (1, 5) et (5, 1) pour lesquels Y = 5, pour (2, 4) et (4, 2)
avec Y = 4 et pour lunique couple (3, 3) qui donne Y = 3. Le couple (X, Y) prend
donc les valeurs (6, 5), (6, 4) et (6, 3) avec les probabilits respectives 2/36, 2/36 et
1/36.
Y
X 2 3 4 5 6 7 8 9 10 11 12
1 1 0 0 0 0 0 0 0 0 0 0 1
2 0 2 1 0 0 0 0 0 0 0 0 3
3 0 0 2 2 1 0 0 0 0 0 0 5
4 0 0 0 2 2 2 1 0 0 0 0 7
5 0 0 0 0 2 2 2 2 1 0 0 9
6 0 0 0 0 0 2 2 2 2 2 1 11
1 2 3 4 5 6 5 4 3 2 1 36

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
64 TD Statistique et probabilits
La dernire ligne du tableau donne la loi marginale de X. On constate quelle est
symtrique par rapport 7, donc E(X) = 7. Le produit des lments des marges
nest pas toujours gal aux lments du tableau; par exemple P(X = 3, Y = 1) =
0 = P(X = 3) P(Y = 1), donc les variables X et Y ne sont pas indpendantes.
b) En divisant la colonne X = 6 par P(X = 6) = 5/36, on obtient la loi condition-
nelle :
Y|X = 6 3 4 5
1/5 2/5 2/5
Lesprance de cette loi est :
E(Y|X = 6) =
1
5
3 +
2
5
4 +
2
5
5 =
21
5
16

Pour les diffrentes valeurs possibles x de X, on calcule E(Y|X = x) et on
obtiendra ainsi les diffrentes valeurs possibles de la variable alatoire discrte
E(Y|X), avec les probabilis associes P(X = x). Par exemple :
E(Y|X = 1) =
1
2
1 +
1
2
3 = 2
valeur dont la probabilit est P(X = 1) = 2/10. On construit ainsi le tableau
donnant la loi de probabilit de la v.a. E(Y|X) :
E(Y|X) 2 3/2 4/3 7/3
2/10 2/10 3/10 3/10
Son esprance est donc :
E[E(Y|X)] =
2
10
2 +
2
10

3
2
+
3
10

4
3
+
3
10

7
3
=
9
5
La loi marginale de Y, obtenue en additionnant les colonnes, permet dobtenir :
E(Y) =
1
2
1 +
1
5
2 +
3
10
3 =
9
5
On remarque ainsi que E[E(Y|X)] = E(Y), rsultat qui est dailleurs toujours
vri.
TD 4 Couple et vecteur alatoires 65
17

Pour tout entier k, lvnement (K
x
= k) peut se dcomposer laide des
vnements disjoints {(K
x
= k) (N = n)} avec n qui peut varier de lentier k
linni. Ceci permet dcrire :
P(K
x
= k) =

n=k
P{(K
x
= k) (N = n)} =

n=k
P(N = n) P(K
x
= k|N = n)
Lorsque le nombre annuel dincendies est x n, chacun deux est dun montant
suprieur x avec une probabilit connue p
x
= P(X > x). La loi conditionnelle de
K
x
|N = n est donc une loi binmiale de paramtres n et p
x
. Ainsi :
P(K
x
= k) =

n=k
e

n
n!
_
n
k
_
p
k
x
_
1 p
x
_
nk
= e

_
p
x
_
k
k!

n=k
_

_
1 p
x
__
nk
(n k)!
= e

_
p
x
_
k
k!
e

(
1p
x)
= e
p
x
_
p
x
_
k
k!
ayant utilis le rsultat

j=0
z
j
j!
= e
z
. Lexpression de cette probabilit montre que
K
x
suit une loi de Poisson de paramtre p
x
. Pour K
x
= k x, la v.a. N ne peut
prendre que les valeurs entires n k, avec :
P(N = n|K
x
= k) =
P{(N = n) (K
x
= k)}
P(K
x
= k)
=
e

n
p
k
x
_
1 p
x
_
nk
(n k)!e
p
x
_
p
x
_
k
= e

(
1p
x)
_

_
1 p
x
__
nk
(n k)!
18

a) Onintgre la densit f sur le domaine de R
2
o0 x < 1/3 et 0 y < 1/3
pour obtenir la probabilit demande, soit :
P(0 X < 1/3, 0 Y < 1/3) = 4
_
1/3
0
x dx
_
1/3
0
_
1 y
_
dy =
5
81
b) Les densits marginales sobtiennent par intgration de la densit du couple
par rapport lautre variable. Pour 0 x 1, la densit de X sobtient donc par :
g (x) = 4x
_
1
0
_
1 y
_
dy = 2x
De la mme faon, pour 0 y 1 :
h
_
y
_
= 4
_
1 y
_
_
1
0
x dx = 2
_
1 y
_

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
66 TD Statistique et probabilits
En intgrant ces densits, on obtient les f.r. marginales demandes :
G(x) =
_

_
0 si x < 0
x
2
si 0 x 1
1 si 1 < x
et :
H
_
y
_
=
_

_
0 si y < 0
2y y
2
si 0 y 1
1 si 1 < y
Nous pouvions remarquer que la densit de (X, Y) peut scrire comme produit
de deux fonctions positives, par exemple 4x1
[0,1]
(x) et
_
1 y
_
1
[0,1]
_
y
_
, et donc que
les v.a. X et Y sont indpendantes. Cependant, les deux fonctions retenues ici ne
sont pas les densits marginales, qui bien sr factorisent aussi f sous la forme
f
_
x, y
_
= g (x) h
_
y
_
, ce qui conrme lindpendance de ces deux variables.
19

a) On intgre la densit f sur la partie A de R
2
o x +y < 1 pour obtenir :
P(X +Y < 1) =
__
A
f
_
x, y
_
dx dy = 2
__
AD
e

(
x+y
)
dx dy
o D est le domaine o f est non nulle. Lensemble A D est le triangle rectangle
reprsent dans la gure 4.1.
x
y
0
1/2
1/2 1
x +y = 1
x = 1 y x = y
y = x
A D
Figure 4.1
TD 4 Couple et vecteur alatoires 67
On voit donc quil est prfrable dintgrer dabord par rapport x sur une
horizontale, pour ne pas avoir distinguer deux cas, soit :
P(X +Y < 1) = 2
_
1/2
0
_
_
1y
y
e
x
dx
_
e
y
dy = 2
_
1/2
0
_
e
y
e
y1
_
e
y
dy
=
_
e
2y
2e
1
y
_
1/2
0
= 1 2e
1
b) La f.r. F du couple (X, Y) est dnie au point M
_
x
0
, y
0
_
par :
F
_
x
0
, y
0
_
= P
_
(X < x
0
)
_
Y < y
0
__
=
__
E
f
_
x, y
_
dx dy
avec E =] , x
0
[] , y
0
[. Pour x
0
0 ou y
0
0, lensemble E na aucune
partie commune avec D et par consquent F
_
x
0
, y
0
_
= 0. Si le point M est situ
lintrieur de D, on intgre sur le domaine gris D E reprsent sur la gure 4.2
o on voit quil est prfrable dintgrer sur une horizontale, cest--dire dabord
par rapport x. Ainsi, pour x
0
y
0
0 on obtient :
F
_
x
0
, y
0
_
= 2
_
y
0
0
_
_
x
0
y
e
x
dx
_
e
y
dy = 2
_
y
0
0
_
e
y
e
x
0
_
e
y
dy
=
_
e
2y
+2e
x
0
e
y
_
y
0
0
= 1 2e
x
0
_
1 e
y
0
_
e
2y
0
x
y
0
y = x
D
M
1
(x
0
, y
1
)
M(x
0
, y
0
)
x
0
x
0
Figure 4.2
Si on sort du domaine D par une verticale de M, lintersection avec lensemble E
dni par le point M
1
_
x
0
, y
1
_
, o y
1
> x
0
, est la mme que celle obtenue pour le
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
68 TD Statistique et probabilits
point situ sur la premire bissectrice, qui est la frontire de D. Cela veut dire que
lon peut calculer la valeur de F au point M
1
partir de lexpression prcdente
qui est encore valable sur la frontire, soit :
F
_
x
0
, y
1
_
= F(x
0
, x
0
) = 1 2e
x
0
+e
2x
0
c) On pourrait avoir ici la tentation dcrire f
_
x, y
_
= 2e
x
e
y
et den conclure
que les variables X et Y sont indpendantes, la densit scrivant comme produit
de deux fonctions positives. Ceci est faux, car lexpression de f nest celle-ci que sur
le domaine D o 0 y x et il faudrait donc ajouter le terme 1
D
, qui lui ne peut
pas se factoriser. Cette impossibilit de factorisation montre donc, au contraire,
que ces variables sont dpendantes. Nous allons le vrier partir de lexpression
des densits marginales, que nous allons obtenir partir des f.r. marginales. Pour
y tendant vers plus linni, on obtient celle de X, soit pour x > 0 :
F
X
(x) = F(x, +) = 1 2e
x
+e
2x
La densit marginale est donc, par drivation :
f
X
(x) = 2e
x
_
1 e
x
_
De mme, on obtient les f.r. et densit marginales de Y, soit pour y > 0 :
F
Y
_
y
_
= F
_
+, y
_
= 1 e
2y
f
Y
_
y
_
= 2e
2y
Le produit de f
X
et f
Y
ne redonne pas f , donc on retrouve bien le fait que X et Y ne
sont pas indpendantes.
20

La f.r. du couple (m
n
, M
n
) est dnie par :
F
_
x, y
_
= P
_
(m
n
< x)
_
M
n
< y
__
= P
_
M
n
< y
_
P
_
(m
n
x)
_
M
n
< y
__
Les vnements qui apparaissent au second membre peuvent sexprimer facile-
ment laide des v.a. X
1
, . . . , X
n
:
_
M
n
< y
_
=
n
_
i=1
_
X
i
< y
_
et (m
n
x)
_
M
n
< y
_
=
n
_
i=1
_
x X
i
< y
_
Les v.a. X
i
tant indpendantes, il en est de mme des vnements quelles d-
nissent, donc :
F
_
x, y
_
=
n

i=1
P
_
X
i
< y
_

i=1
P
_
x X
i
< y
_
Dautre part, toutes ces variables ont la mme loi, de f.r. dnie pour 0 u 1 par
P(X
1
< u) = u, do :
F
_
x, y
_
= y
n

_
y x
_
n
pour 0 x y 1. En drivant deux fois par rapport x et y, on en dduit la
densit du couple :
f
_
x, y
_
= n(n 1)
_
y x
_
n2
TD 4 Couple et vecteur alatoires 69
21

La densit marginale de X sobtient en intgrant la densit du couple sur D
par rapport y. Le triangle D, reprsent dans la gure 4.3, est dlimit par les
droites y = 1 +x et y = 1 x. Il est symtrique par rapport laxe des ordonnes
et comme lexpression de f
_
x, y
_
est symtrique en x, la densit g de X est une
fonction paire, cest--dire que la loi est symtrique par rapport lorigine. Pour
0 x 1, on obtient :
g (x) =
_
+

f
_
x, y
_
dy = 3
_
1x
0
y dy =
3
2
(1 x)
2
x
y
0
1
1 x 1
y = 1 +x y = 1 x
D
Figure 4.3
On peut donc crire la densit de X sous la forme g (x) =
3
2
(1 |x|)
2
pour |x| 1
et la densit conditionnelle de Y|X = x scrit donc, pour 0 < y < 1 |x| :
h
_
y|X = x
_
=
2y
(1 |x|)
2
Lexpression de la rgression est donc, pour |x| < 1 :
E(Y|X = x) =
_
+

yh
_
y|X = x
_
dy =
2
(1 |x|)
2
_
1|x|
0
y
2
dy =
2
3
(1 |x|)
22

Le vecteur N suit une loi multinomiale de paramtres n et p
1
= 1/6, p
2
= 2/6,
p
3
= 3/6, soit :
P(N
1
= n
1
, N
2
= n
2
, N
3
= n
3
) =
n!
n
1
!n
2
!n
3
!
2
n
2
3
n
3
6
n

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
70 TD Statistique et probabilits
les n
i
, 1 i 3, tant des entiers positifs tels que n
1
+ n
2
+ n
3
= n. Le vecteur
esprance est :
E(N) =
n
6
_
_
_
_
_
1
2
3
_
_
_
_
_
et la matrice de variances-covariances :
V(N) =
n
36
_
_
_
_
_
5 2 3
2 8 6
3 6 9
_
_
_
_
_
23

Les v.a. X
1
, X
2
, X
3
tant indpendantes et normales constituent les compo-
santes dun vecteur normal X, de loi N
3
(0, I) et de densit :
f (x
1
, x
2
, x
3
) =
1
(2)
3/2
exp
1
2
_
x
2
1
+x
2
2
+x
2
3
_
Le vecteur Y se dduit de X par une application linaire qui scrit Y = AX, o A
est la matrice :
A =
1
6
_
_
_
_
_
3 3 0
2 2 2
1 1 2
_
_
_
_
_
Toute combinaison linaire des composantes de Yest une combinaison linaire des
composantes de X, qui par dnition est une variable alatoire relle. Le vecteur
Y est donc normal et ses caractristiques vont se dduire de celles de X par :
E(Y) = E(AX) = AE(X) = 0
V(Y) = V(AX) = AV(X)
t
A = A
t
A =
1
18
_
_
_
_
_
9 0 3
0 6 2
3 2 3
_
_
_
_
_
Notions
de convergence
5
En statistique, on est amen tudier le comportement de suites de v.a. lorsque la taille de
lchantillon devient innie. Pour cela nous allons dnir deux types de convergence. La
convergence en probabilit dune suite de v.a. (X
n
) vers une v.a. X signie que ces variables
sont dautant plus proches de X que la valeur de n est leve, au sens o la probabilit que
ces variables soient loignes de plus dune valeur positive tend vers zro. La convergence
en loi correspond la convergence des fonctions de rpartition. Ces deux convergences sont
conserves par une application continue. La suite des moyennes de v.a. indpendantes et de
mme loi converge, en probabilit, vers la moyenne commune, et en loi, vers la loi normale,
aprs avoir t centre et rduite. Ce sont les deux thormes fondamentaux de la statistique
asymptotique, connus sous les noms de loi des grands nombres et thorme central limite.
1. Convergence en probabilit
1.1 Ingalit de Markov
Si X est une v.a. positive dont lesprance existe, lingalit de Markov tablit que
pour tout > 0 :
P{X E(X)}
1

ou P(X )
E(X)

1.2 Ingalit de Bienaym-Tchebychev


Si X est une v.a. dont la variance existe, pour tout > 0 x :
P(|X E(X)| )
V(X)

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
72 TD Statistique et probabilits
1.3 Convergence en probabilit
On dit que la suite de v.a. (X
n
) converge en probabilit vers une v.a. X si, pour tout
> 0 :
P(|X
n
X| < ) 1 quand n
ou, de faon quivalente :
P(|X
n
X| > ) 0 quand n
On crit :
X
n

p
X
1.4 Thorme de Slutsky
Si f est une application relle continue, alors :
X
n

p
X f (X
n
)
p
f (X)
1.5 Thorme
Si f est une application de R
2
dans R uniformment continue et si (X
n
) et (Y
n
) sont
deux suites de v.a. qui convergent en probabilit respectivement vers les v.a. X et
Y, alors :
f (X
n
, Y
n
)
p
f (X, Y)
Si on applique ce thorme aux fonctions f dnies respectivement par f (u, v) =
u+v, f (u, v) = uv et f (u, v) =
u
v
, de X
n

p
X et Y
n

p
Y, on dduit respectivement :
X
n
+Y
n

p
X +Y
X
n
Y
n

p
XY
X
n
Y
n

p
X
Y
condition que P(Y = 0) = 0
1.6 Loi des grands nombres
Si (X
n
) est une suite de v.a. mutuellement indpendantes qui admettent les mmes
moments dordres un et deux, cest--dire avec pour tout entier n, E(X
n
) = m et
V(X
n
) =
2
, alors quand n :

X
n
=
1
n
n

i=1
X
i

p
m
TD 5 Notions de convergence 73
2. Convergence en loi
On dit que la suite de v.a. (X
n
), de f.r. F
n
, converge en loi vers une v.a. X de f.r. F si la
suite {F
n
(x)} converge vers F(x) en tout point x o F est continue. On crit alors :
X
n

loi
X
2.1 Thorme
La convergence en probabilit dune suite (X
n
) implique sa convergence en loi :
X
n

p
X X
n

loi
X
2.2 Proprit
Si (X
n
) et (Y
n
) sont deux suites de v.a. telles que pour n :
X
n

loi
X et Y
n

p
a
o a est un nombre rel, alors :
X
n
+Y
n

loi
X +a
X
n
Y
n

loi
aX
X
n
Y
n

loi
X
a
si a = 0
2.3 Thorme de Slutsky
Si g est une application relle continue, alors :
X
n

loi
X g(X
n
)
loi
g(X)
2.4 Conditions sufsantes de convergence en loi
Dans le cas discret o X
n
() = X() = {a
i
/i I} :
i I , P(X
n
= a
i
) P(X = a
i
) X
n

loi
X, n
Dans le cas o X
n
et X admettent pour densits respectives f
n
et f :
x R, f
n
(x) f (x) X
n

loi
X, n

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
74 TD Statistique et probabilits
2.5 Thorme central limite
Si (X
n
) est une suite de v.a. indpendantes et de mme loi, admettant des moments
dordres un et deux nots m = E(X
n
) et
2
= V(X
n
), alors :

X
n
m

loi
N(0, 1)
2.6 Limite dune suite image
Si la suite (X
n
) est telle que :
a
n
(X
n
m)
loi
N(0, ) , n
avec a
n
et > 0, alors si g est une application relle drivable, la suite
_
g (X
n
)
_
converge aussi en loi avec :
a
n
_
g(X
n
) g(m)
_

loi
N
_
0,

(m)

_
, n
3. Convergence en moyenne dordre p
3.1 Dnition
On dit que la suite de v.a. (X
n
) converge en moyenne dordre p, avec 0 < p < , vers
la v.a. X si :
E|X
n
X|
p
0 quand n
On crit :
X
n

M
p
X
Dans le cas particulier p = 2, la convergence en moyenne dordre 2 sappelle
convergence en moyenne quadratique (m.q.). En crivant :
E(X
n
X)
2
= V(X
n
X) +E
2
(X
n
X)
qui est la somme de deux termes positifs, on retrouve les deux conditions suf-
santes de convergence en probabilit (cf. exercice 7, page 76) comme conditions
ncessaires de convergence en moyenne quadratique :
X
n

m.q.
X
_
E(X
n
X) 0
V(X
n
X) 0
TD 5 Notions de convergence 75
3.2 Proprit
Pour toute valeur de p > 0, la convergence en moyenne dordre p est plus forte
que la convergence en probabilit, au sens o :
X
n

M
p
X X
n

p
X
Donc, en particulier :
X
n

m.q.
X X
n

p
X
Vrai Faux
1. Les majorants des probabilits dans les ingalits de Markov et
de Bienaym-Tchebychev ont des valeurs toujours infrieures 1.
2. Si (X
n
) est une suite de v.a. desprance constante, dont la
variance tend vers zro, alors elle converge en probabilit vers
cette constante.
3. Si la suite (X
n
) converge en probabilit vers la v.a. X, alors les
suites lnX
n
et e
X
n
convergent en probabilit, respectivement vers
lnX et e
X
.
4. Si la suite (X
n
) converge en loi vers le nombre rel a, alors elle
converge aussi en probabilit vers a.
5. La convergence en moyenne quadratique implique la conver-
gence en loi.
6. Si X est une v.a. de signe quelconque, telle que E|X|
k
existe pour k entier positif
x, montrer que lingalit de Markov peut se gnraliser sous la forme suivante :
P(|X| )
E|X|
k

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
76 TD Statistique et probabilits
7. Si (X
n
) est une suite de v.a. telle que E(X
n
) a et V(X
n
) 0 quand n ,
alors on en dduit aisment que cette suite converge en probabilit vers a, par
application de lingalit de Bienaym-Tchebychev. Montrer quen fait, on peut
noncer un rsultat plus gnral que celui-ci, qui tablit que E(X
n
X) 0 et
V(X
n
X) 0 sont des conditions sufsantes de convergence en probabilit de
la suite (X
n
) vers la v.a. X.
8. Si X suit une loi de Poisson de paramtre , tel que tend vers linni, on
sait que (X ) /

converge en loi vers une v.a. U de loi N(0, 1). On peut donc
approximer la probabilit P(X k) par P(Y k) o Y suit une loi N
_
,

_
, pour
tout entier k. Peut-on de la mme faon approximer P(X = k) par P(Y = k)?
9. Soit (X
n
) une suite de v.a. indpendantes qui suivent la mme loi de Cauchy,
symtrique par rapport lorigine, de densit f (x) =
1

_
1 +x
2
_ . Sachant que
X
n
=
1
n

n
i=1
X
i
suit aussi une loi de Cauchy, peut-on en dduire de la loi des
grands nombres la convergence en probabilit de la suite
_
X
n
_
?
Ingalit de Bienaym-Tchebychev
10. Soit X une v.a. de densit :
f (x) =
_

_
1
4
_
1 +3x
2
_
si 1 x 1
0 sinon
Dterminer un intervalle de la forme [l, l] qui contienne X avec une probabilit
suprieure 0,75 puis calculer la probabilit exacte de cet intervalle.
Analyse de lnonc et conseils. Ontransforme la conditionimpose par la majoration
dune probabilit. Lintervalle demand peut alors tre obtenu par application de
lingalit de Bienaym-Tchebychev, ayant remarqu que la loi tait symtrique par
rapport lorigine.
TD 5 Notions de convergence 77
Ingalit de Markov
11. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que la v.a. X de densit :
f (x) =
_
e
(x)
si x
0 sinon
o est un nombre rel positif donn. On dnit la v.a. m
n
= min{X
1
, . . . , X
n
}.
Pour n tendant vers linni, tudier la convergence en moyenne et en probabilit
de la suite (m
n
).
Analyse de lnonc et conseils. La convergence en moyenne, sous-entendu dordre
1, studie partir du comportement de la suite numrique E(m
n
) car toutes les
variables sont suprieures et on peut penser intuitivement que la plus petite dentre
elles va tendre vers cette valeur minimale. Ltude de la convergence en probabilit
peut se faire directement en utilisant lingalit de Markov.
Convergence en probabilit
12. La dure dune communication tlphonique urbaine est reprsente par
une v.a. D uniformment distribue sur lintervalle [0, t], o t est un nombre rel
positif donn. On souhaite tudier le comportement de la plus longue dure de
n communications, dnie par M
n
= max {D
1
, . . . , D
n
}, lorsque n devient inni,
les v.a. D
i
tant supposes indpendantes et de mme loi que D. Montrer que M
n
converge en probabilit vers t.
Analyse de lnonc et conseils. Pour dmontrer cette convergence partir de la
dnition, on calcule pour un > 0 x la probabilit P(|M
n
t| < ), aprs avoir
dtermin la f.r. de M
n
et on montre que cette suite numrique converge vers 1.
Convergence en moyenne quadratique
13. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que la v.a. X de loi
normale N(0, ), o est un nombre rel positif donn. Montrer que la suite (T
n
)
dnie par :
T
n
=
1
n
n

i=1
|X
i
|
converge en moyenne quadratique vers une limite que lon dterminera.
Analyse de lnonc et conseils. La v.a. T
n
est la moyenne de v.a. indpendantes
et de mme loi laquelle on peut appliquer la loi des grands nombres. Elle converge
donc en probabilit vers E(|X|). Ce sera donc aussi la limite pour la convergence en
moyenne quadratique, puisque cette dernire implique la convergence en probabilit
vers la mme limite.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
78 TD Statistique et probabilits
Loi des grands nombres
14. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que X, de densit :
f (x) =

2
e
|x|
o est un nombre rel positif donn. tudier la convergence en probabilit de la
suite de v.a. dnie par :
T
n
=
1
n
n

i=1
|X
i
|
Analyse de lnonc et conseils. Lavariable T
n
tant lamoyenne de v.a. indpendantes
et de mme loi, on peut lui appliquer la loi des grands nombres.
Limite de la loi de Student
15. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi N(0, 1). tudier, quand
n devient inni, la convergence en probabilit de la suite :
S
2
n
=
1
n
n

i=1
X
2
i
et en dduire la loi limite dune v.a. qui suit une loi de Student n degrs de libert.
Analyse de lnonc et conseils. La loi des grands nombres sapplique la suite
_
S
2
n
_
. En utilisant ce rsultat et la dnition de la loi de Student on peut tablir quelle
converge vers la loi normale.
Thorme central limite
16. Soit X
1
, . . . , X
n
des v.a. indpendantes et de mme loi que X, de densit :
f (x) = exp
_
(x ) e
(x)
_
o est un nombre rel positif donn. tudier la convergence en loi de la suite (T
n
)
de v.a. dnie par :
T
n
=
1
n
n

i=1
e
(X
i
)
Analyse de lnonc et conseils. La v.a. T
n
est dnie comme la moyenne de variables
indpendantes et de mme loi ; donc on va pouvoir lui appliquer le thorme central
limite.
TD 5 Notions de convergence 79
Variance innie
17. Soit (X
n
) une suite de v.a. mutuellement indpendantes dont la loi est dnie
par :
P(X
n
= 0) = 1
1
n
et P(X
n
= n) = P(X
n
= n) =
1
2n
tudier la convergence en probabilit, en moyenne et en moyenne quadratique de
cette suite. Peut-on appliquer la loi des grands nombres ou le thorme central
limite?
Analyse de lnonc et conseils. Pour tudier la convergence en probabilit, on
pourra calculer la probabilit de lvnement |X
n
| < , pour un > 0 x. Ltude
des convergences en moyenne dordres 1 et 2 ne prsente pas de difcult particulire.
Pour savoir si on peut appliquer les deux thormes de convergence la moyenne
empirique, il faut bien examiner si les hypothses des noncs sont vries.
Limite en loi dune suite image
18. Soit X
1
, . . . , X
n
des v.a. indpendantes et qui suivent la mme loi exponentielle
de paramtre > 0. tudier la convergence en loi de la suite (T
n
) de v.a. dnie
par :
T
n
=
n
n

i=1
X
i
Analyse de lnonc et conseils. La v.a. T
n
scrit sous la forme 1/

X
n
et on peut
appliquer le thorme central limite la suite
_

X
n
_
. La proprit relative la suite
image T
n
= g
_

X
n
_
permet alors dobtenir sa loi limite.
1

Faux. Si on choisit 1 dans lingalit de Markov, ou (X) dans
lingalit de Bienaym-Tchebychev, le majorant devient suprieur un. Lingalit
est donc bien videmment vrie, mais ne prsente aucun intrt.
2

Vrai. Lingalit de Bienaym-Tchebychevmontre que si E(X
n
) = a et V(X
n
)
0, alors pour tout > 0, on a P
_
|X
n
E(X
n
)|
_
0, ce qui exprime que la suite
(X
n
) converge enprobabilit vers a. Le rsultat reste dailleurs vrai si ona seulement
la condition E(X
n
) a au lieu de E(X
n
) = a.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
80 TD Statistique et probabilits
3

Vrai. Lcriture lnX
n
suppose bien sr que X
n
> 0 ; les fonctions logarithme et
exponentielle tant continues, le rsultat dcoule du thorme de Slutsky.
4

Vrai. La convergence en probabilit implique toujours la convergence en loi, la
rciproque tant fausse en gnral. Cependant, dans le cas particulier o la limite
est une constante, les deux convergences sont quivalentes.
5

Vrai. La convergence en moyenne quadratique implique la convergence en
probabilit, qui son tour implique la convergence en loi.
6

On adapte la seconde forme de lingalit de Markov en lappliquant |X|
k
:
P
_
|X|
k

_

E|X|
k

On introduit alors un nombre > 0 tel que


k
= et on en dduit alors lingalit
demande puisque |X|
k

k
est quivalent |X| .
7

Il suft dappliquer le rsultat nonc la suite (Y
n
) dnie par Y
n
= X
n
X,
puisque par hypothse E(Y
n
) 0 et V(Y
n
) 0 et que, par ailleurs :
Y
n

p
0 X
n

p
X
8

La rponse est videmment ngative, car la loi de Y est continue et par
consquent P(Y = k) = 0 pour tout entier k. Lorsquune loi discrte est approxi-
me par une loi continue, la probabilit dun point est alors approxime par la
probabilit dun intervalle qui contient ce point. Ainsi P(X k) sera approche
par P(k 1/2 < Y < k +1/2).
9

Il nest pas possible dappliquer ici la loi des grands nombres, puisque nous
sommes dans le cas dune loi qui nadmet aucun moment, mme pas desprance.
On a seulement ici la convergence en loi de la suite
_
X
n
_
vers une v.a. X de loi de
Cauchy, puisque cest la loi exacte de X
n
.
10

La densit est paire et lesprance existe puisquon intgre sur lintervalle
ni [1, 1], donc E(X) = 0. On calcule alors la variance :
V(X) = E
_
X
2
_
=
1
4
_
1
1
x
2
_
1 +3x
2
_
dx =
1
2
_
x
3
3
+
3
5
x
5
_
1
0
=
7
15
La condition impose, qui scrit P(|X| l) 0,75, est quivalente P(|X| > l)
0,25 et lingalit de Bienaym-Tchebychev permet dobtenir pour tout l > 0 x :
P(|X| > l)
V(X)
l
2
Enchoisisssant l tel que V(X) 0,25l
2
, la conditionsera bienvrie. Cela donne ici
l
2
28/15, soit l 1,37. Comme X prend ses valeurs dans [1, 1], cest lintervalle
que lonretient, qui est de probabilit exacte gale 1, valeur qui est biensuprieure
0,75. Lapplication de lingalit de Bienaym-Tchebychev na donc pas permis
ici de rduire lintervalle demand, par rapport lensemble des valeurs possibles
TD 5 Notions de convergence 81
pour X. Connaissant la loi de probabilit, on peut dterminer ici la valeur exacte
de l telle que P(l X l) = 0,75 et qui sera solution de lquation :
0,75 =
1
4
_
l
l
_
1 +3x
2
_
dx =
1
2
_
x +x
3
_
l
0
=
1
2
_
l +l
3
_
quivalente l
3
+l 3/2 = 0, de solution l = 0,86.
11

Nous allons dterminer la loi de probabilit de m
n
pour pouvoir ensuite
calculer son esprance. Comme il sagit de la plus petite observation parmi n,
il vaut mieux considrer lvnement (m
n
> x) qui est quivalent la ralisation
de tous les vnements (X
i
> x), qui sont dailleurs indpendants en raison de
lindpendance des variables X
i
. Ainsi :
P(m
n
> x) = P
_
n
_
i=1
(X
i
> x)
_
=
n

i=1
P(X
i
> x) = [1 F(x)]
n
ayant not F la f.r. commune des v.a. X
i
. La f.r. de la v.a. m
n
est donc dnie par :
G(x) = P(m
n
< x) = 1 [1 F(x)]
n
et sa densit par :
g (x) = G

(x) = nf (x) [1 F(x)]


n1
Il faut donc dterminer aussi la f.r. de X, qui est nulle pour x < , et qui a comme
valeur pour x :
F(x) =
_
x

e
(u)
du =
_
e
(u)
_
x

= 1 e
(x)
Par consquent, pour x :
g (x) = ne
n(x)
Lesprance de m
n
se calcule donc par :
E(m
n
) = n
_
+

xe
n(x)
dx = n
_
+

(x +) e
n(x)
dx
=
1
n
_
+
0
ue
u
du +
_
+

ne
n(x)
dx
ayant pos u = n(x ) dans la premire intgrale que lon calcule par une
intgration par parties. La seconde intgrale vaut 1 (on intgre la densit) et donc :
E(m
n
) =
1
n
+
On en conclut donc que :
E(|m
n
|) = E(m
n
) =
1
n
0

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
82 TD Statistique et probabilits
quand n , condition qui exprime que m
n
converge en moyenne dordre 1
vers . On peut dailleurs en dduire la convergence en probabilit qui est plus
faible. Cependant, le rsultat sobtient directement par application de lingalit
de Markov la variable positive m
n
= |m
n
| :
P(|m
n
| ) = P(m
n
)
E(m
n
)

=
1
n
0
pour tout > 0, condition qui se traduit par :
m
n

p

12

La f.r. de M
n
est dnie par :
G(x) = P(M
n
< x) = P
_
n
_
i=1
(D
i
< x)
_
=
n

i=1
P(D
i
< x) = F
n
(x)
car les v.a. D
i
sont indpendantes et de mme loi, de f.r. F dnie par F(x) = 0
pour x 0, et pour 0 x t :
F(x) =
_
x
0
du
t
=
x
t
avec F(x) = 1 pour x t. On peut donc calculer, pour tout > 0 x, la probabilit :
P(|M
n
t| < ) = P(t < M
n
< t +)
= G(t +) G(t ) = 1
_
1

t
_
n
si < t (pour t cette probabilit est gale 1). Comme 1/t < 1, cette quantit
tend vers 1 et ceci montre donc que :
M
n

p
t
13

Loprateur esprance tant linaire et les v.a. X
i
de mme loi :
E(T
n
) =
1
n
n

i=1
E(|X
i
|) = E(|X|)
Nous calculons cette valeur en faisant le changement de variable x
2
= 2
2
u :
E(|X|) =
1

2
_
+

|x| e
x
2
/2
2
dx =
2

2
_
+
0
e
u
du =
_
2

La convergence en moyenne quadratique vers cette valeur, qui est lesprance de


T
n
, est quivalente la convergence vers zro de la variance de T
n
qui vaut :
V(T
n
) =
1
n
2
n

i=1
V(|X
i
|) =
1
n
V(|X|)
TD 5 Notions de convergence 83
en raison de lindpendance des v.a. X
i
. On obtient :
V (|X|) = E
_
|X|
2
_
E
2
(|X|) =
2

2
car E
_
|X|
2
_
= E
_
X
2
_
= V(X) =
2
. Ainsi :
V(T
n
) =
_
1
2

_

2
n
0
quand n , do on peut conclure :
T
n

m.q.

_
2

14

Nous allons calculer les deux premiers moments de la v.a. |X| :
E (|X|) =
_
+

|x| f (x) dx =
_
+
0
xe
x
dx =
1

valeur obtenue en intgrant par parties. De la mme manire :


E
_
X
2
_
=
_
+
0
x
2
e
x
dx =
2

2
et V (|X|) = 1/
2
. La v.a. T
n
tant la moyenne des v.a. |X
i
| indpendantes, la loi des
grands nombres permet dobtenir :
T
n

p
1

15

La loi des grands nombres sapplique la moyenne des v.a. X
2
i
qui converge
vers la moyenne commune E
_
X
2
1
_
= V(X
1
) = 1, soit :
S
2
n

p
1
Onsait par ailleurs que la v.a. Y
n
= nS
2
n
suit une loi dukhi-deux ndegrs de libert,
comme somme de n carrs de v.a. indpendantes, de mme loi normale centre-
rduite. Si U est une v.a. de loi N(0, 1) indpendante de Y
n
, on sait galement par
dnition de la loi de Student que la v.a. T
n
= U/

Y
n
/n suit une loi de Student n
degrs de libert. Le numrateur est indpendant de n et nous venons de voir que
le terme sous le radical converge en probabilit vers 1. Daprs une proprit du
cours, le rapport se comporte donc comme le numrateur, cest--dire que cette loi
de Student converge vers la loi N(0, 1), ce que lon peut crire sous la forme :
T
n

loi
N(0, 1)

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
84 TD Statistique et probabilits
16

La v.a. T
n
est la moyenne des v.a. indpendantes Y
i
= exp(X
i
), de
mme loi que la v.a. Y = exp(X ), de f.r. dnie par :
G
_
y
_
= P
_
Y < y
_
= P
_
exp(X ) < y
_
probabilit nulle pour y 0 et qui a pour valeur, obtenue par passage aulogarithme
pour y > 0 :
G
_
y
_
= P
_
(X ) < lny
_
= P
_
X > lny
_
= 1 F
_
lny
_
o F est la f.r. de X. La densit est donc nulle pour y 0 et a pour valeur, pour
y > 0 :
g
_
y
_
=
1
y
f
_
lny
_
= e
y
qui est la densit dune loi exponentielle ou loi (1). Daprs le cours, ses moments
sont donc E(Y) = V(Y) = 1 et le thorme central limite permet donc dobtenir :

n(T
n
1)
loi
N(0, 1)
17

Pour > 0 x, on obtient P(|X
n
| < ) = P(X
n
= 0) = 1 1/n 1 quand
n et par consquent la suite (X
n
) converge en probabilit vers zro. Pour la
convergence enmoyenne, oncalcule E(|X
n
|) = 1 et donc il nya pas convergence en
moyenne dordre 1 vers zro. Onsait, a fortiori, quil ne peut pas yavoir convergence
en moyenne quadratique. On le vrie en calculant E
_
X
2
n
_
= n qui devient inni
avec n. Les variables X
n
ont des lois diffrentes, donc on ne peut pas appliquer
le thorme central limite. Comme dautre part les moments dordre 2 sont aussi
diffrents, puisque V(X
n
) = n, on ne peut pas appliquer non plus la loi des grands
nombres. Notons cependant que lon peut dmontrer que la suite
_

X
n
_
converge
en loi vers la loi N
_
0, 1/

2
_
.
18

Daprs le cours, on sait que les v.a. X
i
de loi exponentielle de paramtre
ont pour caractristiques communes E(X
1
) = 1/ et V(X
1
) = 1/
2
. Le thorme
central limite permet donc dobtenir :

X
n
1/
1/

loi
N(0, 1)
quand n . La fonction g dnie par g (x) = 1/x est continue et drivable pour
x > 0, avec g

(x) = 1/x
2
. La convergence en loi de la suite

n
_

X
n
1/
_
vers une
loi N(0, 1/) se transmet donc par cette application la suite

n
_
g
_

X
n
_
g (1/)
_
qui converge vers la loi normale N
_
0,

(1/)

/
_
, ce qui donne donc comme
rsultat :

n(T
n
)
loi
N(0, )
6
Estimation
ponctuelle


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Au phnomne tudi, nous associons maintenant un modle statistique o la v.a. X
considre, valeurs dans E, suit une loi de probabilit, note P

, car elle dpend dun


paramtre qui appartient un sous-ensemble donn , appel espace des paramtres,
qui sera gnralement un sous-ensemble de R, mais qui peut aussi parfois tre inclus dans
R
k
. Pour se faire une ide de la valeur inconnue du paramtre qui dtermine cette loi de
probabilit, on utilise un chantillon de cette loi, cest--dire un ensemble (X
1
, ..., X
n
) de
n v.a. indpendantes et qui suivent la mme loi que X. partir des valeurs observes
x
1
, ..., x
n
on calcule ensuite une certaine valeur numrique que lon considrera comme
une valeur approche de et quon appellera une estimation de . La rgle qui permettra
deffectuer ce calcul est un estimateur auquel on demande de possder certaines propri-
ts. Il est sans biais si son esprance est gale la valeur du paramtre et convergent sil
converge en probabilit vers , quand la taille de lchantillon tend vers linfini. Un esti-
mateur optimal dans la classe des estimateurs sans biais est dit efficace. Les paramtres
les plus frquents sont la moyenne et la variance de la loi, qui sont respectivement estims
par la moyenne et la variance empiriques. Dans le cas o il ny a pas destimateur vident,
on en cherche un par la mthode du maximum de vraisemblance, qui consiste maxi-
miser la densit de lchantillon, ou par la mthode des moments, qui consiste galer
moment thorique et moment empirique correspondant.
1. Dfinition et proprits dun estimateur
Dfinition. Un estimateur de est une application T
n
de E
n
dans F, qui un
chantillon (X
1
, ..., X
n
) de la loi P

associe une variable alatoire relle (ou plu-


sieurs dans le cas dun paramtre multidimensionnel) dont on peut dterminer la
loi de probabilit.
86 TD Statistique et probabilits
La loi de la v.a. T
n
(X
1
, . . . , X
n
) dpend de celle de X, et donc de , et chaque
ralisationT
n
(x
1
, . . . , x
n
) sera une estimation de . Unestimateur est une statistique
particulire, entant que fonctionde lchantillon, qui permet dattribuer une valeur
au paramtre estimer. On pourrait donc le dnir comme une statistique
valeurs dans . Comme nous navons impos ici aucune condition lensemble
F, nous allons dnir une proprit, que lon pourrait qualier de minimale, pour
un estimateur, cest--dire de prendre ses valeurs dans le mme ensemble que le
paramtre. On dira quun estimateur est strict si T
n
(E
n
) .
1.1 Biais dun estimateur
Pour pouvoir considrer T
n
(x
1
, . . . , x
n
) comme une valeur approche de , il faut
que les valeurs prises par la v.a. T
n
ne scartent pas trop de la valeur, xe, de .
Comme T
n
est une v.a., on ne peut imposer une condition qu sa valeur moyenne,
ce qui nous amne dnir le biais dunestimateur comme lcart entre sa moyenne
et la vraie valeur du paramtre :
b
n
() = E

(T
n
)
Dnitions. Un estimateur T
n
de est dit sans biais si pour tout de et tout entier
positif n :
E

(T
n
) =
Un estimateur T
n
de est dit asymptotiquement sans biais si pour tout de :
E

(T
n
) quand n
1.2 Convergence dun estimateur
Dnition. Un estimateur T
n
est convergent si la suite de v.a. (T
n
) converge en
probabilit vers la valeur du paramtre, cest--dire pour tout de :
T
n

p
P

(|T
n
| < ) 1, > 0, n
P

(|T
n
| > ) 0
Thorme. Tout estimateur sans biais, ou asymptotiquement sans biais, dont la
variance tend vers zro, quand n tend vers linni, est convergent.
1.3 Estimateur optimal
Qualit dun estimateur
La qualit dun estimateur se mesure par lerreur quadratique moyenne, dnie pour
tout par :
EQ(T
n
) = E

(T
n
)
2
= V

(T
n
) +b
2
n
()
TD 6 Estimation ponctuelle 87
Dans le cas particulier dun estimateur sans biais, cette erreur quadratique se
confond avec la variance de lestimateur. Si dans lerreur totale destimation on
privilgie lerreur structurelle, mesure par b
2
n
(), on fera le choix dun estimateur
sans biais et lerreur destimation se rduira lerreur statistique mesure par
la variance de lestimateur. Si on se place donc dornavant dans la classe des
estimateurs sans biais, onpourra comparer deux estimateurs T
n
et T

n
de cette classe
par leur variance, qui mesure alors leur dispersion par rapport au paramtre, qui
est leur esprance commune. Nous dirons que lestimateur T
n
est plus efcace que
T

n
si pour tout de et pour une taille dchantillon n > N :
V

(T
n
) V

_
T

n
_
Ingalit de Frchet-Darmois-Cramer-Rao
Dnitions. On appelle vraisemblance (likelihood) de lchantillon (X
1
, . . . , X
n
) la
loi de probabilit de ce n-uple, note L(x
1
, . . . , x
n
; ), et dnie par :
L(x
1
, . . . , x
n
; ) =
n

i=1
P(X
i
= x
i
|)
si X est une v.a. discrte, et par :
L(x
1
, . . . , x
n
; ) =
n

i=1
f (x
i
; )
si X est une v.a. continue de densit f (x; ).
La quantit dinformation de Fisher est dnie par :
I
n
() = E

_
lnL

_
2
Thorme. Sous les hypothses de Cramer-Rao, en particulier si E = X() est
indpendant du paramtre estimer , pour tout estimateur sans biais T
n
de ,
on a :
V

(T
n
)
1
I
n
()
= B
F
()
La quantit B
F
() est la borne infrieure de Frchet-Darmois-Cramer-Rao (FDCR
en abrg). Notons que dans les conditions dapplication de ce thorme, en
particulier si E = X() est indpendant du paramtre estimer , on obtient une
expressionquivalente de la quantit dinformationde Fisher, qui est gnralement
plus simple calculer :
I
n
() = E

2
lnL

2
_
Estimateur efcace
Dnition. Un estimateur sans biais T
n
est dit efcace si sa variance est gale la
borne infrieure de FDCR :
V

(T
n
) =
1
I
n
()

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
88 TD Statistique et probabilits
2. Mthodes de construction dun estimateur
2.1 Mthode du maximum de vraisemblance
La vraisemblance L(x
1
, . . . , x
n
; ) reprsente la probabilit dobserver le n-uple
(x
1
, . . . , x
n
) pour une valeur xe de . Dans la situation inverse ici o on a observ
(x
1
, . . . , x
n
) sans connatre la valeur de , on va attribuer la valeur qui parat
la plus vraisemblable, compte tenu de lobservation dont on dispose, cest--dire
celle qui va lui attribuer la plus forte probabilit. On se xe donc la rgle suivante :
(x
1
, . . . , x
n
) x, on considre la vraisemblance L comme une fonction de et on
attribue la valeur qui maximise cette fonction. Do la dnition suivante.
Dnition. On appelle estimateur du maximumde vraisemblance (emv) toute fonction

n
de (x
1
, . . . , x
n
) qui vrie :
L
_
x
1
, . . . , x
n
;

n
_
= max

L(x
1
, . . . , x
n
; )
Cette dnition ne renseigne en aucune faon, ni sur lexistence, ni sur lunicit,
dun tel estimateur. La recherche de lemv peut se faire directement par recherche
dumaximumde L, oudans le cas particulier ola fonctionL est deux fois drivable
par rapport , comme solution de lquation :
L

= 0
qui vrie aussi

2
L

2
< 0. Cependant, la vraisemblance se calculant partir dun
produit, on prfre remplacer ce dernier problme par le problme quivalent pour
la log-vraisemblance :
lnL

= 0
avec

2
lnL

2
< 0.
2.2 Mthode des moments
Dans le cas o le paramtre estimer est = E

(X), moyenne thorique de la loi,


lestimateur naturel est la moyenne empirique, ou moyenne de lchantillon :

X
n
=
1
n
n

i=1
X
i
De mme, pour estimer le paramtre = V

(X), variance de la loi, nous retenons


logiquement comme estimateur la variance empirique :
S
2
n
=
1
n
n

i=1
_
X
i


X
n
_
2
TD 6 Estimation ponctuelle 89
(la variance empirique modie S
2
n
est obtenue en divisant par n 1 au lieu de n).
Plus gnralement, si lun des moments dordre k N

, non centr m
k
= E

_
X
k
_
=
m
k
(), ou centr
k
= E

(X m
1
)
k
=
k
(), dpend de , nous allons chercher un
estimateur par rsolution de lquation en obtenue en galant moment thorique
et moment empirique correspondant, soit :
m
kn
=
1
n
n

i=1
X
k
i
= m
k
() ou
kn
=
1
n
n

i=1
_
X
i


X
n
_
k
=
k
()
Lasolutionde lquationretenue, si elle existe et est unique, sera appele estimateur
obtenu par la mthode des moments.
Vrai Faux
1. La moyenne empirique est un estimateur sans biais de la
moyenne dune loi.
2. Toute combinaison linaire de deux estimateurs sans biais est
un estimateur sans biais.
3. La variance empirique est un estimateur sans biais de la
variance dune loi.
4. Tout estimateur dont la variance tend vers zro est convergent.
5. Un estimateur efcace pour un paramtre est le meilleur esti-
mateur de celui-ci.
6. On peut trouver des estimateurs sans biais dun paramtre
qui ont une variance plus petite que la quantit 1/I
n
().
7. Chercher le maximum de la vraisemblance L est quivalent
chercher le maximum de la log-vraisemblance lnL.
8. Si

n
est un emv pour un paramtre , alors g
_

n
_
est un emv
du paramtre g () pour toute fonction g.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
90 TD Statistique et probabilits
9. Indiquer pourquoi lcart type empirique modi S
n
, o :
S
2
n
=
1
n 1
n

i=1
_
X
i


X
n
_
2
ne peut pas tre un estimateur sans biais de lcart type dune loi.
10. partir de deux estimateurs T
1
et T
2
du paramtre , sans biais et indpen-
dants, on construit lestimateur T
3
= T
1
+ (1 ) T
2
, o ]0, 1[. Dterminer
, en fonction des variances V
1
= V(T
1
) et V
2
= V(T
2
), de faon que T
3
soit un
estimateur sans biais de variance minimale. Les estimateurs T
1
et T
2
peuvent-ils
tre efcaces tous les deux?
Estimation dune proportion
11. Pour estimer la proportion p de foyers quips dun micro-ordinateur, on tire
au sort un chantillon de n foyers dans la population totale, de taille suppose
innie. chaque foyer i, 1 i n, on associe une v.a. de Bernoulli :
X
i
=
_
1 si le foyer i possde un micro-ordinateur
0 sinon
a) tudier les proprits de lestimateur naturel F
n
du paramtre p et vrier que
cest aussi lestimateur du maximum de vraisemblance.
b) Soit maintenant G
m
lestimateur construit de la mme faon sur un second
chantillon de taille m, indpendant du prcdent. Dterminer les coefcients
rels et de faon quep
n+m
= F
n
+G
m
soit un estimateur de p sans biais et de
variance minimum.
Analyse de lnonc et conseils. Le paramtre p est une proportiondans la population
totale, donc son estimateur naturel est la proportion observe sur lchantillon, cest-
-dire la frquence empirique. On tablira que cet estimateur est sans biais, convergent
et efcace. Lestimateur p
n+m
est construit en fait sur un chantillon unique de taille
n+m, runissant les deux chantillons spars. Ayant tabli que la frquence empirique
tait le meilleur estimateur sans biais dune proportion, les valeurs de et doivent
donc correspondre cet estimateur construit sur la runion des deux chantillons.
TD 6 Estimation ponctuelle 91
Loi de Poisson
12. Le nombre daccidents mortels par mois, uncarrefour dangereux, est une v.a.
Xqui suit une loi de Poissonde paramtre , que loncherche estimer partir dun
chantillon X
1
, . . . , X
n
de cette loi. tudier les proprits de lestimateur naturel de
ce paramtre et vrier que cest aussi lestimateur dumaximumde vraisemblance.
Analyse de lnonc et conseils. Le paramtre dune loi de Poisson est la moyenne
de cette loi, donc lestimateur naturel est la moyenne empirique, dont on sait a priori
quil est sans biais et convergent. On tablira de plus quil est efcace et lexpression de
la log-vraisemblance permettra de vrier que cest lemv.
Loi conditionnelle binmiale
13. Chaque jour ouvrable, le nombre de clients qui entrent dans ungrandmagasin
est une v.a. X qui suit une loi de Poisson de paramtre connu. Une fois entr, il y
a une probabilit p quun client fasse des achats pour un montant suprieur 1 000
francs. Pour pouvoir estimer p on dispose dun chantillon sur n jours ouvrables
de v.a. Y
1
, . . . , Y
n
de mme loi que la v.a. Y, qui reprsente le nombre journalier
de clients ayant effectu plus de 1 000 francs dachats. Proposer un estimateur
de p, tudier ses proprits et donner une estimation partir de lobservation

100
i=1
y
i
= 360, sachant que = 18.
Analyse de lnonc et conseils. Il faut dterminer au pralable la loi conditionnelle
de Y|X = x, pour en dduire ensuite la loi du couple (X, Y) et enn, celle de Y.
Linterprtation du paramtre p pour cette loi conduit un estimateur naturel qui
posssde toutes les proprits classiques.
Emv pour une loi discrte
14. Soit X
1
, . . . , X
n
un chantillon dune v.a. X valeurs entires, de loi dnie
pour k N par :
P(X = k) =

k
(1 +)
k+1
o est un paramtre positif. Dterminer lestimateur du maximum de vraisem-
blance de et tudier ses proprits.
Analyse de lnonc et conseils. On cherche le maximum de la vraisemblance
considre comme une fonction de et on tablira que lestimateur obtenu est sans
biais, convergent et efcace. Le calcul des moments seffectue partir de la somme de
la srie gomtrique et de ses deux premires drives.

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
92 TD Statistique et probabilits
Loi de Pareto
15. Soit X une v.a. qui suit une loi de Pareto de densit :
f (x) =
_
_
_
1
x

si x 1
0 sinon
o est un paramtre inconnu. Dterminer lestimateur du maximum de vraisem-
blance de construit partir dun chantillon X
1
, . . . , X
n
de cette loi et montrer
quil est convergent.
Analyse de lnonc et conseils. Le calcul des moments de X en fonction de ne
fait pas apparatre destimateur naturel de ce paramtre et il est donc ncessaire ici de
recourir une mthode de construction. Lexpression obtenue de lemv permettra de
dduire sa convergence de la loi des grands nombres.
Loi uniforme
16. Soit X
1
, . . . , X
n
un chantillon dune v.a. X qui suit une loi uniforme sur
lintervalle [0, ], o est unparamtre positif inconnu. Ondemande de dterminer
un estimateur sans biais de construit partir de lemv et de comparer sa variance
la quantit 1/I
n
().
Analyse de lnonc et conseils. Onremarque ici que lensemble des valeurs possibles
pour la variable dpenddu paramtre estimer et donc que les conditions de lingalit
FDCR ne sont pas remplies. Par ailleurs, lexpression de la vraisemblance ne permet
pas de dterminer lemv par ltude des drives et il faut donc rsoudre directement
ce problme de la recherche du maximum.
Comparaison destimateurs
17. Soit Xune v.a. qui suit une loi normale desprance et de variance (1) o
est un paramtre inconnu tel que 0 < < 1. partir dun chantillon X
1
, . . . , X
n
de cette loi, on construit les estimateurs :
T
n
=
1
n
n

i=1
X
i
et S
n
=
1
n
n

i=1
X
2
i
Indiquer lestimateur que lon doit choisir.
Analyse de lnonc et conseils. Pour effectuer cette comparaison, il faut se donner
un critre. Ayant vri que ces estimateurs sont sans biais, ils peuvent tre compars
par leurs variances, le plus efcace, donc celui quil faut choisir tant de variance la
plus petite. On pourra admettre que V
_
X
2
_
= 2
2
_
1
2
_
.
TD 6 Estimation ponctuelle 93
Mthode des moments
18. Soit X une v.a. de densit :
f (x) =
_
_
_
2

_
1
x

_
si 0 x
0 sinon
o est un paramtre strictement positif. Dterminer par la mthode des moments
un estimateur du paramtre construit partir dun chantillon X
1
, . . . , X
n
de cette
loi et tudier ses proprits.
Analyse de lnonc et conseils. Pour utiliser la mthode des moments, on calcule
lesprance de cette loi, qui va sexprimer en fonction du paramtre, et on crit lgalit
avec la moyenne empirique. On rsout ensuite cette quationpar rapport , la solution
fournissant lestimateur cherch. Avant de rpondre la question sur lefcacit, il est
ncessaire de bien examiner la dnition de la loi de probabilit.
1

Vrai. Pour toute loi qui admet une esprance, la moyenne

X
n
de lchantillon
est un estimateur sans biais de E(X).
2

Faux. Si S et T sont deux estimateurs sans biais dun mme paramtre, S+T
ne sera aussi sans biais que si + = 1.
3

Faux. La variance empirique S
2
n
est seulement un estimateur asymptotique-
ment sans biais de la variance dune loi. Pour obtenir un estimateur sans biais, il
faut diviser

n
i=1
_
X
i


X
n
_
2
par le nombre de variables indpendantes, soit n 1,
et non pas par le nombre n de termes. En effet, ces variables sont lies par la relation

n
i=1
_
X
i


X
n
_
= 0.
4

Faux. Par exemple, si lon retient comme estimateur du paramtre dune
loi uniforme sur [0, ] la moyenne

X
n
dun chantillon de cette loi, on a bien
V(

X
n
) =
2
/12n qui tend vers zro, mais cet estimateur ne converge pas vers
puisque E
_

X
n
_
= /2. Pour que lnonc soit vrai, il faut ajouter la condition dtre
un estimateur sans biais, ou asymptotiquement sans biais.
5

Faux. Lnonc est vrai si lon se restreint la classe des estimateurs sans
biais. Mais si lon utilise comme critre gnral de comparaison entre estima-
teurs lerreur quadratique moyenne, on peut trouver un estimateur avec biais
meilleur quun estimateur efcace. Par exemple, pour la loi N(0, ), lestimateur

2
n
=
1
n

n
i=1
X
2
i
est efcace, avec EQ
_

2
n
_
= V
_

2
n
_
= 2
4
/n. Mais lestimateur
biais T
n
=
1
n +2

n
i=1
X
2
i
a une erreur quadratique EQ(T
n
) =
2
4
n +2
plus petite
que celle de
2
n
.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
94 TD Statistique et probabilits
6

Vrai. Si les hypothses de Cramer-Rao ne sont pas vries, on peut toujours
calculer la quantit B
F
() = 1/I
n
(), mais elle nest pas une borne infrieure pour la
variance des estimateurs sans biais de . Onpeut donc dans certains cas trouver des
estimateurs sans biais de variance plus petite que B
F
() (cf. exercice 16, page 92).
7

Vrai. La fonction ln est strictement croissante ; donc maximiser L est quivalent
maximiser lnL.
8

Vrai. Limage par une fonction quelconque g de lemv dun paramtre est
emv de limage g () de ce paramtre.
9

On sait que S
2
n
est un estimateur sans biais de la variance
2
dune loi, cest-
-dire que E
_
S
2
n
_
=
2
. Si S
n
tait un estimateur sans biais de , on aurait donc
E(S
n
) = . La variance de cet estimateur serait alors V(S
n
) = E
_
S
2
n
_
E
2
(S
n
) =

2
= 0, ce qui est impossible.
10

Il est facile de vrier que lestimateur T
3
est sans biais. Les estimateurs T
1
et T
2
tant indpendants, sa variance est :
V
3
= V(T
3
) =
2
V
1
+(1 )
2
V
2
Pour dterminer le minimum de cette fonction de , on calcule sa drive
V

3
() = 2V
1
2 (1 ) V
2
, qui sannule pour = V
2
/ (V
1
+V
2
), avec une dri-
ve seconde qui est positive. Cest donc la valeur qui permet dobtenir lestimateur
sans biais de variance minimale V
3
= V
1
V
2
/ (V
1
+V
2
). Si les deux estimateurs
taient efcaces, leurs variances seraient gales la borne FDCR B
F
() et on aurait
alors V
3
= V
1
/2 = B
F
() /2. Ceci est impossible car aucun estimateur sans biais ne
peut avoir une variance infrieure cette borne FDCR.
11

a) La frquence thorique p est estime par la frquence empirique, cest-
-dire la proportion dans lchantillon de foyers possdant un micro-ordinateur,
soit :
F
n
=

X
n
=
1
n
n

i=1
X
i
On retrouve les proprits gnrales de la moyenne empirique qui est un estima-
teur sans biais de la moyenne thorique :
E(F
n
) = E
_

X
n
_
=
1
n
n

i=1
E(X
i
) =
1
n
n

i=1
p = p
et qui est convergent daprs la loi des grands nombres :

X
n

p
E(X) = p
Pour dmontrer quil est galement efcace pour ce paramtre, nous allons dter-
miner la vraisemblance partir de la densit de la loi de Bernoulli, qui peut scrire
P(X = x) = p
x
_
1 p
_
1x
avec x = 0 ou 1, soit :
L
_
x
1
, . . . , x
n
; p
_
=
n

i=1
P(X
i
= x
i
) = p

n
i=1
x
i
_
1 p
_
n

n
i=1
x
i
TD 6 Estimation ponctuelle 95
Lexpression de la log-vraisemblance est donc :
lnL
_
x
1
, . . . , x
n
; p
_
=
_
n

i=1
x
i
_
lnp +
_
n
n

i=1
x
i
_
ln
_
1 p
_
De drive :
lnL
p
=
1
p
n

i=1
x
i

n
n

i=1
x
i
1 p
Avec pour drive seconde :

2
lnL
p
2
=
1
p
2
n

i=1
x
i

n
n

i=1
x
i
_
1 p
_
2
Ce qui permet de calculer la quantit dinformation de Fisher :
I
n
_
p
_
= E
_

2
lnL
p
2
_
=
1
p
2
n

i=1
E(X
i
) +
n
n

i=1
E(X
i
)
_
1 p
_
2
=
np
p
2
+
n np
_
1 p
_
2
=
n
p
_
1 p
_
Lestimateur a pour variance :
V(F
n
) = V(

X
n
) =
1
n
2
n

i=1
V(X
i
) =
1
n
2
n

i=1
p
_
1 p
_
=
p
_
1 p
_
n
qui est gale la borne FDCR, donc il est efcace. On peut noter au passage que la
drive de la log-vraisemblance sannule pour p =

n
i=1
x
i
/n. Comme la drive
seconde est toujours ngative, il y a un maximum en ce point, donc lestimateur
prcdent est lemv.
b) Les estimateurs F
n
et G
m
tant sans biais, pour que p
n+m
= F
n
+ G
m
le soit
aussi, il faut que :
E
_
p
n+m
_
= p +p = p
soit la condition + = 1. Les deux chantillons tant indpendants, la variance
de cet estimateur est :
V(p
n+m
) =
2
V(F
n
) +
2
V(G
m
) =
2
p
_
1 p
_
n
+
2
p
_
1 p
_
m
Pour que cette quantit soit minimale, on doit rsoudre le problme de minimisa-
tion de :

2
n
+

2
m
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
96 TD Statistique et probabilits
sous la contrainte + = 1. En utilisant le multiplicateur de Lagrange , on obtient
comme conditions ncessaires du premier ordre le systme :
_

_
2

n
= 0
2

m
= 0
do :

n
=

m
=
+
n +m
=
1
N
ayant pos N = n + m. Les conditions du second ordre montrent quil sagit
effectivement dun minimum et lestimateur de variance minimale est construit
avec des coefcients proportionnels aux tailles dchantillon :
p
n+m
=
n
N
F
n
+
m
N
G
m
Ce nest autre que la frquence empirique de lchantillon global, obtenu par
runion des deux chantillons partiels indpendants. Cest lestimateur efcace,
de variance minimale :
V(p
n+m
) =
p
_
1 p
_
N
12

On estime le paramtre = E(X), moyenne thorique de la loi, par la
moyenne de lchantillon, ou moyenne empirique :

X
n
=
1
n
n

i=1
X
i
On vrie que cet estimateur est sans biais, daprs les proprits de linarit de
lesprance :
E
_

X
n
_
=
1
n
n

i=1
E(X
i
) =
1
n
n

i=1
=
et quil est convergent, daprs la loi des grands nombres :

X
n

p
= E(X)
Il converge dailleurs en moyenne quadratique puisquil est sans biais et que sa
variance tend vers zro :
V(

X
n
) =
1
n
2
n

i=1
V(X
i
) =
1
n
2
n

i=1
=

n
0
TD 6 Estimation ponctuelle 97
Nous allons maintenant tablir quil est efcace en calculant la quantit dinfor-
mation de Fisher partir de la vraisemblance :
L(x
1
, . . . , x
n
; ) = e
n

n
i=1
x
i
n

i=1
x
i
!
Do la log-vraisemblance :
lnL(x
1
, . . . , x
n
; ) = n +
_
n

i=1
x
i
_
ln
n

i=1
ln(x
i
!)
et sa drive premire :
lnL

= n +
1

i=1
x
i
Les hypothses de Cramer-Rao tant vries, on peut utiliser la drive seconde :

2
lnL

2
=
1

2
n

i=1
x
i
pour calculer :
I
n
() = E
_

2
lnL

2
_
=
1

2
n

i=1
E(X
i
) =
n

2
=
n

Son inverse est la borne FDCR, gale ici la variance de



X
n
qui est donc un
estimateur efcace du paramtre . La drive de lnL sannule pour =

X
n
et
comme dautre part la drive seconde est toujours ngative, on tablit ainsi quil
sagit de lexpression de lestimateur du maximum de vraisemblance de .
13

Lorsque X = x, chacun des x clients entrs effectue des achats dun montant
suprieur 1 000 F avec une probabilit p, donc la loi de Y, conditionnellement
X = x, est une loi binmiale de paramtres x et p. La loi du couple (X, Y) se
dtermine donc par :
P
_
X = x, Y = y
_
= P(X = x) P
_
Y = y|X = x
_
= e

x
x!
_
x
y
_
p
y
_
1 p
_
xy
= e

_
p
_
y
_

_
1 p
__
xy
y!
_
x y
_
!
pour x et y entiers tels que 0 y x. On obtient la loi marginale de Y par
sommation de cette loi du couple :
P
_
Y = y
_
=

x=y
P
_
X = x, Y = y
_
= e

_
p
_
y
y!

x=y
_

_
1 p
__
xy
_
x y
_
!
= e

_
p
_
y
y!
e

(
1p
)
= e
p
_
p
_
y
y!

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
98 TD Statistique et probabilits
Ce qui montre que Y suit une loi de Poisson de paramtre p. Les rsultats
de lexercice prcdent permettent dafrmer que p
n
=

Y
n
/ est un estimateur
sans biais, convergent et efcace, de variance V(p
n
) = p/n. On obtient comme
estimationp
100
= 3,6/18 = 0,2.
14

La vraisemblance a pour expression :
L(x
1
, . . . , x
n
; ) =
n

i=1
P(X
i
= x
i
) =

n
i=1
x
i
(1 +)
n+

n
i=1
x
i
et la log-vraisemblance :
lnL(x
1
, . . . , x
n
; ) =
_
n

i=1
x
i
_
ln
_
n +
n

i=1
x
i
_
ln(1 +)
Sa drive est :
lnL

=
1

i=1
x
i

n +
n

i=1
x
i
1 +
qui sannule pour =

n
i=1
x
i
/n = x. tudions la drive seconde :

2
lnL

2
=
1

2
n

i=1
x
i
+
n +
n

i=1
x
i
(1 +)
2
qui a comme valeur n/ x (1 + x) < 0 pour = x qui correspond donc bien un
maximum. Lemv est par consquent la moyenne empirique :

n
=

X
n
=
1
n
n

i=1
X
i
Nous allons dailleurs voir que le paramtre est ici la moyenne de la loi :
E(X) =

k=0
k

k
(1 +)
k+1
=

(1 +)
2

k=1
k
_

1 +
_
k1
quantit qui se calcule partir de la somme de la srie gomtrique

k=0
x
k
=
1/ (1 x) pour |x| < 1, et de sa drive

k=1
kx
k1
= 1/ (1 x)
2
. La valeur de la
somme prcdente est obtenue pour x = / (1 +), soit :
E(X) =

(1 +)
2
(1 +)
2
=
Le calcul pralable de lesprance aurait donc permis de retenir la moyenne
empirique comme estimateur naturel, sans avoir recourir une mthode de
TD 6 Estimation ponctuelle 99
construction comme celle du maximum de vraisemblance. On sait que cet estima-
teur est sans biais, convergent daprs la loi des grands nombres et de variance
V(X)/n. Pour le calcul de la variance, nous allons utiliser la seconde drive de
la somme de la srie gomtrique

k=2
k (k 1) x
k2
= 2/ (1 x)
3
, qui va nous
permettre dobtenir le moment factoriel :
E[X(X 1)] =

k=0
k (k 1) P(X = k) =

2
(1 +)
3

k=2
k (k 1)
_

1 +
_
k2
= 2
2
ayant remplac x par /(1 +). On en dduit ensuite :
V(X) = E
_
X
2
_
E
2
(X) = E[X(X 1)] +E(X) E
2
(X) =
2
+
Calculons maintenant la quantit dinformation de Fisher :
I
n
() = E
_

2
lnL

2
_
=
1

2
n

i=1
E(X
i
)
n +
n

i=1
E(X
i
)
(1 +)
2
=
n

n
1 +
=
n
(1 +)
La variance de lestimateur est :
V
_

n
_
=
V(X)
n
=
(1 +)
n
=
1
I
n
()
et cet estimateur est donc aussi efcace.
15

La densit nest dnie que pour > 1. Lesprance a pour valeur :
E(X) =
_
+

xf (x) dx =
_
+
1
( 1) x
+1
dx = ( 1)
_
x
+2
+2
_
+
1
quantit qui nest dnie que pour > 2. Si cette condition est ralise, on obtient :
E(X) =
1
2
Onvoit ainsi que le paramtre na pas dinterprtation simple enterme de moment.
On calcule donc la vraisemblance pour dterminer lemv :
L(x
1
, . . . , x
n
; ) = ( 1)
n
n

i=1
x

i
avec minx
i
1
Les expressions de la log-vraisemblance et de ses drives sont donc :
lnL(x
1
, . . . , x
n
; ) = nln( 1)
n

i=1
lnx
i
lnL

=
n
1

n

i=1
lnx
i

2
lnL

2
=
n
( 1)
2

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
100 TD Statistique et probabilits
La drive premire sannule pour = 1 +n/

n
i=1
lnx
i
, avec une drive seconde
ngative, et il sagit donc bien dun maximum. Lemv est donc dni par :

n
= 1 +
n
n

i=1
lnX
i
Il est de la forme
n
= 1+1/

Y
n
, ayant pos Y
i
= lnX
i
pour 1 i n. Pour savoir si
on peut appliquer la loi des grands nombres

Y
n
, nous allons calculer lesprance
de Y = lnX :
E
_
lnX
_
= ( 1)
_
+
1
x

lnx dx =
_
x
+1
lnx
_
+
1
+
_
+
1
x

dx =
1
1
On aurait pu galement obtenir ce rsultat partir de la loi de Y dnie par sa f.r.
G( y) = P
_
Y < y
_
= P
_
lnX < y
_
= P(X < e
y
) = F(e
y
), o F dsigne la f.r. de X.
Pour x 1 :
F(x) =
_
x

f (u) du = ( 1)
_
x
1
u

du = 1 x
1
avec F(x) = 0 pour x < 1. Ainsi, pour y < 0, on a G
_
y
_
= 0 et pour y 0 :
G( y) = 1 e
(1)y
. La v.a. Y est donc positive, de densit ( 1) e
(1)y
, et on
reconnat une loi exponentielle de paramtre 1. On retrouve bien la valeur de
lesprance, la variance tant :
V(Y) =
1
( 1)
2
Par consquent, la loi des grands nombres permet dobtenir :

Y
n

p
E(Y) =
1
1
On en dduit, du thorme de Slutsky, la convergence de lestimateur :

n
= 1 +
1

Y
n

p
1 +( 1) =
Notons que cet estimateur aurait puaussi tre obtenupar la mthode des moments,
applique la loi de Y. En effet, lquation :
E(Y) =
1
1
=

Y
n
admet comme solution unique = 1 +1/

Y
n
.
TD 6 Estimation ponctuelle 101
16

La densit de cette loi uniforme est 1/ sur lintervalle [0, ]. Lexpression de
la vraisemblance est donc :
L(x
1
, . . . , x
n
; ) =
1

n
si 0 x
i
pour 1 i n. Elle est nulle si ces conditions ne sont pas remplies,
cest--dire que L = L() = 0 pour < max {x
1
, . . . , x
n
}. Au-del de cette valeur, la
fonction L varie comme 1/, donc est dcroissante (voir gure 6.1). Par consquent,
il y a un maximum en ce point, o la vraisemblance nest pas drivable. Lemv est
donc :
M
n
= max {X
1
, . . . , X
n
}
0 max x
i

L
Figure 6.1
La valeur du paramtre tant la plus grande valeur possible de la variable, on
lestime logiquement par la plus grande observation de lchantillon. Pour tudier
les proprits de cet estimateur, il est ncessaire de dterminer sa loi de probabilit,
par lintermdiaire de sa fonction de rpartition :
G(x) = P(M
n
< x) = P
_
n
_
i=1
(X
i
< x)
_
=
n

i=1
P(X
i
< x) = F
n
(x)
car les variables de lchantillon sont indpendantes et de mme f.r. F. On obtient
la densit g en drivant :
g (x) = nF
n1
(x) f (x)
o f (x) = 1/ pour x [0, ] et f (x) = 0 en dehors de cet intervalle. La f.r. de X est
dnie par F(x) = x sur lintervalle [0, ]. Ainsi :
E(M
n
) =
_
+

xg (x) dx = n
_

0
x
n

n
dx =
n
n +1

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
102 TD Statistique et probabilits
donc cet estimateur est seulement asymptotiquement sans biais. Lestimateur sans
biais est :
T
n
=
n +1
n
M
n
Pour calculer sa variance, nous avons besoin de :
E
_
M
2
n
_
=
_
+

x
2
g (x) dx = n
_

0
x
n+1

n
dx =
n
n +2

2
Do on dduit :
V(M
n
) = E
_
M
2
n
_
E
2
(M
n
) =
n
(n +2) (n +1)
2

2
et enn :
V(T
n
) =

2
n(n +2)
Lensemble des valeurs prises par la variable est ici E = X() = [0, ], qui dpend
du paramtre ; donc pour calculer la quantit dinformation de Fisher, on doit
utiliser la premire formule fournie par la dnition :
I
n
() = E
_
lnL

_
2
La log-vraisemblance a ici comme expression lnL = nln, de drive n/ pour
M
n
, do :
I
n
() =
n
2

2
Si on compare la variance de lestimateur sans biais T
n
et la quantit 1/I
n
(), on
observe que :
V(T
n
) =

2
n(n +2)
<

2
n
2
=
1
I
n
()
Cependant, ce majorant nest pas une borne infrieure pour la variance des estima-
teurs sans biais, puisque les conditions de lingalit FDCR ne sont pas remplies. Il
nest donc pas anormal de trouver un estimateur sans biais de variance plus petite
que cette quantit.
17

Lestimateur naturel du paramtre = E(X) est la moyenne empirique
T
n
=

X
n
, qui est sans biais et convergent daprs la loi des grands nombres. Par
ailleurs, on peut remarquer que E
_
X
2
_
= V(X) + E
2
(X) = , donc le paramtre
sinterprte aussi comme la moyenne thorique de la loi de Y = X
2
. Lestimateur
S
n
=

Y
n
est la moyenne empirique de lchantillon de cette loi ; il est donc aussi
sans biais et convergent daprs la loi des grands nombres. Ces deux estimateurs
sans biais vont tre compars par leurs variances :
V(T
n
) = V(

X
n
) =
V(X)
n
=
(1 )
n
et V(S
n
) =
V(Y)
n
TD 6 Estimation ponctuelle 103
Pour pouvoir obtenir facilement la variance de Y = X
2
, on peut utiliser le fait
que (X )
2
/ (1 ) suit une loi du khi-deux un degr de libert, comme carr
dune loi normale centre-rduite. On en dduit :
V(X )
2
= E(X )
4
E
2
(X )
2
= 2
2
(1 )
2
car on sait par ailleurs que E(X )
4
= 3
2
(1 )
2
.
On crit enn X
2
= [(X ) +]
2
pour obtenir :
V
_
X
2
_
= V(X )
2
+4
2
V(X ) +4 Cov
_
X , (X )
2
_
= V(X )
2
+4
2
V(X) = 2
2
_
1
2
_
On forme le rapport des variances :
V(S
n
)
V(T
n
)
= 2 (1 +)
Comme ce rapport dpend du paramtre estimer, tant de valeur suprieure
1 pour

3 1
2
< < 1, la comparaison entre ces deux estimateurs nest pas
possible.
18

Le calcul de lesprance donne :
E(X) =
2

_

0
x
_
1
x

_
dx =
2

_
x
2
2

x
3
3
_

0
=

3
On cherche donc rsoudre lquation

X
n
= /3, de solution immdiate = 3

X
n
,
ce qui fournit lestimateur de la mthode des moments T
n
= 3

X
n
, qui va tre sans
biais par construction :
E(T
n
) = 3E
_

X
n
_
= 3E(X) =
et convergent daprs la loi des grands nombres :
T
n
= 3

X
n

p
3E(X) =
La question de lefcacit ne se pose pas ici car Xprendses valeurs dans lintervalle
[0, ], qui dpend du paramtre de la loi ; donc les conditions de lingalit FDCR
ne sont pas remplies.
Estimation
par intervalle
de conance 7
An de juger de la prcision du rsultat dun problme destimation, nous allons associer
un chantillon dune loi inconnue un ensemble de valeurs, et non plus une valeur unique.
Ces valeurs constituent gnralement un intervalle inclus dans lensemble des valeurs
possibles pour le paramtre. La dtermination de cet intervalle, dit de conance, seffectue
par la donne de la probabilit, dnomme niveau de conance, que la vraie valeur du
paramtre appartienne cet intervalle.
1. Dnition et principe de construction
Dnition. Un intervalle de conance pour le paramtre , de niveau de conance
1 ]0, 1[, est un intervalle qui a la probabilit 1 de contenir la vraie valeur
du paramtre .
Pour obtenir cet intervalle, on utilise un estimateur T
n
dont on connat la loi en
fonction de , ce qui permet de dterminer les valeurs t
1
= t
1
() et t
2
= t
2
() telles
que :
P

{t
1
() T
n
t
2
()} = 1
Il faut ensuite inverser cet intervalle pour T
n
an dobtenir un intervalle pour
, dont les bornes vont dpendre de lestimateur T
n
, cest--dire dterminer les
valeurs a = a (T
n
) et b = b (T
n
) telles que :
P

{a (T
n
) b (T
n
)} = 1
Ainsi, [a (T
n
) , b (T
n
)] est unintervalle de conance de niveau1pour le paramtre
. Il sobtient en dterminant lensemble des valeurs de pour lesquelles on a
simultanment, pour T
n
x :
t
1
() T
n
et T
n
t
2
()

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
106 TD Statistique et probabilits
Si par exemple ces deux fonctions sont croissantes, on voit sur la gure 7.1 que :
t
1
() T
n
t
1
1
(T
n
) et T
n
t
2
() t
1
2
(T
n
)
a(T
n
) = t
1
2
(T
n
) b(T
n
) = t
1
1
(T
n
)
T
n
T
n
t
1
()
t
2
()
Figure 7.1
Lintervalle est facile obtenir ici car les fonctions t
1
et t
2
sont inversibles :
t
1
() T
n
t
2
() a (T
n
) = t
1
2
(T
n
) t
1
1
(T
n
) = b (T
n
)
Le risque total = P

(T
n
< t
1
) +P

(T
n
> t
2
) peut tre a priori rparti de multiples
faons. Posons
1
= P

{ > b (T
n
)} et
2
= P

{ < a (T
n
)} ; les diffrents choix
possibles sont les suivants.
Intervalle bilatral (
1

2
> 0)
Symtrique :
1
=
2
= /2
Cest le choix que lon fait si la loi de T
n
est symtrique, ou si on na aucune
information particulire, ce choix tant le moins arbitraire.
Dissymtrique :
1
=
2
Seules des raisons trs particulires peuvent permettre de xer les valeurs de
1
et

2
telles que
1
+
2
= .
Intervalle unilatral (
1

2
= 0)
droite :
1
= 0,
2
=
Cest linterprtation donne au paramtre qui conduit un intervalle de la forme
> a (T
n
).
gauche :
1
= ,
2
= 0
Linterprtation du paramtre peut galement conduire un intervalle de la
forme < b(T
n
).
TD 7 Estimation par intervalle de conance 107
2. Intervalle pour une proportion
Soit (X
1
, . . . , X
n
) un chantillon dune v.a. X qui suit une loi de Bernoulli de para-
mtre p, estim par p
n
=

X
n
. On utilise la loi exacte de np
n
= S
n
pour dterminer
les solutions t
1
= t
1
_
p
_
et t
2
= t
2
_
p
_
des inquations P
_
np
n
nt
1
_
/2 et
P
_
np
n
nt
2
_
/2. On trace le graphe de ces deux fonctions de p. Pour une
valeur observe p
n
, lintersection de lhorizontale correspondante avec ces deux
courbes permet de lire sur laxe des abscisses lintervalle des valeurs de p pour
lesquelles on a simultanment t
1
_
p
_
p
n
et t
2
_
p
_
p
n
(voir gure 7.2). Ainsi,
lintervalle de conance sobtient par simple lecture de labaque.
0
1
p intervalle pour p 1
p
n
p
n
t
1
(p)
t
2
(p)
Figure 7.2
Si on ne dispose pas dabaque, on utilise la loi asymptotique dep
n
. On retient alors
un intervalle symtrique, partir de la valeur de a lue dans la table 2, page 203, de
la loi normale, telle que :
P
_
a <

n
p
n
p

pq
< a
_
= 1
On fait une seconde approximation en remplaant p par p
n
dans les bornes de
lintervalle, ce qui conduit lintervalle de conance pour p :
p
n
a
_
p
n
_
1 p
n
_
n
< p <p
n
+a
_
p
n
_
1 p
n
_
n
o a est le fractile dordre 1 /2 de la loi N(0, 1). Cette approximation est
acceptable pour np
_
1 p
_
3. On peut galement remplacer p
_
1 p
_
par sa
borne suprieure 1/4, et obtenir ainsi lintervalle approch le plus grand :
p
n

a
2

n
< p <p
n
+
a
2

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
108 TD Statistique et probabilits
3. Intervalles associs aux paramtres de la loi normale
On dispose dun chantillon (X
1
, . . . , X
n
) dune v.a. X qui suit une loi N(m, ).
3.1 Intervalle pour la moyenne dune loi normale dcart type
connu
La moyenne empirique

X
n
est un estimateur de mdont on connat la loi de probabi-
lit, qui est la loi normale N
_
m, /

n
_
. Lintervalle de conance pour le paramtre
mest dtermin partir de la valeur de sa probabilit : 1 = P
_
b <

X
n
m < a
_
.
La loi de la v.a.

X
n
m tant symtrique, on choisit b = a, qui doit vrier la
condition :
1 = P
_

a
/

n
<

X
n
m
/

n
<
a
/

n
_
Lintervalle de conance, de niveau 1 , pour le paramtre m est donc :

X
n
u

n
< m <

X
n
+u

n
o u est le fractile dordre 1 /2 de la loi normale standard, soit u =

1
(1 /2) , tant la f.r. de la loi N(0, 1).
3.2 Intervalle pour la moyenne dune loi normale dcart type
inconnu
La statistique utilise dans la situation prcdente tait la variable normale centre-
rduite :

X
n
m
/

n
=

n

X
n
m

Le paramtre tant inconnu va tre remplac par un estimateur, bas sur lesti-
mateur sans biais de
2
:
S
2
n
=
1
n 1
n

i=1
_
X
i


X
n
_
2
On utilise donc comme nouvelle statistique :

X
n
m
S
n
de loi de Student n 1 degrs de libert. Par lecture de la table 6, page 200, on
dtermine la valeur de t telle que :
P
_
t <

X
n
m
S
n
< t
_
= 1
La valeur de t est le fractile dordre 1 /2 de la loi de Student T
n1
, ce qui fournit
lintervalle de conance pour m de niveau 1 :
P
_

X
n
t
S
n

n
< m <

X
n
+t
S
n

n
_
= 1
TD 7 Estimation par intervalle de conance 109
3.3 Intervalle pour la variance dune loi normale desprance
connue
Lestimateur sans biais de
2
, bas sur lchantillon (X
1
, . . . , X
n
) de cette loi N(m, )
o m est connu est :

2
n
=
1
n
n

i=1
(X
i
m)
2
de loi connue : n
2
n
/
2

2
n
. On peut donc dterminer les valeurs de a et b telles
que :
P
_
a < n

2
n

2
< b
_
= 1
Ce qui conduit lintervalle de conance dni par :
P
_
n

2
n
b
<
2
< n

2
n
a
_
= 1
Cependant, il ny a quune seule condition pour dterminer les deux valeurs a et b
et il reste un degr dincertitude puisque la loi utilise nest pas symtrique. Si on
pose
1
= P
_

2
n
< a
_
et
2
= P
_

2
n
> b
_
, la seule contrainte dans le choix de
1
et

2
est
1
+
2
= .
3.4 Intervalle pour la variance dune loi normale desprance
inconnue
Quand le second paramtre mde la loi normale est inconnu, lestimateur sans biais
de
2
quil faut retenir est :
S
2
n
=
1
n 1
n

i=1
_
X
i


X
n
_
2
Sa loi est connue, (n 1) S
2
n
/
2

2
n1
, et on peut dterminer les valeurs de a et b
telles que :
P
_
a < (n 1)
S
2
n

2
< b
_
= 1
Ce qui permet den dduire lintervalle de conance dni par :
P
_
(n 1)
S
2
n
b
<
2
< (n 1)
S
2
n
a
_
= 1
L encore, il ny a quune seule contrainte pour dterminer les valeurs de a et b. Si
nous posons
1
= P
_

2
n1
< a
_
et
2
= P
_

2
n1
> b
_
, la contrainte est
1
+
2
= .
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
110 TD Statistique et probabilits
Vrai Faux
1. Onpeut toujours trouver unintervalle de conance qui contient
le paramtre avec une probabilit gale 1.
2. un estimateur donn du paramtre, de loi connue, on peut
associer une innit dintervalles de conance de mme niveau de
conance donn.
3. La frquence empirique f
n
permet de construire un intervalle
de conance pour le paramtre dune loi de Bernoulli, de niveau
exact 1 , avec 0 < < 1.
4. Cest pour une proportion p voisine de 50 % que lestimation
de ce paramtre est la plus imprcise.
5. Pour un niveau de conance donn, lintervalle pour la
moyenne dune loi normale dcart type connu est de longueur
minimale si on le choisit symtrique.
6. Pour un niveau de conance donn et une taille dchantillon
donne, la longueur dun intervalle bilatral symtrique est xe.
7. Un intervalle de conance pour une moyenne a une longueur
xe pour un niveau donn et une taille dchantillon n donne,
cette longueur tendant vers zro avec 1/n.
8. Sur un chantillon de 100 objets prlevs dans un lot de fabrication, on na
observ aucun dfectueux. La proportion p de dfectueux admet donc comme
estimationp
100
= 0. Peut-on retenir, avec lapproximation normale, lintervalle de
conance de niveau 0,95 qui se rduit la valeur 0 ou lintervalle approch le plus
grand qui est 0,10 < p < 0,10?
9. Une socit de vente par correspondance dsire tablir le prol de sa clientle et
extrait par tirage sans remise cent dossiers de son chier clients. Malheureusement
vingt dentre eux savrent inexploitables. Indiquer comment partir dun inter-
valle de conance on peut dterminer le nombre minimum de dossiers extraire
pour quil y en ait au moins mille dexploitables avec une probabilit de 0,95.
10. Le chiffre daffaires moyen dun commerant, calcul sur les trente derniers
jours, est de 2 000 francs, avec un cart type empirique de valeur s
30
= 300 francs.
TD 7 Estimation par intervalle de conance 111
Si on admet que son chiffre daffaires quotidien peut tre reprsent par une v.a. X
de loi normale, desprance m et dcart type inconnus, donner un intervalle de
conance de niveau 0,95 pour le paramtre m. Obtient-on le mme intervalle si
est connu, de valeur = 300?
11. Un sondage effectu auprs de 1 000 personnes, rparties en cinq groupes de
200 personnes, a donn comme valeur moyenne de dpenses mensuelles consa-
cres aux loisirs 301 F. Nayant relev que la dispersion empirique des moyennes
empiriques de chacun des cinq groupes, soit lcart type empirique s
5
= 15,51,
construire un intervalle de conance de niveau 0,95 pour cette dpense de loisirs.
Comment expliquer lamplitude de lintervalle alors que lenqute porte sur 1 000
individus?
Intervalles pour une proportion
12. Sur 100 personnes interroges, 51 dclarent quelles voteront pour le can-
didat D. Magog aux prochaines lections prsidentielles. Donner un intervalle
de conance de niveau 0,95 pour la proportion p dintentions de vote pour ce
candidat, dans la population. Mme question si ce sondage a t effectu auprs
dun chantillon de 1 000 personnes. Combien aurait-il fallu interroger dlecteurs
pour que le rsultat soit fourni 2 % prs?
Analyse de lnonc et conseils. Lintervalle pour p peut tre dtermin par simple
lecture de labaque 2, page 204, ou par lapproximation normale puisque la taille de
lchantillon le permet. La longueur de cet intervalle peut sexprimer en fonction de
la taille dchantillon, dont la valeur minimale peut tre dtermine pour que cette
longueur soit infrieure 4 %.
13. la sortie dune chane de montage, 20 vhicules automobiles tirs au sort
sont tests de faonapprofondie et 2 dentre eux prsentent des dfauts importants.
Donner un intervalle de conance de niveau 0,95 pour la proportion p de vhicules
fabriqus qui prsentent des dfauts importants.
Analyse de lnonc et conseils. Linterprtation du paramtre p conduit ici
construire un intervalle unilatral gauche, sans utiliser lapproximation normale
puisque la taille dchantillon est trop faible.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
112 TD Statistique et probabilits
Moyenne dune loi normale dcart type connu
14. On a effectu 25 peses dun objet, avec une balance dont la prcision est
mesure par lcart type = 1. La totalisation de ces peses tant de 30,25 g,
donner un intervalle de conance de niveau 0,90 pour le poids de cet objet.
Analyse de lnonc et conseils. Le rsultat dune pese peut tre considr comme
une v.a. qui suit une loi normale dont la moyenne est gale au vrai poids de lobjet
et dont lcart type est la caractristique de prcision fournie par le constructeur de la
balance. On est alors ramen au problme classique de lintervalle de conance pour la
moyenne dune loi normale dcart type connu.
Moyenne dune loi normale dcart type inconnu
15. Un fabricant dampoules lectriques annonce une dure de vie moyenne
de ses ampoules de 170 heures. An de vrier cette afrmation, un organisme
de dfense des consommateurs prlve au hasard 100 ampoules dans un lot de
fabrication et, lissue de lexprimentation, constate une moyenne de dure de
vie de 158 heures, avec un cart type empirique de 30 heures. Si on admet que
cette dure de vie suit une loi normale, peut-on dduire de cette enqute que
lafrmation du fabricant est mensongre?
Analyse de lnonc et conseils. Lafrmation du fabricant peut tre valide partir
de la construction dun intervalle de conance qui devrait contenir la valeur 170.
En choisissant un niveau de conance de 99 % au lieu de la valeur habituelle 95 %,
lintervalle obtenu sera plus grand, ce qui est plus favorable au fabricant. Pour que le
rsultat ne puisse pas tre contest, on peut mme choisir un intervalle unilatral de la
forme m < constante.
Variance dune loi normale de moyenne connue
16. Pour estimer la prcision dun thermomtre, on ralise n = 100 mesures ind-
pendantes de la temprature dun liquide maintenu une temprature constante
de 20 degrs Celsius. Les observations x
i
, 1 i 100, ayant conduit la valeur

100
i=1
x
2
i
= 40 011, construire un intervalle de conance de niveau 0,95 pour la
prcision de ce thermomtre, mesure par la dispersion
2
des mesures.
Analyse de lnonc et conseils. Si on fait lhypothse classique de normalit des
erreurs de mesure, il sagit de construire un intervalle de conance pour la variance
dune loi normale, de moyenne connue m = 20. On peut donner un intervalle sym-
trique, mais compte tenu de linterprtation du paramtre, il parat plus logique de
construire un intervalle donnant une borne suprieure de ce qui mesure en fait limpr-
cision du thermomtre.
TD 7 Estimation par intervalle de conance 113
Variance dune loi normale de moyenne inconnue
17. Ande vrier la rgularit des horaires des bus, la RATPa effectu 71 relevs
des carts ensecondes constats entre larrive des bus unarrt et lhoraire moyen
constat. Lestimation sans biais du paramtre
2
obtenue a t de 5 100. En dduire
un intervalle de conance de niveau 0,95 pour cette mesure de la rgularit des
horaires.
Analyse de lnonc et conseils. On fait toujours lhypothse classique de normalit
des erreurs de mesure, donc il sagit toujours de construire un intervalle de conance
pour la variance dune loi normale, mais cette fois de moyenne inconnue. Seuls en effet
sont ici relevs les carts la moyenne empirique.
Loi de Poisson
18. Le nombre dinterruptions du trac de plus dune minute, dans une journe,
sur la ligne Adu RER, est suppos suivre une loi de Poisson de paramtre inconnu,
que lon se propose destimer partir du relev de ces interruptions sur 200
journes. Les moments empiriques calculs sur cet chantillon ont pour valeurs
x
200
= 3 et s
2
200
= 3,2. En dduire un intervalle de conance de niveau 0,95 pour le
paramtre de cette loi de Poisson.
Analyse de lnonc et conseils. On sait que la moyenne empirique est un estimateur
efcace de la moyenne de la loi de Poisson. La loi exacte de cet estimateur ne pouvant
pas tre utilise, on construit un intervalle approch partir de la loi asymptotique,
dduite du thorme central limite. Pour que les ingalits obtenues ne soient pas trop
difciles exploiter, on remplacera au dnominateur le paramtre par son estimateur.
cart type de la loi normale
19. Soit X une v.a. de loi normale N(0, ) o est un paramtre rel strictement
positif, que lon se propose destimer partir dun chantillon (X
1
, . . . , X
n
) de cette
loi. Construire, partir de :
D
n
=
1
n
n

i=1
|X
i
|
un estimateur sans biais de et montrer quil est convergent. partir de lobser-
vation D
100
= 1,084, construire un intervalle de conance de niveau 0,95 pour .
Analyse de lnonc et conseils. On dtermine les moments de la v.a. |X| pour
construire lestimateur demand par la mthode des moments et tudier ensuite ses
proprits. Lintervalle de conance sera obtenu partir de sa loi asymptotique, dduite
du thorme central limite.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
114 TD Statistique et probabilits
Loi exponentielle
20. La dure de vie dun certain matriel lectronique est une v.a. X de loi
exponentielle de paramtre > 0 et (X
1
, . . . , X
n
) est un chantillon de cette loi.
Dterminer, par la mthode des moments, un estimateur sans biais de et montrer
quil est convergent. Construire un intervalle de conance de niveau 0,95 pour
partir dun chantillon o on a observ une moyenne empirique x
100
= 0,79.
Analyse de lnonc et conseils. On rsout lquation en obtenue par galisation des
moyennes thorique et empirique et on ajuste pour obtenir un estimateur sans biais. On
construira lintervalle de conance partir du thorme central limite donnant ensuite
la loi asymptotique de cet estimateur partir de la loi limite dune suite image gurant
dans les rappels de cours du chapitre 5.
Loi exponentielle tronque
21. Soit X une v.a. de densit :
f (x ; ) =
_
e
(x)
si x
0 sinon
o est un paramtre rel inconnu. Si (X
1
, . . . , X
n
) est un chantillon de cette
loi, dterminer partir de m
n
= min{X
1
, . . . , X
n
} un estimateur sans biais de .
Construire unintervalle de conance de niveau0,95 pour partir dunchantillon
o on a observ m
100
= 1,26.
Analyse de lnonc et conseils. Il faut au pralable dterminer la loi de probabilit
de la valeur minimale de lchantillon pour ensuite calculer ses moments et en dduire
un estimateur sans biais. Cest en utilisant la fonction de rpartition de m
n
que lon
pourra obtenir un intervalle de conance de niveau exact 0,95 pour le paramtre.
Loi de Pareto
22. Le revenu mensuel X, en francs constants, des mnages dune population
donne est considr comme une v.a. de densit :
f (x ; ) =
_
_
_
3
3
x
4
si x
0 sinon
o est le revenu minimum de cette population. Si (X
1
, . . . , X
n
) est un chantillon
de cette loi, construire partir de m
n
= min{X
1
, . . . , X
n
} un estimateur sans biais
de . Construire un intervalle de conance de niveau 0,98 pour partir dun
chantillon o on a observ m
300
= 4,04.
TD 7 Estimation par intervalle de conance 115
Analyse de lnonc et conseils. On dtermine au pralable la loi de probabilit de
la valeur minimale de lchantillon pour ensuite calculer les moments et en dduire
un estimateur sans biais. Cest en utilisant la fonction de rpartition de m
n
que lon
pourra obtenir un intervalle de conance de niveau exact 0,98 pour le paramtre.
1

Vrai. Il suft de le choisir sufsamment grand. Sil sagit dune proportion, elle
est contenue dans [0, 1] avec une probabilit gale 1. Si le paramtre est positif,
lintervalle [0, +[ le contient avec une probabilit gale 1.
2

Vrai. Comme il ny a quune condition pour dterminer les deux bornes de
lintervalle de conance, il y a une innit de choix possibles. Pour xer lintervalle,
il faut imposer une condition supplmentaire, comme par exemple lintervalle
unilatral droite ou lintervalle bilatral symtrique.
3

Faux. La loi binmiale de nf
n
ne permet pas de construire un intervalle de
conance de niveau exact, car cest une loi discrte. Les abaques permettent cepen-
dant dobtenir un niveau trs lgrement suprieur celui souhait, dautant plus
proche de la valeur exacte que la taille dchantillon n est leve.
4

Vrai. La frquence empirique f
n
qui est lestimateur de p a une variance pro-
portionnelle p
_
1 p
_
, produit de deux termes dont la somme est constante et qui
est maximal quand ils sont gaux, soit p = 0,5. Cest donc au voisinage de cette
valeur que lintervalle de conance sera de longueur maximum.
5

Vrai. La loi de lestimateur moyenne empirique tant la loi normale sym-
trique, la longueur de lintervalle symtrique par rapport son centre sera mini-
male.
6

Faux. Si la loi de lestimateur dpend dun autre paramtre inconnu quil faut
estimer, cette longueur peut tre une variable alatoire, comme dans le cas de
lintervalle de conance pour la moyenne dune loi normale dcart type inconnu.
7

Faux. Si on prend lexemple de lintervalle de conance pour la moyenne
dune loi normale, lnonc est vrai si lcart type est connu, mais faux dans le
cas contraire. En effet, dans ce dernier cas, lintervalle est de longueur alatoire
L
n
= 2tS
n
/

n, qui tend cependant en probabilit vers zro quand n tend vers


linni.
8

Bien sr, aucune de ces deux rponses nest satisfaisante. Le paramtre p tant
positif, on pourrait retenir lintervalle 0 < p < 0,10 qui est bien de niveausuprieur
0,95 mais trs approximatif puisquil correspond au cas, le plus dfavorable, dun
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
116 TD Statistique et probabilits
paramtre voisinde 0,5 alors que manifestement ici il est proche de zro ! Rappelons
dautre part que lapproximation normale nest considre comme justie que
si np
_
1 p
_
3, donc il faudrait que p soit suprieur ici 4 %. Il faut donc
avoir recours labaque 2, page 204, qui va fournir lintervalle le plus exact, soit
0 < p < 0,04. Cependant, si on ne dispose pas de cet abaque, on peut quand mme
partir de lapproximation normale donnant lintervalle symtrique :
P
_
a <

n
p
n
p

pq
< a
_
= 1
avec ici p
100
= 0. Mais on nutilisera pas la seconde approximation de p par p
100
au dnominateur puisque cette valeur est nulle. Pour 1 = 0,95 on lit a = 1,96
donc on est amen rsoudre les ingalits :
1,96 <

n
p

pq
< 1,96
Comme p > 0, cela se rduit :
1,96 >

n
_
p
1 p
soit lintervalle de conance :
0 < p <
1,96
2
n +1,96
2
= 0,04
9

Si on associe chaque dossier du chier une variable de Bernoulli X qui prend
la valeur 1 quand il nest pas exploitable, on aura P(X = 1) = p qui reprsentera
la proportion de dossiers inexploitables. Si on prlve n dossiers, il y en aura
n

n
i=1
X
i
qui pourront tre utiliss. La condition impose se traduit donc par
P
_
n

n
i=1
X
i
1 000
_
= 0,95 qui peut encore scrire P
_

X
n
1 1 000/n
_
= 0,95.
La quantit 1 1 000/n peut donc sinterprter comme la borne suprieure dun
intervalle de conance unilatral pour une proportion, de niveau 0,95. Ayant
observ sur un chantillon de taille 100 la valeur p
100
= 0,2, on obtient par lecture
de labaque 1, page 203, lintervalle p < 0,28, ce qui correspond la valeur de n
telle que 1 000/n = 0,72, soit n = 1 389.
10

On applique la formule donne dans les rappels de cours avec x
30
= 2 000
et s = 300, la table 6 donnant comme fractile dordre 0,975 de la loi de Student
29 degrs de libert la valeur t = 2,045. Lintervalle de conance obtenu est
donc 1 888 < m < 2 112. Lestimation de tant exactement gale la valeur
de ce paramtre, on aurait pu penser que lintervalle ne serait pas modi. Mais
lapplication des formules du cours dans le cas o est connu, avec comme fractile
dordre 0,975 de la loi normale u = 1,96, conduit lintervalle 1 893 < m < 2 107.
Sa longueur est 214, lgrement infrieure celle, 224, de lintervalle prcdent.
Ainsi, mme dans le cas dune estimationsans erreur, le fait destimer unparamtre
inconnu fait perdre de linformation et donc fournit un intervalle moins prcis.
TD 7 Estimation par intervalle de conance 117
11

Si Xest la v.a. qui reprsente la dpense consacre aux loisirs, de loi suppose
normale N(m, ), on ne dispose pas ici de 1 000 observations de cette variable, mais
seulement de lchantillon des moyennes empiriques M
j
, 1 j 5, cest--dire
dune v.a. M qui suit une loi N
_
m, /

200
_
. Lintervalle de conance pour m est
donc bas sur la statistique

5
_

M
5
m
_
/S
5
qui suit une loi de Student quatre
degrs de libert. Il est donc de la forme :

M
5
t
S
5

5
< m <

M
5
+t
S
5

5
o t est le fractile dordre 0,975 de la loi T
4
lu dans la table 6, page 200, soit
t = 2,776. Lintervalle obtenu est donc 282 < m < 320. Lamplitude assez leve
de cet intervalle, malgr une taille dchantillon importante, sexplique par une
grande dispersion du caractre mesur dans les cinq groupes, qui paraissent assez
dissemblables quant leur comportement vis--vis des loisirs.
12

La lecture de labaque pour n = 100 et p
100
= 0,51 donne lintervalle
0,42 < p < 0,62. Le fractile dordre 0,975 de la loi normale a comme valeur a = 1,96,
ce qui fournit comme nouvel intervalle approch 0,41 < p < 0,61 de mme
longueur que le prcdent mais dcal de 1 % vers la gauche. Enn, en rem-
plaant p
_
1 p
_
par sa borne suprieure 1/4, on obtient le mme intervalle, ce
qui sexplique par la valeur exacte de p qui doit tre effectivement proche de 0,5.
Pour une taille dchantillon n = 1 000, on ne peut plus utiliser labaque, mais
lapproximation normale fournit un intervalle prcis, soit ici 0,48 < p < 0,54 de
longueur 6 %. Pour une taille dchantillonnquelconque, la longueur de lintervalle
est :
l
n
= 2a
_
p
n
_
1 p
n
_
n
et la condition l
n
0,04 impose n 2 500a
2
p
n
_
1 p
n
_
. Pour une estimation voisine
ici de 0,5, on aboutit la contrainte n 2 400. Dans le cas le plus dfavorable dune
proportion voisine de 50 %, il faut donc des tailles dchantillon leves pour
lestimer avec prcision.
13

On obtient ici p
20
= 0,10 et np
20
_
1 p
20
_
= 1,8, ce qui nautorise pas
admettre que np
_
1 p
_
3, condition de validit de lapproximation normale.
Lintervalle unilatral exact est fourni par labaque 1, page 203 : p < 0,28. Lutili-
sation de lapproximation normale avec le fractile dordre 0,95 a = 1,644 9 aurait
donn lintervalle p < 0,21 assez loign de lintervalle exact.
14

On peut considrer que la valeur indique par la balance est une v.a. X de
loi normale, desprance m gale au poids rel de lobjet et dcart type = 1. Le
fractile dordre 0,95 de la loi normale tant u = 1,644 9, lobservation

25
i=1
x
i
=
30,25 conduit lestimation ponctuelle x
25
= 1,21 puis lintervalle de conance
0,88 < m < 1,54. Compte tenu du petit nombre de mesures et de la valeur leve
de lcart type, cet intervalle est peu prcis.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
118 TD Statistique et probabilits
15

Pour construire un intervalle de conance pour la moyenne m de cette loi
normale dcart type inconnu , on utilise la statistique

n
_

X
n
m
_
/S
n
qui suit
une loi de Student n1 degrs de libert. Avec ici n = 100, on lit dans la table 6 le
fractile dordre 0,995 : t = 2,63. On obtient comme intervalle bilatral symtrique :
150 < m < 166. La valeur indique par le fabricant est bien en dehors de cet
intervalle. Si on choisit un intervalle de mme niveau, mais unilatral gauche, il
sera dni par :
P
_

X
n
m
S
n
> t
_
= 0,99
soit t = 2,37 et lintervalle m < 165. Il y a donc 99 chances sur 100 que cette publicit
soit mensongre.
16

On obtient comme estimation de la variance :

2
100
=
1
100
100

i=1
x
2
i
m
2
= 0,11
Les fractiles dordre 0,025 et 0,975 de la loi du khi-deux 100 degrs de libert, lus
dans la table 5, page 199, sont respectivement a = 74,22 et b = 129,56, do
lintervalle bilatral symtrique 0,08 <
2
< 0,15. Si on retient un intervalle
unilatral gauche, le fractile dordre 0,05 est a = 77,93, ce qui donne comme
intervalle
2
< 0,14.
17

Pour un intervalle de conance bilatral symtrique, on relve dans la table 5
les fractiles dordres respectifs 0,025 et 0,975 70 degrs de libert a = 48,76 et
b = 95,02, do 3 757 <
2
< 7 322. Pour un intervalle unilatral gauche, le
fractile dordre 0,05 est a = 51,74, ce qui donne comme intervalle
2
< 6 900.
18

Daprs le thorme central limite, lestimateur du paramtre , centr et
rduit, converge en loi vers la loi normale centre et rduite :

X
n

loi
N(0, 1)
Les inquations que lon peut en dduire sexprimant en fonction de et

,
on remplace le paramtre au dnominateur par son estimateur et lintervalle de
conance bilatral symtrique se dduit de la condition :
P
_
u <

X
n

_

X
n
< u
_
= 0,95
oon retient comme valeur approche de u le fractile dordre 0,975 de la loi N(0, 1),
soit u = 1,96. Lintervalle obtenu est alors :
u
_

X
n
n
<

X
n
< u
_

X
n
n


X
n
u
_

X
n
n
< <

X
n
+u
_

X
n
n
soit pour cet chantillon 2,76 < < 3,24.
TD 7 Estimation par intervalle de conance 119
19

Pour calculer lesprance de |X|, on fait le changement de variable 2
2
u = x
2
:
E(|X|) =
1

2
_
+

|x| e
x
2
/2
2
dx =
2

2
_
+
0
e
u
du =
_
2

Lexpression de la variance se dduit aisment de la formule dveloppe :


V(|X|) = E
_
|X|
2
_
E
2
(|X|) =
2

2
=
_
1
2

2
Lestimateur de obtenupar la mthode des moments est solution de D
n
=
_
2/,
puisque D
n
est la moyenne empirique de lchantillon (|X
1
| , . . . , |X
n
|). La solution
est lestimateur, sans biais par construction :
T
n
=
_

2
D
n
Il est convergent, daprs la loi des grands nombres, puisque :
D
n

p
E(|X|) =
_
2

Cet estimateur tant sans biais et de variance :


V(T
n
) =

2
V(D
n
) =

2n
V(|X|) =
_

2
1
_

2
n
qui tend vers zro, est dailleurs aussi convergent en moyenne quadratique. Sa loi
asymptotique va se dduire du thorme central limite :

n
D
n
E(|X|)
(|X|)

loi
N(0, 1)
En multipliant numrateur et dnominateur par
_
/2, on obtient en effet :

n
T
n

_
/2 1

loi
N(0, 1)
On peut alors obtenir un intervalle bilatral symtrique de niveau voisin de 0,95
par la relation :
P
_
u <

n
T
n

_
/2 1
< u
_
= 0,95
en prenant pour valeur approche de u le fractile dordre 0,975 de la loi N(0, 1),
soit u = 1,96. La rsolution de cette double ingalit conduit :
u
_
2
2n
< T
n
< u
_
2
2n

_
1 u
_
2
2n
_
< T
n
<
_
1 +u
_
2
2n
_

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
120 TD Statistique et probabilits
Do lintervalle pour lcart type :
T
n
1 +u
_
( 2) /2n
< <
T
n
1 u
_
( 2) /2n
Soit, pour cet chantillon, lintervalle de conance : 1,16 < < 1,56.
20

Onsait que la moyenne thorique de la loi exponentielle E () est E(X) = 1/,
donc la mthode des moments conduit rsoudre lquation en : 1/ =

X
n
. La
solution fournit lestimateur

n
= 1/

X
n
. La loi exponentielle est la loi (1, ) ;
donc n

X
n
= S
n
=

n
i=1
X
i
suit une loi (n, ), dont la densit permet de calculer
lesprance de cet estimateur :
E
_

n
_
= nE
_
1
S
n
_
=
n
(n)
_
+
0

n
e
x
x
n2
dx
=
n
(n)
_
+
0
u
n2
e
u
du =
n(n 1)
(n)
=
n
n 1

Cet estimateur est asymptotiquement sans biais, lestimateur sans biais tant :
T
n
=
n 1
n

n
=
n 1
S
n
La loi des grands nombres permet dobtenir la convergence en probabilit de

X
n
vers E(X) = 1/ et le thorme de Slutsky permet de conclure que 1/

X
n
converge
vers , donc aussi T
n
puisque (n 1) /n tend vers 1. On peut aussi calculer la
variance de cet estimateur partir de :
E
_
1
S
2
n
_
=
1
(n)
_
+
0

n
e
x
x
n3
dx =

2
(n)
_
+
0
u
n3
e
u
du
=
2
(n 2)
(n)
=

2
(n 1) (n 2)
Do on dduit V(1/S
n
) =
2
/ (n 1)
2
(n 2), puis :
V(T
n
) = (n 1)
2
V
_
1
S
n
_
=

2
n 2
qui tend vers zro quand n devient inni. Donc, T
n
converge en moyenne qua-
dratique vers , puisquil est sans biais. La loi de T
n
nest pas une loi tabule qui
permet de construire un intervalle de conance, donc on utilise la loi asymptotique
dduite du thorme central limite :

X
n
1/
1/

loi
N(0, 1)
car, pour la loi exponentielle E (), V(X) = 1/
2
. Pour obtenir la loi asymptotique
de

n
= 1/

X
n
on applique le rsultat relatif la loi limite dune suite image vue
TD 7 Estimation par intervalle de conance 121
au chapitre 5, avec

n
= g
_

X
n
_
et g (x) = 1/x, soit g

(x) = 1/x
2
et

(1/)

=
2
,
do :

loi
N(0, 1)
Le rsultat est le mme pour T
n
=
n 1
n

n
puisque
n 1
n
tend vers 1 quand n
devient inni. On obtient donc unintervalle de conance bilatral symtrique pour
partir de la condition :
P
_
u <

n
T
n

< u
_
= 0,95
en remplaant u par le fractile dordre 0,975 de la loi normale centre-rduite, soit
u = 1,96. La rsolution de cette double ingalit pour conduit lintervalle :
u

n
< T
n
< u

n

T
n
1 +u/

n
< <
T
n
1 u/

n
Soit, pour cet chantillon 1,05 < < 1,56.
21

Pour dterminer la loi de m
n
= min{X
1
, . . . , X
n
}, on considre lvnement
m
n
> x qui est quivalent lvnement tous les X
i
sont suprieurs x. Les v.a. X
i
tant indpendantes et de mme loi de f.r. F, on en dduit :
P(m
n
> x) = P
_
n
_
i=1
(X
i
> x)
_
=
n

i=1
P(X
i
> x) = [1 F(x ; )]
n
La f.r. de X est nulle pour x < et dexpression :
F(x ; ) =
_
x

e
(t)
dt = 1 e
(x)
pour x . La f.r. de m
n
est donc aussi nulle pour x < et dnie par :
G(x ; ) = 1 e
n(x)
pour x , sa densit tant g (x ; ) = ne
n(x)
. On peut alors calculer son
esprance :
E(m
n
) = n
_
+

xe
n(x)
dx = n
_
+

(x ) e
n(x)
dx +n
_
+

e
n(x)
dx
=
1
n
_
+
0
ue
u
du +
_
+

g (x ; ) dx =
1
n
+
la premire intgrale tant lesprance dune loi exponentielle de paramtre 1 et la
seconde lintgrale de la densit de m
n
. Lestimateur sans biais construit partir de
m
n
est donc T
n
= m
n
1/n. Comme m
n
> , on aura T
n
> 1/n; donc lintervalle
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
122 TD Statistique et probabilits
retenu sera de la forme T
n
a < < T
n
+ 1/n. La f.r. de m
n
va permettre de
dterminer un intervalle de conance de niveau 1 par la condition :
1 = P
_

1
n
< T
n
< a
_
= P
_
< m
n
< +a +
1
n
_
= G
_
+a +
1
n
;
_
G( ; ) = G
_
+a +
1
n
;
_
= 1 e
na1
soit = e
(na+1)
ou a =
_
1 +ln
_
/n, ce qui correspond lintervalle :
m
n
+
ln
n
< < m
n
Pour cet chantillon , on obtient lintervalle : 1,23 < < 1,26.
22

Comme dans lexercice prcdent, on dtermine la loi de m
n
=
min{X
1
, . . . , X
n
} partir de :
P(m
n
> x) = P
_
n
_
i=1
(X
i
> x)
_
=
n

i=1
P(X
i
> x) = [1 F(x ; )]
n
La f.r. F de X est nulle pour x < et dexpression :
F(x ; ) = 3
3
_
x

dt
t
4
=
3
_
t
3
_
x

= 1

3
x
3
pour x . La f.r. de m
n
est donc aussi nulle pour x < et dnie par :
G(x ; ) = 1
_

x
_
3n
pour x , sa densit tant g (x ; ) = 3n
3n
/x
3n+1
. On peut alors calculer son
esprance :
E(m
n
) = 3n
_
+

3n
x
3n
dx = 3n
3n
_

1
(3n 1) x
3n1
_
+

=
3n
3n 1

Lestimateur sans biais est donc T


n
=
3n 1
3n
m
n
. En raison de la condition m
n
>
et la f.r. de m
n
dpendant de x/, lintervalle de conance de niveau 1 est
dtermin par la condition :
1 = P(0 < m
n
< a) = P( < m
n
< +a)
= G( +a ; ) G( ; ) = G( +a ; ) = 1
1
(1 +a)
3n
soit (1 +a)
3n
= 1/ ou ln(1 +a) = ln/3n. Lintervalle pour le paramtre est :
m
n
1 +a
< < m
n
Pour = 0,02 et n = 300, on obtient a = 0,004 et lintervalle 4,02 < < 4,04, donc
intervalle trs troit.
Thorie
des tests 8
Btir un test ncessite, comme pour un problme destimation, de construire au pralable
un modle statistique o la v.a. X suit une loi de probabilit P

, qui dpend dun paramtre


inconnu. On fait lhypothse a priori que la valeur de ce paramtre est gale une valeur
xe
0
et on cherche valider cette hypothse, au vu dun chantillon de la loi de X. Cette
hypothse qui est privilgie, parce quelle parat la plus vraisemblable a priori, est appele
hypothse nulle et note H
0
. Construire un test va consister dcouper lensemble R
n
des
ralisations possibles du n-chantillon en deux rgions, celle o lon dcidera daccepter
H
0
, et celle o on dcidera de la rejeter, qui se nommera rgion critique du test. Pour
dlimiter ces deux rgions, on xera une valeur faible la probabilit de lerreur qui
consiste dcider, au vu de lchantillon, de rejeter lhypothse nulle alors que celle-ci est
vrie. Cette probabilit se nomme risque de premire espce, sa valeur standard tant de
5 %. Lorsque le paramtre ne peut prendre que deux valeurs distinctes
0
et
1
, cest le
thorme de Neyman et Pearson qui permet de dterminer la forme de la rgion critique,
partir du rapport des vraisemblances associes chacune des deux valeurs possibles du
paramtre.
1. Dnitions et principe gnral de construction
On considre un modle statistique o la loi de probabilit P

de la v.a. X dpend
dun paramtre inconnu qui varie dans un sous-ensemble donn de R. On
suppose que cet ensemble est partitionn en deux sous-ensembles donns
0
et
1
,
auxquels vont tre associes les deux hypothses notes H
0
:
0
et H
1
:
1
.
Construire un test consiste dnir une rgle de dcision qui va associer une dcision
un chantillon observ (X
1
, . . . , X
n
) de la loi de X, les deux dcisions possibles
tant D
0
: accepter H
0
, et D
1
: accepter H
1
. chaque dcision correspondune rgion
de R
n
, qui va donc tre partitionne en deux sous-ensembles W et

W, cest--dire
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
124 TD Statistique et probabilits
que si la ralisation de lchantillon est un point (x
1
, . . . , x
n
) de W, on dcide D
1
,
donc on rejette H
0
; dans le cas contraire, cest--dire pour un point de

W, on dcide
D
0
, donc on accepte H
0
.
Dnitions. La rgion W de rejet de lhypothse nulle H
0
se nomme rgion critique
du test et la rgion

W rgion dacceptation.
La construction dun test va donc consister dterminer cette rgion critique et la
mthode retenue dpendra des consquences que lon attribue chacune des deux
erreurs qui sont associes aux deux dcisions possibles et qui sont les suivantes.
Dnitions. Lerreur de premire espce consiste dcider D
1
alors que H
0
est vraie,
soit rejeter tort lhypothse nulle H
0
. Lerreur de seconde espce consiste dcider
D
0
alors que H
1
est vraie, soit accepter tort lhypothse nulle H
0
.
2. Mthode de Bayes
On se place dans le cas o on a attribu des probabilits a priori p
0
et p
1
= 1 p
0
chacune des hypothses respectives H
0
et H
1
et que lon a galement associ un
cot chaque dcision, en fonction de lhypothse qui est effectivement ralise.
Le tableau suivant contient ces cots, la dcision prise gurant en colonne et
lhypothse vraie en ligne :
D
0
D
1
H
0
_
p
0
_
C
00
C
01
H
1
_
p
1
_
C
10
C
11
Aprs la ralisation (x
1
, . . . , x
n
) on peut calculer, laide du thorme de Bayes, les
probabilits a posteriori
0
et
1
des hypothses H
0
et H
1
:

0
=
p
0
L
0
p
0
L
0
+p
1
L
1
et
1
=
p
1
L
1
p
0
L
0
+p
1
L
1
o on a not L
0
la valeur de la vraisemblance L(x
1
, . . . , x
n
; ), quand
0
, et L
1
,
quand
1
. On peut alors calculer les esprances du cot de chaque dcision
pour cette distribution a posteriori :
E[C(D
0
)] = C
00

0
+C
10

1
et E[C(D
1
)] = C
01

0
+C
11

1
La rgle de dcision de Bayes consiste associer lobservation (x
1
, . . . , x
n
) la dcision
dont lesprance de cot est la plus faible.
TD 8 Thorie des tests 125
3. Mthode de Neyman et Pearson
3.1 Principe de la rgle de Neyman et Pearson
On privilgie une hypothse que lon considre comme la plus vraisemblable et
que lon choisit comme hypothse nulle H
0
. Ce sera celle dont le rejet tort sera le
plus prjudiciable. Lautre hypothse H
1
est lhypothse alternative.
Dnitions. On appelle risque de premire espce la probabilit de rejeter tort
lhypothse nulle, soit :
= P

(D
1
|H
0
) = P

(H
1
|H
0
) = P

(W|
0
)
On appelle risque de seconde espce la probabilit daccepter tort lhypothse nulle,
soit :
= P

(D
0
|H
1
) = P

(H
0
|H
1
) = P

(

W|
1
)
Privilgier lhypothse nulle revient considrer que lerreur la plus grave consiste
la rejeter tort. La mthode de Neyman et Pearson xe un seuil maximum
0
au
risque de premire espce et le test est alors dtermin par la recherche de la rgle
qui minimise lautre risque de seconde espce.
Dnition. On appelle puissance dun test la probabilit de refuser H
0
avec raison,
cest--dire lorsque H
1
est vrie, soit :
= P

(D
1
|H
1
) = P

(H
1
|H
1
) = P

(W|
1
) = 1
La rgle de dcision de Neyman et Pearson consiste dterminer la rgion critique W
pour laquelle la puissance est maximum, sous la contrainte
0
.
3.2 Hypothses simples
Une hypothse est qualie de simple si la loi de la v.a. X est totalement spcie
quand cette hypothse est ralise. Dans le cas contraire, elle est dite multiple. Nous
allons examiner le cas o le paramtre ne peut prendre que deux valeurs
0
et
1
,
ce qui correspond au choix entre les deux hypothses simples suivantes :
_
H
0
: =
0
H
1
: =
1
Thorme de Neyman et Pearson. Pour un risque de premire espce x
0
, le
test de puissance maximum entre les hypothses simples ci-dessus est dni par
la rgion critique :
W =
_
(x
1
, . . . , x
n
) /
L
0
(x
1
, . . . , x
n
)
L
1
(x
1
, . . . , x
n
)
k
_
o la valeur de la constante k est dtermine par le risque x
0
= P

(W| =
0
),
ayant pos L
0
(x
1
, . . . , x
n
) = L(x
1
, . . . , x
n
;
0
) et L
1
(x
1
, . . . , x
n
) = L(x
1
, . . . , x
n
;
1
).
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
126 TD Statistique et probabilits
3.3 Hypothses multiples
Nous allons seulement considrer le cas dune hypothse simple contre une hypo-
thse multiple de la forme suivante :
_
H
0
: =
0
H
1
: =
0
On dtermine dabord par la mthode de Neyman et Pearson la rgion critique W
du test suivant :
_
H
0
: =
0
H
1
: =
1
o
1
est une valeur xe diffrente de
0
. Si W ne dpend pas de
1
, alors on aura
obtenu un test uniformment le plus puissant (UPP), cest--dire que pour toute autre
rgion critique W

, on aura P

(W|
1
) P

_
W

|
1
_
pour tout de
1
.
Thorme de Lehmann
_
H
0
:
0
H
1
: >
0
On suppose que la loi P

est rapport des vraisemblances monotone, cest--dire


quil existe une statistique T
n
telle que :
L(x
1
, . . . , x
n
; )
L(x
1
, . . . , x
n
;

)
soit une fonction croissante de T
n
pour toutes les valeurs >

.
Alors, il existe un test UPP de niveau , de rgion critique dnie par la condition :
T
n
> k.
4. Tests du khi-deux
4.1 Test dindpendance
Pour tester lindpendance de deux caractres X et Y, qualitatifs ou quantita-
tifs, respectivement r et s modalits, on relve le nombre n
ij
dindividus dune
population de taille n =

r
i=1

s
j=1
n
ij
qui possdent simultanment la modalit
i, 1 i r, du caractre X et la modalit j, 1 j s, du caratre Y. Si
p
ij
est la probabilit thorique correspondante, les probabilits marginales sont
p
i.
=

s
j=1
p
ij
et p
.j
=

r
i=1
p
ij
et lindpendance de ces deux caractres se traduit par
lhypothse nulle H
0
: p
ij
= p
i.
p
.j
. Pour tester cette hypothse contre lalternative
H
1
: p
ij
= p
i.
p
.j
, on utilise la statistique :
D
n
=
r

i=1
s

j=1
_
n
ij
n
i.
n
.j
/n
_
2
n
i.
n
.j
/n
= n
_
_
r

i=1
s

j=1
n
2
ij
n
i.
n
.j
1
_
_
TD 8 Thorie des tests 127
dont la loi asymptotique sous H
0
est la loi du khi-deux (r 1) (s 1) degrs de
libert. On a pos n
i.
=

s
j=1
n
ij
et n
.j
=

r
i=1
n
ij
. La rgion critique de ce test est de
la forme D
n
C; pour un risque de premire espce = P(D
n
C|H
0
), la valeur
de C est approxime par le fractile dordre 1 de la loi
2
(r1)(s1)
.
4.2 Test dadquation
Pour tester lhypothse nulle quune v.a. X admet pour fonction de rpartition
une fonction donne F, on utilise un n chantillon de la loi de X. Si la loi
est discrte, avec k valeurs possibles de probabilits p
i
= P(X = x
i
), ou si les
observations continues ont t rparties en k classes disjointes (a
i
, a
i+1
), avec cette
fois p
i
= P{X (a
i
, a
i+1
)} = F(a
i+1
)F(a
i
), on compare cette distribution thorique
avec la distribution empirique dnie par les valeurs n
i
/n, o n
i
est le nombre
dobservations x
i
ou appartenant la classe (a
i
, a
i+1
). On utilise comme distance
entre ces deux distributions la statistique :
D
n
=
k

i=1
_
n
i
np
i
_
2
np
i
=
k

i=1
n
2
i
np
i
n
dont la loi asymptotique sous H
0
est la loi du khi-deux k 1 degrs de libert. La
rgion critique de ce test est de la forme D
n
C. Pour un risque de premire espce
= P(D
n
C|H
0
), la valeur de C est approxime par le fractile dordre 1 de
la loi
2
k1
. On considre que cette approximation est possible si np
i
5 ; en cas
deffectif de classe trop petit pour que cette condition soit remplie, on regroupe
des classes contigus. Si la loi de X sous H
0
dpend de r paramtres quil a fallu
estimer au pralable, le nombre de degrs de libert de la loi asymptotique devient
k r 1.
Vrai Faux
1. Pour un problme de test donn, choisir une valeur importante
de la probabilit a priori p
0
de lhypothse nulle dans la mthode
de Bayes est quivalent choisir une valeur faible du risque de
premire espce dans la mthode de Neyman et Pearson.
2. Les deux hypothses dun test de Neyman et Pearson jouent
des rles symtriques.
3. Le risque de seconde espce est toujours plus grand que le
risque de premire espce .
4. Sans information a priori, chacune des deux hypothses peut
indiffremment tre choisie comme hypothse nulle, dans un test
de risque de premire espce x .
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
128 TD Statistique et probabilits
Vrai Faux
5. Dans le cas dun test entre deux hypothses simples, on peut
toujours calculer sa puissance.
6. Dans le cas dun test entre deux hypothses simples, on peut
toujours trouver un test de risque de premire espce x .
7. Si on intervertit les deux hypothses simples dun test, la
conclusion au vu du mme chantillon peut tre change.
8. Le nombre X dincidents graves par an survenus dans lune des centrales
nuclaires franaises, suit une loi de Poisson de paramtre . Disposant de sta-
tistiques sur les neuf dernires annes, construire un test de risque de premire
espce = 0,05 entre les deux hypothses suivantes :
_
H
0
: = 2
H
1
: = 1
9. Un gnrateur de nombres au hasard permet dobtenir une simulation de la
loi uniforme sur lensemble des dix chiffres {0, 1, . . . , 9}. La distance entre la distri-
bution empirique obtenue sur un chantillon de n = 100 chiffres et la distribution
thorique a pour valeur D
100
= 2,1. Le fractile dordre 0,95 de la loi
2
9
tant 16,9,
on accepte ladquation la loi uniforme. Si la mme distribution empirique est
obtenue sur un chantillon de taille N = 1 000, expliquer pourquoi cette fois on
refuse ladquation la loi uniforme.
Mthode de Bayes
10. Un magasin propose aux acheteurs dun tlviseur de souscrire pour 300 F
une garantie complmentaire de cinq ans pour le remplacement du tube-image,
dune valeur de 2 500 F. On sait par ailleurs que 80 % de ces tlviseurs sont
fabriqus en Asie et que la probabilit de dfaillance du tube-image est alors
p = 0,15. Le reste des appareils est fabriqu en Europe, avec dans ce cas p = 0,05.
En interrogeant vingt anciens acheteurs, on apprend que deux dentre eux ont eu
changer leur tube dans les cinq ans qui ont suivi leur achat. Cette information
TD 8 Thorie des tests 129
conduit-elle souscrire cette garantie? Une garantie 350 F ferait-elle changer
davis?
Analyse de lnonc et conseils. Pour utiliser la mthode de Bayes, il faut construire le
tableaudes cots. Si onne prendpas la garantie, ondtermine le cot moyenqui dpend
de la valeur de p. La vraisemblance est associe ici unchantillondune loi de Bernoulli
qui prend la valeur un quand le tube est en panne dans les cinq annes aprs lachat.
11. Une entreprise possde cinq photocopieuses sur lesquelles neuf interventions
ont t ncessaires lanne prcdente, avec un cot moyen par intervention de
1 000 F. Une socit lui propose un contrat dentretien de 2 400 F par an et par
machine. Le nombre annuel de pannes est suppos suivre une loi de Poisson de
paramtre . Pour le quart des machines produites la valeur duparamtre est = 3.
Une amlioration du procd de fabrication a permis dobtenir ensuite = 1 pour
la production des trois quarts restants. Compte tenu de ces informations, quelle
sera la dcision de lentreprise?
Analyse de lnonc et conseils. Le cot moyen en labsence de contrat dpend du
paramtre qui reprsente lesprance de la loi. La vraisemblance dun chantillon
dune loi de Poisson permet ensuite de construire la rgle de Bayes et de conclure au
vu des observations faites.
Comparaison des mthodes de Bayes et de Neyman-Pearson
12. Le dirigeant dune grande marque de vtements pense quune campagne
publicitaire choquante aurait une chance sur deux de russir. Avant de lancer
cette campagne lchelon national, une pr-campagne a t effectue dans cinq
grandes villes, ce qui a conduit une augmentation de bnces pour cette marque
de quatre millions de francs au total. On admet que laccroissement de bnces
dans une ville est une v.a. de loi normale dcart type connu = 2 et de moyenne
m = 2 si la campagne a t efcace et m = 0 dans le cas contraire. Sachant que le
cot par ville de cette campagne est de 0,5 million de francs, quelle dcision ces
informations conduisent-elles prendre? Quelle serait la rgle de dcision dans
loptique de Neyman-Pearson o on souhaiterait avant tout limiter le risque de
ne pas lancer une campagne qui serait efcace? Mme question dans le cas o la
campagne est considre comme efcace ds que m > 0?
Analyse de lnonc et conseils. On traduit dabord les informations donnes pour
construire le tableau des cots. On crit ensuite la vraisemblance dun chantillon de
taille cinq dune loi normale dcart type donn, ce qui permet dtablir la rgle de
Bayes et de conclure au vu des observations recueillies aprs la pr-campagne. On
construit ensuite la rgle de dcision de Neyman-Pearson associe lhypothse nulle
retenue par ce dirigeant. Cette rgle dpend bien sr du risque de premire espce
retenuet on verra que la conclusion est diffrente selon les choix = 0,05 et = 0,10. Le
changement dhypothse nulle propos ensuite conduit modier trs sensiblement
cette rgle.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
130 TD Statistique et probabilits
Test dune proportion
13. Entre les deux tours de llection prsidentielle, le candidat D. Magog com-
mande un sondage une socit spcialise pour connatre ses chances dtre lu.
Si p est la proportion dlecteurs qui ont lintention de voter pour lui, cette socit
est conduite effectuer le test entre les hypothses simples suivantes :
_
H
0
: p = 0,48
H
1
: p = 0,52
a) Indiquer le sens que lon peut accorder ce choix dhypothse nulle et dter-
miner la rgion critique du test de risque de premire espce = 0,10 dans le cas
dun sondage ralis auprs de n = 100 lecteurs. On calculera ensuite la puissance
pour des valeurs de n gales 100, 500 et 1 000.
b) On considre maintenant le test suivant :
_
H
0
: p = 0,49
H
1
: p = 0,51
Dterminer la taille dchantillon minimum pour que la puissance soit suprieure
0,90 et indiquer dans ce cas la rgion critique.
Analyse de lnonc et conseils. On utilise le thorme de Neyman et Pearson pour
dterminer la forme de la rgion critique de ce test entre deux hypothses simples. On
introduit pour cela une variable de Bernoulli indicatrice de lintention de vote pour le
candidat D. Magog, de paramtre p. La taille de lchantillon permet dutiliser la loi
asymptotique de la statistique qui sert dlimiter cette rgion critique, pour dterminer
une valeur approche du seuil en fonction du risque de premire espce x. Pour
calculer la puissance du second test en fonction de diffrentes tailles dchantillon, on
exprimera ce seuil en fonction de la taille n.
Test de la moyenne dune loi normale dcart type connu
14. On dispose dun chantillon (X
1
, . . . , X
n
) dune v.a. X qui suit une loi normale
desprance inconnue m et dcart type connu = 2 pour choisir entre les deux
hypothses :
_
H
0
: m = 2
H
1
: m = 3
Dterminer la rgion critique dutest de Neyman et Pearson et calculer sa puissance
dans le cas o n = 100 et = 0,05. Quelle devrait tre la taille dchantillon
minimum pour que cette puissance soit suprieure 0,95? 0,99?
Analyse de lnonc et conseils. On dtermine la forme de la rgion critique de ce test
par le thorme de Neyman et Pearson, en faisant le rapport des vraisemblances asso-
cies aux deux hypothses simples. On transforme les ingalits successives obtenues
TD 8 Thorie des tests 131
en ne conservant que les termes dpendant de x
1
, . . . , x
n
et en remplaant les autres
par une nouvelle constante. On aboutit la dnition dune rgion critique qui fait
intervenir une statistique dont on connat la loi de probabilit sous lhypothse nulle,
ce qui permet de dterminer le seuil de la rgion critique en fonction du risque de
premire espce x. On peut ensuite calculer la puissance du test comme probabilit
de cette rgion critique, cette fois en se plaant dans lhypothse alternative.
Test de la moyenne dune loi normale dcart type inconnu
15. On dispose dun chantillon (X
1
, . . . , X
n
) dune v.a. X qui suit une loi normale
desprance inconnue m et dcart type inconnu , pour choisir entre les deux
hypothses :
_
H
0
: m = 1
H
1
: m = 2
Dterminer la rgion critique dutest de Neyman et Pearson et calculer sa puissance
dans le cas o n = 25 et = 0,05.
Analyse de lnonc et conseils. La dmarche est identique celle de lexercice
prcdent, mais la rgion critique est dtermine partir dune statistique dont la loi
nest pas connue sous lhypothse nulle. Il faudra donc modier cette statistique par
lutilisation dun estimateur de lcart type, qui est inconnu ici, et dnir la rgion
critique laide dune statistique de loi connue sous H
0
.
Test de lcart type dune loi normale de moyenne connue
16. Un fabricant de thermomtres prlve un chantillon de taille n = 76 dans
un lot quil vient de produire. La valeur indique par ces thermomtres plongs
dans un liquide maintenu la temprature constante de 16 degrs est considre
comme une v.a. X de loi normale dont lcart type est inconnu. Il dsire effectuer
le test entres les deux hypothses suivantes :
_
H
0
: = 1
H
1
: = 2
Pour unrisque de premire espce = 0,05, indiquer ce que sera sa conclusionpour
des observations de tempratures telles que

76
i=1
x
i
= 1 140 et

76
i=1
x
2
i
= 17 195.
Que se produit-il si on intervertit les deux hypothses?
Analyse de lnonc et conseils. Le rapport des vraisemblances fournit la forme de
la rgion critique de ce test. Cette rgion est dnie laide dune statistique dont la
loi est connue sous lhypothse nulle, ce qui permet de dterminer le seuil critique en
fonction du risque de premire espce .
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
132 TD Statistique et probabilits
Paramtre dune loi uniforme
17. Un gnrateur de nombres au hasard est cens simuler une loi uniforme sur
[0, 1]. Sil est drgl, il fournira une simulation dune loi uniforme sur [0, ] avec
= 1,1. Sil fournit les valeurs 0,95 ; 0,24 ; 0,83 ; 0,52 et 0,68 doit-on considrer quil
est bien rgl?
Analyse de lnonc et conseils. Le problme pos se ramne un test sur la valeur
du paramtre dune loi uniforme sur [0, ], o les hypothses confrontes sont = 1
et = 1,1. Le rapport des vraisemblances ntant pas dni partout, on construira
la rgion critique sans rfrence au thorme de Neyman et Pearson en utilisant un
estimateur du paramtre .
18. La v.a. X suivant une loi uniforme sur [, 2], donner la rgion critique et la
puissance du test de risque de premire espce entre les hypothses suivantes :
_
H
0
: = 1
H
1
: = 0,9
Peut-on en dduire la rgion critique du test suivant :
_
H
0
: = 1
H
1
: < 1
Analyse de lnonc et conseils. Il nest pas question de dterminer ici un estimateur
efcace puisque lensemble des valeurs possibles pour la variable dpendduparamtre
estimer. Cependant, entre les diffrents estimateurs sans biais possibles pour , obte-
nus par la mthode des moments ou partir des valeurs extrmes m
n
= min{X
1
, . . . , X
n
}
et M
n
= max {X
1
, . . . , X
n
} de lchantillon (X
1
, . . . , X
n
) de X, on fait le choix de celui qui
est le plus efcace. On admettra quil sagit de lestimateur T
n
= (n +1) M
n
/ (2n +1).
On construira donc la rgion critique partir de cet estimateur dont la loi est connue
sous H
0
.
Hypothse multiple pour une proportion
19. Sur un chantillon de 900 naissances, on constate quil y a 470 garons. Un
gnticien dcide dutiliser ces donnes pour effectuer le test suivant relatif aux
proportions p et 1 p de naissances respectivement masculines et fminines :
_
H
0
: p = 0,50
H
1
: p = 0,48
Quelle est la conclusion, au vu de cet chantillon, et pourquoi est-ce peu satisfai-
sant?
TD 8 Thorie des tests 133
Quelle est la conclusion retenue si on effectue le test suivant :
_
H
0
: p = 0,5
H
1
: p = 0,5
Analyse de lnonc et conseils. On procde comme dans lexercice 4, page 127, en
utilisant la loi limite pour dterminer la rgion critique, ce qui se justie par la taille
leve de lchantillon. Le calcul de la puissance permet dapprcier la qualit de ce
test. On retient ensuite comme alternative p = p
1
en tudiant successivement les cas
p
1
> 0,5 et p
1
< 0,5 pour en dduire la rgion critique du test dalternative p = 0,5.
Hypothses multiples pour la moyenne dune loi normale
20. Un fabricant de conserves de petis pois produit des botes o ltiquette
annonce un poids net goutt de 560 g. Il prlve un lot de 200 botes pour
sassurer quil naura pas dennuis lissue dun contrle ventuel. Formaliser
le problme de test et indiquer sil existe un test UPP. Pour un risque de premire
espce retenu = 0,01 quelle sera sa conclusion pour des observations (x
1
, . . . , x
n
)
telles que

200
i=1
x
i
= 111 140 et

200
i=1
(x
i
x)
2
= 17 959,75? Peut-on dterminer la
fonction puissance de ce test si le procd de fabrication est tel que sa prcision est
caractrise par un cart type connu = 10?
Analyse de lnonc et conseils. On pourra considrer le poids net goutt comme
une v.a. de loi normale dont les paramtres m et sont inconnus, ltiquette annonant
que m = 560 qui sera donc lhypothse privilgie par le fabricant. Il aura des ennuis
seulement si le poids est infrieur cette valeur annonce, donc lhypothse alternative
est m < 560. On rsout dabord le test entre deux hypothses simples m = m
0
contre
m = m
1
avec m
0
= 560 et m
1
qui est une valeur quelconque, infrieure 560. Si la
rgion critique obtenue par la mthode de Neyman et Pearson est indpendante de
la valeur m
1
, ce sera celle du test le plus puissant contre lalternative m < 560. Sans
hypothse supplmentaire, on ne peut pas dterminer la fonction puissance puisque le
seuil critique dpend dune statistique. Pour cela nous allons tester lautre hypothse
= 10 et, si elle est accepte, on calculera la fonction puissance en faisant comme si
lcart type tait connu.
21. Un industriel produit des pices dont la caractristique principale peut tre
considre comme une v.a. X de loi normale, de moyenne m = 1 et dcart type
= 1. Il prlve auhasard25 pices qui ont t produites, pour tester si le rglage de
la machine est toujours m = 1. Sachant que la prcision est toujours caractrise
par = 1, indiquer les trois tests que lon peut envisager pour contrler un
drglement ventuel et reprsenter leur fonction puissance pour un risque de
premire espce = 0,05. Prciser chaque fois la dcision qui sera prise pour un
chantillon o on a observ

25
i=1
x
i
= 30,25.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
134 TD Statistique et probabilits
Analyse de lnonc et conseils. Pour savoir si la machine est drgle, on effectue
un test dont lhypothse nulle est m = 1, car cest bien entendu lhypothse qui est
privilgie. Lhypothse alternative sera une hypothse multiple, diffrente selon que
lon a ou non des informations supplmentaires sur la nature du drglement. Si lon
pense a priori que la valeur de rglage a t augmente, lalternative sera m > 1 ; elle
sera m < 1 si lon pense quelle a diminu et on retiendra m = 1 sans information a
priori. Pour dterminer la rgion critique des deux premiers tests, on se place dabord
dans le cas dune hypothse alternative simple, conforme lhypothse multiple (voir
exercice prcdent) ; pour le troisime test on retiendra lunion des rgions critiques
des deux prcdents.
Comparaison de proportions
22. Un sondage effectu auprs de 2 000 personnes indique que 19 % dentre
elles connaissent la marque de lessive Omopaic. Aprs une campagne publici-
taire, un sondage analogue auprs de 1 000 personnes montre que 230 dentre
elles connaissent cette marque. Peut-on considrer que cette campagne a t
efcace?
Analyse de lnonc et conseils. Il faut associer deux variables de Bernoulli, indica-
trices de notorit de cette marque de lessive, avant et aprs la campagne et faire un test
de comparaison entre les paramtres de ces deux lois. Lhypothse nulle est lgalit de
ces paramtres, lalternative correspond une valeur plus grande aprs la campagne.
On utilisera la loi approche de lestimateur de la diffrence de ces deux paramtres
pour construire la rgion critique.
Comparaison dchantillons
23. Pour comparer deux marques dampoules lectriques, on a effectu des essais
sur des chantillons prlevs au hasard. La dure de vie moyenne observe sur
un chantillon de 25 ampoules de la marque 1 est de 1 012 heures, avec un cart
type empirique de 241 h. Sur un chantillon de 13 ampoules de la marque 2, on a
obtenu respectivement 1 104 h et 319 h. Peut-on considrer que ces marques sont
de qualits quivalentes?
Analyse de lnonc et conseils. Nous ferons lhypothse que les dures de vie des
ampoules des marques 1 et 2 sont des v.a. X et Y de lois normales et lhypothse nulle
correspond lgalit des moyennes de ces deux lois. Les tailles dchantillon sont trop
faibles pour pouvoir faire des approximations de loi ; donc, pour effectuer ce test, il
faut au pralable tester lgalit des variances de ces deux lois. Si cette hypothse est
accepte, on pourra raliser le test de lgalit des moyennes de deux lois normales de
mme cart type, car la loi de la statistique de test dans ce cas sera connue.
TD 8 Thorie des tests 135
Test dindpendance
24. Le chef dtablissement dun grand lyce parisien dsire comparer les taux
de succs au baccalaurat des trois sections gnrales. Les statistiques de lanne
prcdente gurent dans le tableau suivant :
L ES S Total
Russite 41 59 54 154
chec 21 36 75 132
Total 62 95 129 286
Auvude ce tableau, peut-onconsidrer que les taux de russsite sont indpendants
de la section du baccalaurat?
Analyse de lnonc et conseils. Pour rpondre cette question, il faut utiliser
le test dindpendance du khi-deux. On remplit donc le tableau qui serait obtenu
dans lhypothse nulle tester dindpendance des deux caractristiques, russite au
baccalaurat et section choisie, puis on calcule la distance du khi-deux entre ces deux
tableaux.
Tests dadquation
25. Pendant 200 minutes, on note toutes les minutes le nombre de voitures qui
ont franchi un poste de page sur lautoroute, ce qui donne la distribution observe
ci-aprs :
Nombre de voitures 0 1 2 3 4 5 6 7 8 9 10 11
Effectif observ 1 15 30 46 38 30 16 13 5 3 2 1
Dterminer la loi thorique que lon pourrait retenir pour modliser ce phnomne
darrives par minute un page.
Analyse de lnonc et conseils. Parmi les lois usuelles, cest la loi de Poisson
qui parat convenir pour modliser ces arrives au poste de page. Il faut estimer
le paramtre de cette loi et ensuite tester son adquation la loi observe, en tant
attentif au nombre de degrs de libert de la loi utilise et aux effectifs de classes.
26. la sortie dune chane de fabrication, on contrle toutes les trente minutes
le nombre de pices dfectueuses contenues dans un lot de vingt pices produites.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
136 TD Statistique et probabilits
Les rsultats observs sur 200 lots indpendants sont rsums dans le tableau
suivant :
Nombre de dfectueux 0 1 2 3 4 5 6 7
Nombre de lots 26 52 56 40 20 2 0 4
Quelle loi thorique du nombre de dfectueux par lot de vingt peut-on retenir au
vu de ces observations?
Analyse de lnonc et conseils. Il sagit de tester ladquation de cette distribution
empirique une distribution thorique qui nest pas donne ici. Cependant, le nombre
de dfectueux dans un lot de 20 pices produites suit une loi binmiale de paramtres
n = 20 et p qui reprsente la probabilit quune pice soit dfectueuse (cest--dire
la proportion de pices dfectueuses fabriques par cette chane). Comme lun des
paramtres de cette loi nest pas x, il faudra lestimer et en tenir compte pour le
nombre de degrs de libert de la loi asymptotique de la statistique utilise dans ce test.
1

Vrai. Si lhypothse nulle est privilgie dans la mthode de Bayes par une
valeur forte de p
0
, elle doit donc tre rejete avec un risque trs faible derreur
qui est justement le risque de premire espce dans la mthode de Neyman et
Pearson.
2

Faux. Le principe de la mthode de Neyman et Pearson consiste au contraire
faire jouer des rles dissymtriques aux deux hypothses, lhypothse nulle tant
a priori celle qui parat la plus vraisemblable. Il faut donc des contre-preuves fortes
pour la rejeter.
3

Vrai. Lerreur la plus grave consistant rejeter tort lhypothse nulle avec
une probabilit , il serait contraire lesprit de la mthode de Neyman et Pearson
que lautre erreur ait une probabilit plus faible.
4

Faux. Dans le cas de deux hypothses simples et sans information a priori
lafrmation est vraie. Mais si une seule des hypothses est simple, cest celle que
lon doit retenir comme hypothse nulle pour que lon puisse construire la rgion
critique de risque de premire espce x une valeur donne .
TD 8 Thorie des tests 137
5

Vrai. Si on retient comme dnition dune hypothse simple celle qui est
fournie dans les rappels de cours, la loi de X est totalement spcie sous lalter-
native H
1
et le calcul de la puissance est donc possible. Par contre, si on retient
la dnition plus gnralement admise o une hypothse simple correspond au
cas o le paramtre ne peut prendre quune seule valeur, cette afrmation peut
devenir errone. Si nous prenons lexemple dune v.a. X qui suit une loi normale
dcart type inconnu et que le test porte sur la moyenne, soit H
0
: m = m
0
contre
m = m
1
, la loi sous H
1
nest pas totalement dtermine car elle dpend de deux
paramtres, et il nest donc pas possible de calculer la puissance.
6

Faux. Dans le cas dune loi discrte, les valeurs durisque de premire espce ne
varient pas de faon continue et ne comporteront pas en gnral la valeur exacte .
7

Vrai. La rgion critique tant construite partir de lhypothse nulle, linver-
sion des hypothses peut conduire des conclusions inverses, pour le mme
chantillon, si on intervertit les deux hypothses.
8

Lexpression de la vraisemblance est :
L(x
1
, . . . , x
n
; ) =
n

i=1
e

x
i
x
i
!
= e
n

n
1
x
i
n

i=1
x
i
!
Le rapport des vraisemblances, L
0
sous H
0
, et L
1
sous H
1
, scrit donc :
L
0
L
1
= e
2n
2

n
1
x
i
Le thorme de Neyman et Pearson, qui permet dobtenir le test de puissance
maximum, dnit la rgion critique par la condition
L
0
L
1
k, qui est donc ici
quivalente :
n

i=1
x
i
C
La valeur du seuil C qui dnit cette rgion critique W est dtermine par la
condition :
= P(W|H
0
) = P
_
n

i=1
X
i
C| = 2
_
avec

n
i=1
X
i
qui suit une loi de Poisson de paramtre 2n. Pour n = 9, on lit dans
les tables de la loi de Poisson P (18) les probabilits P
_

9
i=1
X
i
10
_
= 0,030 4 et
P
_

9
i=1
X
i
11
_
= 0,054 9. Comme la loi est discrte, on constate donc que lon
ne peut pas trouver un test de niveau exact = 0,05. Si on retient comme rgion
critique lensemble des points (x
1
, . . . , x
9
) tels que :
9

i=1
x
i
10

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
138 TD Statistique et probabilits
on obtiendra un test de risque de premire espce infrieur 5 %. Si on tient abso-
lument avoir un test de risque exact = 0,05, il faut construire ce quon appelle
un test mixte. Pour cela on procde de la faon suivante. Pour des observations
telles que

9
i=1
x
i
10, on rejette lhypothse nulle. Dans le cas o

9
i=1
x
i
= 11, on
effectue un tirage au sort o on rejette lhypothse H
0
avec une probabilit (on
laccepte donc avec une probabilit 1). Le test sera bien de risque exact = 0,05
si on choisit tel que :
= 0,05 = P
_
9

i=1
X
i
10| = 2
_
+P
_
9

i=1
X
i
= 11| = 2
_
= 0,030 4 +0,024 5
soit =
196
245
= 0,8.
9

Lexpression de la statistique de test est :
D
n
= n
_
k

i=1
(n
i
/n)
2
p
i
1
_
Pour un chantillon de taille N o la distribution empirique est caractrise par les
mmes valeurs n
i
/n, la statistique associe aura pour valeur :
D
N
= N
_
k

i=1
(n
i
/n)
2
p
i
1
_
Dans le cas o N = 10n, on aura donc D
N
= 10D
n
, soit pour les valeurs donnes
D
1 000
= 21 qui est suprieur au seuil 16,9, ce qui conduit rejeter ladquation la
loi uniforme. Pour une taille dchantillon plus leve, la valeur de la statistique
augmente et la distribution empirique obtenue doit donc tre plus proche de la
distribution thorique pour quon accepte ladquation.
10

Le cot de la dcision D
0
de prendre la garantie est de 300 F et le cot moyen
associ la dcision D
1
de ne pas la prendre est de 2 500p, car p qui reprsente
la probabilit de panne est aussi la valeur moyenne de la variable indicatrice de
panne dnie par :
X =
_
1 si panne
_
p
_
0 sinon
_
1 p
_
Les renseignements sur la provenance du tlviseur se traduisent par les probabi-
lits a priori 0,8 et 0,2 affectes aux deux valeurs possibles de p qui sont p = 0,15 et
p = 0,05. Tout ceci est rsum dans le tableau de cots suivant :
D
0
D
1
prob. a priori
H
0
: p = 0,15 300 375 0,8
H
1
: p = 0,05 300 125 0,2
TD 8 Thorie des tests 139
La vraisemblance de lchantillon (X
1
, . . . , X
n
) de cette loi de Bernoulli scrit :
L
_
x
1
, . . . , x
n
; p
_
= p

N
i=1
x
i
_
1 p
_
N

N
i=1
x
i
avec x
i
{0, 1}, 1 i n. On note L
0
la vraisemblance pour p = 0,15 et L
1
pour
p = 0,05. Les esprances a posteriori des cots sont :
E[C(D
0
)] = 300
0
+300
1
et E[C(D
1
)] = 375
0
+125
1
La rgle de Bayes conduit prendre la garantie si E[C(D
0
)] < E[C(D
1
)] soit :
175
1
< 75
0
7 0,2 L
1
< 3 0,8 L
0
7L
1
< 12L
0

_
ln3 +ln
19
17
_
20

i=1
x
i
> 20 ln
19
17
ln
12
7

20

i=1
x
i
> 1,39
Les x
i
ne prenant que des valeurs entires, on dcide de prendre la garantie pour
des observations telles que

20
i=1
x
i
2, ce qui est le cas pour cet chantillon.
Pour un cot de garantie de 350 F, la relation E[C(D
0
)] < E[C(D
1
)] est vraie pour
225
1
< 25
0
, soit 9 0,2 L
1
< 0,8 L
0
, ce qui est quivalent :
_
ln3 +ln
19
17
_
20

i=1
x
i
> 20 ln
19
17
+ln
9
4

20

i=1
x
i
> 2,51
20

i=1
x
i
3
et cette fois on ne prend donc pas la garantie.
11

Les donnes fournies conduisent affecter les probabilits a priori 0,75 et
0,25 aux deux valeurs possibles = 1 et = 3 du paramtre de cette loi de
Poisson. Le nombre annuel moyen de pannes pour cette loi est E(X) = . Si on
prend la dcision D
0
de ne pas souscrire de contrat dentretien, cela correspond
aux cots moyens pour chaque hypothse de 1 000 F et 31 000 = 3 000 F. Tout cela
est rsum dans le tableau de cots suivant :
D
0
D
1
prob. a priori
H
0
: = 1 1 000 2 400 0,75
H
1
: = 3 3 000 2 400 0,25
Les esprances a posteriori des cots sont :
E[C(D
0
)] = 1 000
0
+3 000
1
et E[C(D
1
)] = 2 400
0
+2 400
1
La rgle de Bayes conduit ne pas souscrire le contrat dentretien si E[C(D
0
)] <
E[C(D
1
)] soit :
600
1
< 1 400
0
3 0,25 L
1
< 7 0,75 L
0
L
1
< 7L
0
La vraisemblance de lchantillon de la loi de Poisson scrit :
L(x
1
, . . . , x
5
; ) = e
5

5
i=1
x
i
_
5

i=1
x
i
!

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
140 TD Statistique et probabilits
Lingalit prcdente est donc quivalente, en prenant les logarithmes, :
_
5

i=1
x
i
_
ln3 < 10 +ln7
5

i=1
x
i
< 10,87
5

i=1
x
i
10
puisque les x
i
ne prennent que des valeurs entires. Lobservation

5
i=1
x
i
= 9
conduit donc ne pas souscrire le contrat dentretien.
12

Dans loptique de Bayes, les hypothses m = 0 et m = 2 ont la mme
probabilit a priori 1/2. La dcision D
0
de ne pas lancer la campagne a un cot
nul. La dcision D
1
dentreprendre cette campagne a un cot de 0,5 diminu dun
bnce moyen de 2, dans le cas o la campagne a t efcace. Ce qui conduit au
tableau des cots suivant :
D
0
D
1
prob. a priori
H
0
: m = 0 0 0,5 0,5
H
1
: m = 2 0 1,5 0,5
Les esprances a posteriori des cots sont E[C(D
0
)] = 0 et E[C(D
1
)] = 0,5
0
1,5
1
;
donc on aura E[C(D
0
)] < E[C(D
1
)] si
0
> 3
1
, soit L
0
> 3L
1
. Laccroissement de
bnces par ville est une v.a. X de loi N(m, 2) soit une vraisemblance :
L(x
1
, . . . , x
n
; m) =
1
2

2
exp
_

1
8
5

i=1
(x
i
m)
2
_
En prenant les logarithmes, la dernire ingalit est quivalente :

1
8
5

i=1
_
x
2
i
(x
i
2)
2
_
> ln3
5

i=1
x
i
< 5 2 ln3 = 2,80
Lobservation

5
i=1
x
i
= 4 conduit donc lancer la campagne publicitaire si on
adopte cette rgle de dcision de Bayes.
Dans loptique de Neyman-Pearson, lhypothse nulle ne pas rejeter tort est
celle dune campagne qui serait efcace, ce qui correspond lhypothse simple
H
0
: m = 2. Lhypothse alternative est alors H
1
: m = 0. Le thorme de Neyman
et Pearson dnit la forme de la rgion critique par L
0
/L
1
k, soit ici en prenant
les logarithmes :

1
8
5

i=1
_
(x
i
2)
2
x
2
i
_
< k
1

5

i=1
x
i
< C
la valeur de la constante C tant dtermine par le risque de premire espce
= P
_

5
i=1
X
i
< C|m = 2
_
. Sous lhypothse nulle, la moyenne empirique

X
5
suit
une loi normale N
_
2, 2/

5
_
; donc C est dni par :
= P
_

X
5
2
2/

5
<
C/5 2
2/

5
_
TD 8 Thorie des tests 141
soit C = 10 +2u

5 o u est le fractile dordre de la loi normale centre-rduite.


Pour un risque = 0,05, on a u = 1,644 9 et C = 2,64 ; donc la rgle de Neyman
conduit accepter lhypothse nulle, cest--dire lancer la campagne. Par contre,
pour un risque de premire espce plus lev = 0,10, on lit dans la table 2,
page 195, le fractile u = 1,281 6, do C = 4,27. Lobservation

5
i=1
x
i
= 4 conduit
cette fois ne pas lancer la campagne.
Le changement de m = 2 en m > 0 oblige retenir lhypothse simple m = 0
comme hypothse nulle du test de Neyman-Pearson. La rgion critique L
0
/L
1
k
est cette fois dnie par :

1
8
5

i=1
_
x
2
i
(x
i
m)
2
_
< k
1

5

i=1
x
i
> C
o la constante C est dtermine par la condition = P
_

5
i=1
X
i
> C|m = 0
_
. On
obtient cette fois C = 2u

5, o u est le fractile dordre 1 de la loi normale


centre-rduite. Pour un risque = 0,10, le fractile est u = 1,281 6 et C = 5,73 ;
donc mme avec ce risque de premire espce lev on dcide de ne pas lancer la
campagne. Le changement dhypothse nulle, d des raisons techniques, amne
ne la rejeter que pour des trs grandes valeurs observes daugmentation de
bnces, mme si on choisit un risque lev.
13

a) Choisir p = 0,48 comme hypothse nulle, aulieude p = 0,52, cest vouloir
se prmunir avant tout contre le risque de conclure son lection, en acceptant
lhypothse p = 52 % alors quen fait on aurait p = 48 %. Ce candidat prfre
tre agrablement surpris, plutt que dentretenir un faux espoir. On introduit ici
des variables de Bernoulli associes chaque lecteur interrog i, 1 i n, qui
prennent la valeur 1 quand celui-ci dclare son intention de vote pour le candidat
D. Magog :
X
i
=
_
1 p
0 1 p
La vraisemblance de lchantillon (X
1
, . . . , X
n
) de cette loi de Bernoulli scrit :
L
_
x
1
, . . . , x
n
; p
_
=
n

i=1
p
x
i
_
1 p
_
1x
i
= p

n
i=1
x
i
_
1 p
_
n

n
i=1
x
i
avec x
i
{0, 1}, 1 i n. On note L
0
la vraisemblance pour p = 0,48 = p
0
et L
1
pour p = 0,52 = p
1
. Le rapport des vraisemblances scrit :
L
0
L
1
=
_
p
0
p
1
_

n
i=1
x
i
_
1 p
0
1 p
1
_
n

n
i=1
x
i
La rgion critique est dnie par le thorme de Neyman et Pearson, aprs avoir
pris les logarithmes, par lingalit :
_
n

i=1
x
i
_
ln
p
0
p
1
+
_
n
n

i=1
x
i
_
ln
1 p
0
1 p
1
lnk

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
142 TD Statistique et probabilits
qui est quivalente :
_
ln
p
0
p
1
+ln
1 p
1
1 p
0
_
n

i=1
x
i
k
1
Comme p
0
< p
1
et 1 p
1
< 1 p
0
, on obtient la condition

n
i=1
x
i
k
2
. On peut
dnir galement la rgion critique laide de la moyenne empirique, qui est un
estimateur sans biais du paramtre tester p et dont on pourra dterminer la loi
asymptotique. Cest lensemble des points (x
1
, . . . , x
n
) tels que :
x
n
C
La valeur de la constante C, qui est le seuil critique de ce test, est dnie partir
du risque de premire espce, soit :
= P
_

X
n
C|p = 0,48
_
Si on utilise la loi asymptotique, dduite du thorme central limite, la v.a.

X
n
suit approximativement une loi normale desprance p
0
et de variance p
0
q
0
/n avec
q
0
= 1 p
0
. On obtient donc une valeur approche de C par la condition :
= P
_
U
C p
0
_
p
0
q
0
/n
_
o U est une v.a. de loi N(0, 1). Ainsi, u dsignant le fractile dordre 1 de cette
loi, la rgion critique est dnie par la condition :
x
n
p
0
+u
_
p
0
q
0
n
Pour = 0,10 on lit dans la table 2, page 195, le fractile u = 1,281 6 et le seuil
critique pour n = 100 est alors C = 0,48 +1,281 6/20 = 0,544. En dpit dun risque
de rejet de lhypothse nulle assez lev puisque = 10 %, on ne rejette lhypothse
p = 48 % que si plus de 54,4 % des personnes interroges dclarent vouloir voter
pour ce candidat, valeur bien suprieure p
1
= 52 %. Ceci sexplique par une
taille dchantillon trop faible pour sparer deux hypothses voisines de 50 %. La
puissance de ce test se calcule par :
= P
_

X
n
C|p = p
1
_
P
_
U
C p
1
_
p
1
q
1
/n
_
Les valeurs de p
0
et p
1
tant proches de 1/2, on peut remplacer C par p
0
+u/2

n
et on calcule alors une valeur approche de la puissance par la probabilit :
= P
_
U u +
_
p
0
p
1
_
2

n
_
ou = 1
_
u 0,08

n
_
, dsignant la f.r. de la loi N(0, 1). Pour n = 100, on
obtient = 0,544, soit un risque de seconde espce lev = 0,456. Le risque de
premire espce tant x, la puissance augmentera si la rgion critique sagrandit,
TD 8 Thorie des tests 143
cest--dire si le seuil C diminue, ce qui se produira en augmentant la taille de
lchantillon. Le tableau suivant fournit les diffrents seuils et puissances pour les
tailles dchantillon proposes :
n 100 500 1 000
C 0,544 0,509 0,500 3
0,544 0,695 0,894
b) La rgion critique, de ce test est dnie par :
x
n
0,49 +u/2

n
Sa puissance est calcule approximativement par = 1
_
u 0,04

n
_
. Pour
que cette puissance soit suprieure 0,90, il faut que la taille dchantillon vrie
1,281 6 0,04

n < 1,281 6, soit



n > 64,08 ou n 4 107. Pour cette valeur
leve de n, on obtient lgalit des risques = = 0,10 et un seuil critique
C = 0,50 quidistance des deux hypothses. Il faut donc environ quatre fois plus
dobservations que pour le test prcdent an de sparer ces deux hypothses,
encore plus proches, avec les mmes risques.
14

La vraisemblance scrit :
L(x
1
, . . . , x
n
; m) =
1

2
exp
_

1
2
2
n

i=1
(x
i
m)
2
_
La forme de la rgion critique, donne par le thorme de Neyman et Pearson, est
L
0
/L
1
k, ce qui en passant aux logarithmes conduit lingalit :

1
2
2
n

i=1
_
(x
i
2)
2
(x
i
3)
2
_
lnk
Elle est quivalente, aprs dveloppement du crochet, :
2
n

i=1
x
i
+5n 2
2
lnk
Pour linstant, on cherche seulement dterminer la forme de la rgion critique et
lexpression des constantes qui apparaissent dans cette ingalit est sans intrt.
On remplace donc cette ingalit par

n
i=1
x
i
k
1
, qui lui est quivalente. La
rgion critique est donc dnie partir de la valeur de la somme des observations.
Cependant, comme cest la loi de la moyenne empirique

X
n
qui est connue, il est
prfrable de faire intervenir cette moyenne dans la dnition de la rgion critique
W, qui sera donc lensemble des points (x
1
, . . . , x
n
) tels que :
x
n
C
Il reste prciser la valeur de cette constante C, qui sera le seuil de cette rgion,
partir du risque de premire espce qui est x. Il reprsente la probabilit de
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
144 TD Statistique et probabilits
cette rgion, lorsque lhypothse nulle est ralise, et par consquent, la condition
qui dnit C scrit :
= P(W|m = 2) = P
_

X
n
C|m = 2
_
Sous H
0
, la moyenne empirique

X
n
suit la loi N
_
2, 2/

n
_
, donc en centrant et
rduisant on obtient la condition :
= P
_
U
C 2
2/

n
_
o U est une v.a. de loi N(0, 1). Ainsi la constante C est dnie par :
C = 2 +2
u

n
o u est le fractile dordre 1 de la loi N(0, 1). Pour un risque = 0,05, on lit
dans la table 2, page 195, le fractile u = 1,644 9, do une rgion critique dnie
pour n = 100 par :
W = {(x
1
, . . . , x
100
) / x
100
2,33}
Dans ce cas, la puissance du test est la probabilit de cette rgion dans lhypothse
alternative, soit :
= P
_

X
100
2,33|m = 3
_
= P
_
U
2,33 3
2/

100
_
= 0,996
On obtient ainsi un risque de seconde espce de valeur = 0,004 trs infrieure
celle du risque de premire espce, ce qui est contraire loptique de Neyman et
Pearson qui a permis de btir ce test. Si on veut que, plus logiquement, , il faut
choisir une valeur plus faible pour . Si on retient par exemple = 0,001, le fractile
dordre 0,999 est u = 3,090 2, soit C = 2,62. La puissance est alors = 0,971 9, donc
= 0,028 1 est bien cette fois suprieur , ce qui est plus cohrent.
Pour un risque = 0,05, la condition 0,95 conduit choisir une taille
dchantillon n telle que :
= P
_

X
n
2 +2
u

n
|m = 3
_
= P
_
U u

n
2
_
0,95
ce qui est quivalent 1,644 9

n/2 1,644 9, soit



n 6,6, donc une taille
dchantillon suprieure n
0
= 44 pour laquelle on aura = 0,05 = avec
C = 2,5 seuil quidistant des deux hypothses. Si on choisit une taille dchantillon
suprieure n
0
, ce qui tait le cas ici, le risque diminue et devient infrieur
= 0,05, ce qui est contraire loptique dans laquelle a t construit ce test. La
condition 0,99 impose de choisir n tel que cette fois 1,644 9

n/2 2,326 3,
soit n 64. On avait dailleurs obtenu = 0,996 pour n = 100.
TD 8 Thorie des tests 145
15

La mthode de Neyman et Pearson conduit la mme rgion critique que
dans lexercice prcdent. Mais cette fois il nest pas possible de dterminer le
seuil C car la loi de

X
n
dpend du paramtre inconnu . On fait donc intervenir
lestimateur sans biais S
2
n
=
1
n 1

n
i=1
_
X
i


X
n
_
2
de la variance
2
et la variable
centre et rduite

n
_

X
n
m
_
/ est remplace par la statistique

n
_

X
n
m
_
/S
n
qui suit une loi de Student n 1 degrs de libert. La rgion critique W est donc
lensemble des points (x
1
, . . . , x
n
) tels que :

n
x
n
1
s
n
C
o la valeur du seuil C est dtermine par la condition :
= P
_

X
n
m
S
n
C|m = 1
_
cest--dire que C est le fractile dordre 1 de la loi de Student n 1 degrs de
libert. Pour un risque = 0,05 et n = 25, on lit dans la table 6 le fractile C = 1,711,
do une rgion critique dnie par :
W = {(x
1
, . . . , x
25
) / x
25
1 +0,34s
25
}
La puissance reprsente la probabilit de cette rgion dans lhypothse alternative,
soit = P
_
n
_

X
n
1
_ _
S
n
C|m = 2
_
= P
_
n
_

X
n
2
_ _
S
n
C

n/S
n
_
. La
v.a.

n
_

X
n
2
_ _
S
n
suit une loi de Student n 1 degrs de libert, mais on ne
peut pas calculer cette probabilit car la borne de lintervalle dpend de S
n
qui est
une variable alatoire.
16

Pour effectuer ce test, nous disposons dun chantillon dune loi normale
desprance 16 et dcart type = 1 sous H
0
et = 2 sous H
1
. Le rapport des
vraisemblances a donc pour expression :
L
0
L
1
= 2
n
exp
_
1
8
n

i=1
(x
i
16)
2

1
2
n

i=1
(x
i
16)
2
_
= 2
n
exp
3
8
n

i=1
(x
i
16)
2
La rgion critique est donc dnie par le thorme de Neyman et Pearson comme
lensemble des points (x
1
, . . . , x
n
) tels que :
n

i=1
(x
i
16)
2
C
o C est le fractile dordre 1 de la loi
2
n
suivie par

n
i=1
(X
i
16)
2
sous
lhypothse nulle. Pour = 0,05, on lit dans la table 5, page 199, par interpo-
lation pour n = 76, la valeur C = 97. Les observations donnent

76
i=1
(x
i
16)
2
=
17 195 32 1 140 + 76 16
2
= 171, ce qui conduit refuser lhypothse nulle
= 1. Linterversion des hypothses change le sens de lingalit, la rgion critique
tant dnie par :
n

i=1
(x
i
16)
2
C

D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
146 TD Statistique et probabilits
Mais cette fois cest la variable

n
i=1
(X
i
16)
2
/4 qui suit une loi
2
n
sous H
0
et
cest donc C/4 qui est le fractile dordre de cette loi. Pour = 0,05, on dduit
de la table 5, page 199, par interpolation pour n = 76, la valeur C = 227. On
refuse donc nouveau lhypothse nulle, qui est cette fois = 2. Lexpression des
deux rgions critiques nous montre que pour toutes les observations telles que
97 <

76
i=1
(x
i
16)
2
< 227 linterversion des hypothses entranera linterversion
des conclusions. Ceci sexplique par la remarque quil sagit dune rgion de
probabilit trs faible, quelle que soit lhypothse retenue, puisque :
P
_
76

i=1
(X
i
16)
2
> 150| = 1
_
0
et :
P
_
76

i=1
(X
i
16)
2
< 180| = 2
_
0,002 6
17

Le paramtre reprsentant la plus grande valeur possible de la variable X
de loi uniforme sur [0, ], lestimateur de bas sur un n-chantillon de cette loi
sera la plus grande valeur observe, soit M
n
= max {X
i
/1 i n}. Bien entendu,
on rejettera lhypothse nulle H
0
: = 1 si on observe M
n
> 1. La forme de
la rgion critique est donc M
n
> C, la valeur de C 1 tant dtermine par
= P(M
n
> C| = 1) ou 1 = P(M
n
C| = 1) = C
n
, soit C = (1 )
1/n
. Pour
= 0,05 et n = 5, on obtient C = 0,99 ; donc on accepte bien ici lhypothse = 1.
18

La valeur du paramtre tant plus petite dans lhypothse alternative, on
acceptera donc celle-ci pour les plus petites valeurs de lestimateur, doune rgion
critique de la forme T
n
< C, la valeur de C tant dtermine par :
= P(T
n
< C| = 1) = P
_
M
n
<
2n +1
n +1
C| = 1
_
La loi de M
n
est obtenue par P(M
n
< x) = F
n
(x) o F est la f.r. de la loi uniforme
sur [, 2], dnie par :
F(x) =
_

_
0 si x
x

1 si x 2
1 si 2 x
On obtient donc :
=
_
2n +1
n +1
C 1
_
n
Soit la rgion critique dnie par :
M
n
< 1 +
1/n
TD 8 Thorie des tests 147
La puissance de ce test se calcule par :
= P
_
M
n
< 1 +
1/n
| = 0,9
_
=
_
1 +
1/n
0,9
1
_
n
La rgion critique prcdente tant indpendante de la valeur =
1
dans
lhypothse alternative, avec seulement la condition
1
< 1, est aussi celle du
test dalternative H
1
: < 1. Cependant, cette alternative tant une hypothse
multiple, on ne peut pas calculer la puissance de ce test.
19

On introduit ici une variable de Bernoulli, indicatrice dune naissance mas-
culine, de paramtre p. Nous avons vu dans lexercice 4, page 127, que le rapport
des vraisemblances conduit une rgion critique dnie par :
_
ln
p
0
p
1
+ln
1 p
1
1 p
0
_
n

i=1
x
i
k
avec ici p
0
= 0,50 et p
1
= 0,48, donc de faon quivalente

n
i=1
x
i
C. La constante
C est dnie par :
= P
_
n

i=1
X
i
C|H
0
_
= P
_

X
n

C
n
|p = 0,5
_
On utilise la loi approche de

X
n
, qui est la loi normale de paramtres p = 0,5 et
dcart type
_
pq/n = 1/2

n. Donc, en centrant sur 1/2 et en rduisant, on obtient


comme valeur approche du seuil critique :
C =
n
2
+u

n
2
o u est le fractile dordre de la loi N(0, 1) et le risque de premire espce
retenu. Pour = 0,05, le fractile est u = 1,644 9, donc pour n = 900, on obtient
C = 425, ce qui conduit ici retenir lhypothse nulle p = 50 %, ce qui parat
logique puisquon a observ 52 % de naissances masculines dans cet chantillon.
Cependant, le calcul de la puissance va permettre de juger de la qualit de ce test :
= P
_
n

i=1
X
i
C|H
1
_
= P
_

X
n

C
n
|p = 0,48
_
P
_
U
C/n 0,48
_
0,48 0,52/n
_
soit ici comme valeur approche (0,467) = 0,32 o est la f.r. de la loi N(0, 1).
Il y a donc 68 chances sur 100 daccepter lhypothse p = 0,50 dans le cas o
p = 0,48. Le risque de seconde espce est trs lev.
Suivant que p
1
< 0,5 ou p
1
> 0,5, la rgion critique sera de la forme x
n
< k
1
ou
x
n
> k
2
. On retient donc pour lalternative p = 0,5 une rgion critique symtrique
par rapport lhypothse nulle, donc dnie par :
| x
n
0,5| > C
o C est dnie par = P
_

X
n
0,5

> C|H
0
_
donc de valeur approche u/2

n
o u est le fractile dordre 1 /2 de la loi N(0, 1). Pour = 0,05, on lit u = 1,96 et
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
148 TD Statistique et probabilits
C = 0,033. Pour lobservation x
900
= 0,52, on retient nouveau lhypothse p = 0,5.
Cependant, lautre risque derreur a pour expression :
= P
_
0,467 <

X
n
< 0,533|p = 0,48
_
= P
_

n
0,467 0,48

0,48 0,52
< U <

n
0,533 0,48

0,48 0,52
_
soit = 0,78 valeur encore plus leve que dans le test prcdent. Il serait plus
logique ici de retenir comme alternative p > 0,5, la rgion critique tant alors
dnie par x
900
> 0,527 5. On accepterait encore lhypothse p = 0,5.
20

Daprs ce qui a t obtenu dans lexercice 6, page 128, la rgion critique du
test entre les hypothses :
_
H
0
: m = 560
H
1
: m = m
1
avec m
1
< 560 est lensemble des points (x
1
, . . . , x
n
) tels que :

n
x
n
560
s
n
C
La constante C est dnie par la condition :
= P
_

X
n
560
S
n
C|m = 560
_
cest--dire que cest le fractile dordre de la loi de Student 199 degrs de
libert. Pour = 0,01, on lit dans la table 6, page 200, le fractile C = 2,345. Pour
cet chantillon, on obtient

200 ( x
200
560) /s
200
= 6,40, valeur trs infrieure
au seuil critique ; donc on rejette lhypothse nulle, bien que le risque ait t
choisi trs faible. Comme la rgion critique est indpendante de la valeur de m
1
,
pourvu que m
1
< 560, ce test qui est de puissance maximum daprs le thorme
de Neyman et Pearson est un test UPP pour lalternative m < 560. On ne peut pas
calculer sa puissance, qui est dnie par :
= P
_

X
n
560
S
n
C|m < 560
_
= P
_

X
n
m
S
n
C +

n
560 m
S
n
_
En effet, si la loi de

n
_

X
n
m
_ _
S
n
est connue, loi de Student n 1 degrs de
libert, la borne de lintervalle dpend de S
n
, qui est une v.a. On va donc tester
lhypothse = 10, quivalente
2
= 100, contre lalternative
2
= 100. On utilise
pour cela la variance empirique et la rgion dacceptation de lhypothse nulle de
ce test est de la forme :
a <
n

i=1
_
X
i


X
n
_
2
100
< b
rgion de probabilit 1. Donc a et b sont respectivement les fractiles dordre /2
et 1 /2 de la loi du khi-deux n 1 degrs de libert. Pour n = 200, on utilise
TD 8 Thorie des tests 149
lapproximation par la loi N(0, 1) de la loi de

2Y

2 1 avec Y de loi
2

et
ici = n 1. On obtient a = 150,49 et b = 253,14. Comme

200
i=1
(x
i
x
200
)
2
/100 =
179,60, on accepte lhypothse = 10 et on est ramen un problme de test de la
moyenne dune loi normale dcart type connu. La rgion critique est alors dnie
par :

n
x
n
560
10
C
et C est le fractile dordre de la loi N(0, 1). Pour = 0,01, on lit C = 2,326 3 et la
rgion critique est dnie par x
n
< 558,36. La fonction puissance est alors dnie
en fonction de m par :
= P
_

X
n
m
10
C +

n
560 m
10
_
=
_

2 (558,36 m)
_
o est la f.r. de la loi N(0, 1).
21

On effectue le test entre les hypothses simples :
_
H
0
: m = m
0
H
1
: m = m
1
pour une v.a. X de loi N(m, ) avec lcart type connu = 1. Le thorme de
Neyman et Pearson conduit une rgion critique dnie par :
(m
0
m
1
)
25

i=1
x
i
k
La forme de la rgion critique de ce test, de puissance maximum, ne dpend pas
de la valeur prcise de m
1
, mais de sa position par rapport m
0
= 1. Ainsi, pour le
test de :
_
H
0
: m = 1
H
1
: m > 1
toutes les valeurs de m correspondant lalternative sont suprieures m
0
; donc
la rgion critique du test prcdent est toujours la mme et on a obtenu un test
UPP :
W
1
= {(x
1
, . . . , x
25
) / x
25
C}
o C est dni par :
= P(W
1
|H
0
) = P
_

X
25
C|m = 1
_
= P{U 5 (C 1)} = 1 {5 (C 1)}
avec U v.a. de loi N(0, 1), de f.r. . Le seuil de ce test est donc C = 1 + u/5,
o u est le fractile dordre 1 de la loi N(0, 1). Pour = 0,05, on lit dans la
table 2, page 195, le fractile u = 1,644 9 et on obtient C = 1,33. Sur cet chantillon
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
150 TD Statistique et probabilits
on a observ x
25
= 1,21 ; donc on accepte lhypothse nulle dun bon rglage. La
fonction puissance de ce test est dnie par :

1
(m) = P(W
1
|H
1
) = P
_

X
25
C|m > 1
_
= P{U 5 (C m)} = 1 {u 5 (m1)}
Pour le test de :
_
H
0
: m = 1
H
1
: m < 1
on obtient aussi un test UPP de rgion critique :
W
2
= {(x
1
, . . . , x
25
) / x
25
C}
avec toujours C = 1 + u/5, mais cette fois u tant le fractile dordre de la loi
N(0, 1). Pour = 0,05, on a donc u = 1,644 9 et C = 0,67, lhypothse nulle tant
bien sr toujours accepte. La fonction puissance de ce test est dnie pour m < 1
par :

2
(m) = {u +5 (1 m)}
Pour le test de :
_
H
0
: m = 1
H
1
: m = 1
on ne peut pas cette fois dduire la forme de la rgion critique de celle du test entre
les hypothses simples, car elle dpend de la position inconnue de m par rapport
1. On va retenir une rgion critique qui sera lunion des prcdentes, cest--dire
dnie par x
25
C
1
ou x
25
C
2
, mais qui ne sera pas celle dun test UPP. En raison
de la symtrie de la statistique de test et de lalternative, on retient comme rgion
critique :
W = {(x
1
, . . . , x
25
) / | x
25
1| C}
o C est dnie par :
= P(W|H
0
) = P
_

X
25
1

C|m = 1
_
= P(|U| 5C) = 2 [1 (5C)]
Donc C = u/5 o u est le fractile dordre 1 /2 de la loi N(0, 1). Pour = 0,05, on
lit u = 1,96 et C = 0,392, soit une rgion critique dnie par x
25
0,61 ou x
25
1,39
et une nouvelle fois on accepte lhypothse nulle. La fonction puissance de ce test
est dnie pour m quelconque par :
(m) = 1 {u +5 (1 m)} +{5 (1 m) u}
Le graphe des trois fonctions puissances sur la gure 8.1, page ci-contre, montre
bien que ce dernier nest pas UPP puisque
1
(m) (m) pour m > 1 et
2
(m)
(m) pour m < 1.
TD 8 Thorie des tests 151
0 1 m
0,05
1
(m)

1
(m)
2
(m)
Figure 8.1
22

Les variables indicatrices de notorit de la marque Omopaic sont X et Y
respectivement avant et aprs la campagne, de paramtres p
1
et p
2
. On dispose
dchantillons de ces deux lois, deffectifs respectifs n
1
= 2 000 et n
2
= 1 000, pour
effectuer le test :
_
H
0
: p
1
= p
2
H
1
: p
1
< p
2

_
H
0
: p
1
p
2
= 0
H
1
: p
1
p
2
< 0
Les moyennes empiriques

X et

Y de ces deux chantillons permettent de dnir
lestimateur sans biais

X

Y du paramtre tester = p
1
p
2
. Sa loi approche
est une loi normale desprance et dcart type inconnu =
_
p
1
q
1
/n
1
+p
2
q
2
/n
2
o q
1
= 1 p
1
et q
2
= 1 p
2
. Sous lhypothse nulle, on estime la valeur commune
p = p
1
= p
2
par la runion des deux chantillons :
p =
n
1

X +n
2

Y
n
1
+n
2
=
1
n
1
+n
2
_
n
1

i=1
X
i
+
n
2

i=1
Y
i
_
Cet estimateur permet aussi destimer dans ce cas lcart type :
=
_
p
_
1 p
_
(1/n
1
+1/n
2
)
On effectue alors le test laide de la v.a. normalise :

X

Y
_
p
_
1 p
_
(1/n
1
+1/n
2
)
dont on peut admettre, compte tenu des tailles dchantillon leves, quelle suit
approximativement une loi normale standard dans lhypothse nulle. La rgion
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
152 TD Statistique et probabilits
critique est dnie par

< C, o on retient comme valeur approche de Cle fractile


dordre de la loi N(0, 1) pour un risque de premire espce x. Pour = 0,05,
la rgion critique est dnie par

< 1,644 9 et on obtient pour cet chantillon


x = 0,19, y = 0,23, p = 0,203,
_
p
_
1 p
_
(1/n
1
+1/n
2
) = 0,015 6 et

= 2,57, donc
on accepte lhypothse de lefcacit de la campagne. Pour un risque plus faible
= 0,01, le seuil critique est C = 2,33 et lhypothse nulle est encore rejete.
23

Les dures de vie des ampoules des marques 1 et 2 sont respectivement les
v.a. X et Y de lois respectives N(m
1
,
1
) et N(m
2
,
2
), ces quatre paramtres tant
inconnus. Le test effectuer est :
_
H
0
: m
1
= m
2
H
1
: m
1
= m
2

_
H
0
: m
1
m
2
= 0
H
1
: m
1
m
2
= 0
et utilise pour cela lestimateur sans biais

X

Y de m
1
m
2
. Cet estimateur suit
une loi normale centre sous H
0
, mais de variance inconnue
2
1
/n
1
+
2
2
/n
2
, o n
1
et n
2
sont les effectifs des chantillons respectifs des lois de X et Y. On utilise donc
les estimateurs sans biais de
2
1
et
2
2
qui sont respectivement :
S
2
1
=
1
n
1
1
n
1

i=1
_
X
i


X
_
2
et S
2
2
=
1
n
2
1
n
2

i=1
_
Y
i


Y
_
2
Si onremplace lcart type inconnupar sonestimateur
_
S
2
1
/n
1
+S
2
2
/n
2
pour rduire

X

Y, on nobtiendra pas une loi de Student. Il faut pour cela que lcart type des
deux chantillons soit le mme, donc on doit faire un test pralable dgalit des
variances :
_
H
0
:
2
1
=
2
2
H
1
:
2
1
=
2
2
On accepte lhypothse nulle si le rapport S
2
1
/S
2
2
est voisin de 1, soit une rgion
dacceptation de la forme :
a <
S
2
1
S
2
2
< b
Les valeurs des constantes a et b sont dnies par :

2
= P
_
S
2
1
S
2
2
< a|H
0
_
= P
_
S
2
1
S
2
2
> b|H
0
_
avec S
2
1
/S
2
2
qui suit une loi F(n
1
1, n
2
1) sous H
0
. Pour = 0,10, on lit dans
la table 7, page 201, le fractile a =
1
2,18
= 0,46 et on obtient par interpolation
b = 2,50. La valeur calcule de S
2
1
/S
2
2
pour cet chantillon est 0,55, donc on accepte
TD 8 Thorie des tests 153
lgalit des variances. On retient alors comme estimateur sans biais de la variance
commune
2
=
2
1
=
2
2
:
S
2
=
(n
1
1) S
2
1
+(n
2
1) S
2
2
n
1
+n
2
2
La rgion critique du test initial est alors dnie par :


X

Y

S
_
1/n
1
+1/n
2
> t
o t est dtermin par :
= P
_


X

Y

S
_
1/n
1
+1/n
2
> t|H
0
_
donc est le fractile dordre 1 /2 de la loi de Student n
1
+ n
2
2 degrs de
libert. Pour = 0,05, on lit dans la table 6, page 200, le fractile t = 2,028. Pour cet
chantillon, on observe s
2
= 77 081,06 et :
x y
s
_
1/n
1
+1/n
2
=
92
94,93
= 0,97
Donc on accepte lgalit des moyennes de ces deux lois.
24

Dans lhypothse nulle dindpendance des deux caractristiques de ces
candidats au baccalaurat, le tableau est obtenu partir du produit des effectifs
marginaux. Par exemple, le nombre dtudiants ayant russi en section L serait
dans ce cas
154 62
286
, arrondi 33 puisquil sagit deffectifs entiers. On aboutit
ainsi au tableau suivant :
L ES S Total
Russite 33 51 70 154
chec 29 44 59 132
Total 62 95 129 286
La rgion critique est de la forme D
n
Co Ca comme valeur approche le fractile
dordre 1 de la loi du khi-deux deux degrs de libert, pour un test de risque
de premire espce . Pour = 0,05, on lit dans la table 5, page 199, la valeur
C = 5,991. La valeur de la statistique utilise pour ce test est ici :
D
n
=
(41 33)
2
33
+
(59 51)
2
51
+
(54 70)
2
70
+
(21 29)
2
29
+
(36 44)
2
44
+
(75 59)
2
59
soit D
n
= 14,85 ; donc on rejette lhypothse dindpendance.
D
u
n
o
d
.
L
a
p
h
o
t
o
c
o
p
i
e
n
o
n
a
u
t
o
r
i
s

e
e
s
t
u
n
d

l
i
t
.
154 TD Statistique et probabilits
25

La moyenne empirique de cette distribution vaut
800
200
= 4, donc on teste
ladquation une loi de Poisson de paramtre = 4. La table 4, page 198,
nous permet de calculer les effectifs thoriques en multipliant les probabilits
individuelles par 200 et en arrondissant. Par exemple pour x = 1, la probabilit
vaut p
1
= 0,073 3, soit un effectif thorique np
1
= 14,66 arrondi 15. On obtient
ainsi le tableau des deux distributions, empirique et thorique :
Nombre de voitures 0 1 2 3 4 5 6 7 8 9 10 11
Effectif observ 1 15 30 46 38 30 16 13 5 3 2 1
Effectif thorique 4 15 29 39 39 31 21 12 6 3 1 0
Les effectifs des valeurs extrmes tant infrieurs 5, on regroupe les deux pre-
mires et les quatre dernires valeurs. Il reste donc seulement huit classes de valeurs
et comme le paramtre de la loi thorique retenue a t estim, la statistique qui
dnit la rgion critique D
n
C suit approximativement une loi du khi-deux six
(8 1 1) degrs de libert. Pour = 0,05, le seuil critique est le fractile dordre
0,95 de cette loi, soit C = 12,6. La valeur observe ici est :
D
n
=
(16 19)
2
19
+
(30 29)
2
29
+
49
39
+
1
39
+
1
31
+
25
21
+
1
12
+
1
10
= 3,196
donc on retient comme loi thorique la loi P (4) pour la v.a. X qui reprsente le
nombre de voitures qui arrivent par minute ce poste de page.
26

Si on considre que le nombre de dfectueux est une v.a. X de loi binmiale
B
_
20, p
_
, on estime le paramtre p partir de la moyenne empirique x
200
= 2,01 et
on retient p = 0,1. Les probabilits individuelles p
i
lues dans la table 3, page 197,
de la loi binmiale B(20 ; 0,1) permettent de calculer les effectifs thoriques np
i
,
arrondis en valeurs entires. Par exemple, pour la valeur x = 0, on lit p
0
= 0,121 6,
soit np
0
= 24,32 arrondi 24. On obtient ainsi le tableau des deux distributions,
empirique et thorique :
Nombre de dfectueux 0 1 2 3 4 5 6 7
Nombre de lots 26 52 56 40 20 2 0 4
Effectif thorique 24 54 57 38 18 6 2 1
On regroupe les trois dernires valeurs pour obtenir un effectif thorique suprieur
cinq. La rgion critique est de la forme D
n
C. La loi asymptotique de la
statistique D
n
est une loi du khi-deux quatre degrs de libert car il y six classes
de valeurs distinctes retenues et un paramtre estim. Pour = 0,05, la valeur de
C est le fractile dordre 0,95 de la loi
2
4
, soit C = 9,5. La valeur observe ici est :
D
n
=
(26 24)
2
24
+
(52 54)
2
54
+
1
57
+
4
38
+
4
18
+
9
9
= 1,59
TD 8 Thorie des tests 155
Donc on accepte comme loi thorique la loi binmiale B(20 ; 0,1). Pour = 0,10,
la conclusion serait identique puisque le seuil serait C = 7,8.
La valeur retenue pour p tant ici trs faible, on pourrait aussi considrer que
la prsence dune pice dfectueuse est un vnement rare susceptible dtre
modlis par la loi de Poisson. La variance empirique a pour valeur 1,98 trs
proche de celle 2,01 de la moyenne empirique, ce qui conforte cette possibilit. On
va donc calculer les effectifs thoriques associs une loi de Poisson P (2) :
Nombre de dfectueux 0 1 2 3 4 5 6 7
Nombre de lots 26 52 56 40 20 2 0 4
Effectif thorique 27 54 54 36 18 7 2 2
On regroupe encore les trois dernires valeurs et on obtient D
n
= 3,13, valeur un
peu plus leve que dans le cas de la loi binmiale, mais on peut galement retenir
cette loi thorique.
9
Annales corriges
Universit
Panthon-Assas,
Paris II


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
LICENCE CONOMIE ET GESTION, 2
e
ANNE
Septembre 2007
1. Deux vnements A et B ont comme probabilits respectives 1/4 et 1/3 de se
raliser seuls (lun et pas lautre). Sachant que la probabilit que lun ou lautre se
ralise est de 3/4, prciser sils sont indpendants ou non.
2. Quatre joueurs A, B, C et D tirent successivement et sans remise une carte dun
lot de 6 cartes numrotes de 1 6. Si un joueur tire une carte paire, il a gagn et
le jeu sarrte.
a) Calculer la probabilit de gain de chaque joueur.
b) Soit N la v.a. qui reprsente le nombre de tirages effectus lissue de ce jeu.
Calculer E(N).
3. La loi dune v.a. X est dfinie par P(X = n) =
1
n

1
n + 1
pour tout entier n 1.
Calculer P(X < n) pour tout entier n, puis E(X).
SUJETS D'EXAMEN
4. a) Soit X une v.a. de loi normale, telle que P(X < 2) = 0,3085 et
P(X < 2) = 0,9332. Trouver le nombre rel a tel que P
_
X
2
+ 2X < a
_
= 0,975.
b) Soit U une v.a. de loi normale centre et rduite et V une v.a. qui suit une loi
du khi-deux 16 degrs de libert. Ces deux v.a. tant indpendantes, trouver le
nombre rel b tel que P
_
U

V
< b
_
= 0,975.
5. On effectue deux tirages successifs sans remise dans une urne qui contient 3
boules noires et 2 boules rouges. On note X la v.a. qui reprsente le nombre de
boules rouges tires et Y la v.a. qui vaut 1 si on tire une boule noire au premier
tirage et 0 sinon. Dterminer la loi de probabilit du couple (X, Y) puis calculer
cov (X, Y) . Les v.a. X et Y sont-elles indpendantes ?
6. Soit X une v.a. de loi normale desprance et de variance (1 ), o est
un paramtre rel inconnu, avec 0 < < 1.
a) partir dun chantillon (X
1
, ..., X
n
) de X dterminer deux estimateurs T
n
et
T

n
de par la mthode des moments, en utilisant les moments non centrs
dordres 1 et 2. tudier leurs proprits.
b) Comparer ces 2 estimateurs et indiquer celui quil faut choisir. Lun deux est-
il efficace ? On donne V
_
X
2
_
= 2
2
_
1
2
_
.
7. Soit X une v.a. de densit :
f (x; ) =
_
0 si x <
e
(x)
si x
o est un paramtre rel inconnu.
a) Calculer E(X).
b) partir dun chantillon (X
1
, ..., X
n
) de X dterminer un estimateur T
n
de
par la mthode des moments et tudier ses proprits.
c) Dterminer la loi limite de T
n
quand n devient infini et en dduire un intervalle
de confiance bilatral symtrique de niveau voisin de 1 pour , dans le cas
o on a observ un chantillon de taille suprieure 100. On donne V(X) = 1.
8. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de densit :
f (x; ) =
_
_
_
3x
2

3
si 0 x
0 sinon
o est un paramtre rel inconnu strictement positif.
a) Dterminer la fonction de rpartition de X, puis celle de
M
n
= max {X
1
, ..., X
n
}.
158 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 159


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
b) Reprsenter lallure gnrale du graphe de la vraisemblance L(x
1
, ..., x
n
; )
pour (x
1
, ..., x
n
) fix et variant. En dduire lestimateur du maximum de vrai-
semblance, puis un estimateur sans biais T
n
du paramtre . Est-il efficace ?
c) Dterminer en fonction de
1
et
2
les rels t
1
et t
2
compris entre 0 et 1 qui vri-
fient les deux conditions :

1
= P(M
n
< t
1
) et
2
= P(M
n
> t
2
)
En dduire un intervalle de confiance bilatral symtrique de niveau 1 pour .
Mai 2007
1. Un magasin souhaite squiper dun dtecteur de faux billets de 500 euros. On
note p la probabilit quun dtecteur repre effectivement un billet qui est faux.
a) On prsente 100 faux billets un dtecteur bon march et seulement 80 dentre
eux sont dtects. Construire un intervalle de confiance pour p, de niveau
1 = 0,95, laide dun abaque puis en utilisant une approximation que lon
justifiera, si lon ne disposait pas de cet abaque.
b) Ce caissier prsente nouveau 50 faux billets un dtecteur plus sophistiqu
qui les a tous dtects. Construire laide dun abaque un intervalle de confiance
de niveau 1 = 0,95 pour le paramtre p associ ce dtecteur. Quelle
approximation pourrait-on utiliser ici si lon ne disposait pas de cet abaque ?
2. Soit X une v.a. de loi normale desprance et de variance 2, o est un
paramtre rel inconnu strictement positif.
a) tudier les proprits de lestimateur X
n
construit partir dun chantillon
(X
1
, ..., X
n
) de X.
b) tudier les proprits de lestimateur sans biais T
n
de construit partir de la
variance empirique modifie :
S
2
n
=
1
n 1
n

i =1
_
X
i
X
n
_
2
c) Comparer les estimateurs T
n
et X
n
et indiquer celui quil faut choisir. Lun
deux est-il efficace ?
3. Une tude statistique effectue pour la chane de magasins Farrecour a tabli
que le bnfice mensuel moyen du magasin i, 1 i n, pouvait tre reprsent
par une v.a. de loi normale desprance m
i
et de variance
2
, ces valeurs tant
dtermines par ltude. Une campagne publicitaire nationale a conduit une
augmentation du bnfice. Pour estimer ce paramtre rel inconnu , on
observe sur une certaine priode les nouveaux bnfices mensuels moyens de
chaque magasin i, 1 i n, reprsents cette fois par une v.a. X
i
de loi normale
desprance m
i
+ et de variance
2
.
a) Dterminer un estimateur T
n
de par la mthode du maximum de vraisem-
blance. tudier ses proprits. Est-il efficace ?
b) Dterminer un intervalle de confiance bilatral symtrique de niveau 1
pour . Application :
2
= 1,

36
i=1
(x
i
m
i
) = 270 et 1 = 0,95.
Janvier 2007
1. Dans une certaine population, la probabilit de naissance dun garon est de
4/7. Dterminer la proportion de familles de trois enfants o les enfants ne sont
pas tous du mme sexe, en prcisant lensemble fondamental retenu pour
modliser ce problme.
2. Soit p la proportion de bovins dun dpartement franais atteints de la mala-
die ESB ( vache folle ). On utilise un test de dpistage qui se rvle positif avec
une probabilit 1 si lanimal est effectivement malade et avec une probabilit
si lanimal est sain.
a) Dterminer la probabilit
_
p
_
quun animal pris au hasard dans ce dparte-
ment soit effectivement malade, sachant que le test sest rvl positif.
b) On suppose partir de maintenant que = . Dterminer
_
p
_
puis calculer
() . Commenter le rsultat.
c) Calculer la valeur de (0,005) pour = 0,02, puis pour = 0,01. Commenter
le rsultat.
3. La fonction de rpartition dune v.a. X est nulle pour x 3 et pour tous les
entiers n 3 a pour valeur :
F(x) = 1
1
2
n2
si n < x n + 1
Dterminer la loi de probabilit de X.
4. Soit X une v.a. de densit :
f (x) =
_
_
_
1
4
+
3
4
x
2
si 1 x 1
0 sinon
a) Dterminer la densit de la v.a. Y = X
2
.
b) Calculer E(Y).
5. Soit X une v.a. de loi normale centre et rduite.
a) Dterminer la loi de probabilit des v.a. Y = 2X, X + Y, X + Y + Z avec
Z = 3X.
b) Calculer cov (X, Y) et V(X + Y + Z).
160 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 161


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Septembre 2006
1. On lance un d rouge et un d vert et on considre les vnements A obte-
nir un chiffre pair sur le d rouge , B obtenir un chiffre pair sur le d vert et
C la somme des chiffres obtenus est paire . Les vnements A, B et C sont-ils
indpendants deux deux ? dans leur ensemble ? On prcisera lensemble fon-
damental retenu pour modliser ce problme.
2. On effectue lexprience suivante sur la mmoire des rats. Un rat peut appuyer
sur lune des trois manettes places devant lui et dans un seul cas il recevra de la
nourriture. On note X la variable alatoire qui reprsente le nombre de tentatives
effectues par le rat jusqu ce quil obtienne de la nourriture.
a) Dterminer la loi de probabilit de X dans les 3 situations suivantes :
il choisit au hasard une manette chaque tentative (aucune mmoire) ;
il exclut la mauvaise manette choisie la tentative prcdente (mmoire
courte) ;
il exclut toutes les mauvaises manettes choisies aux tentatives prcdentes
(mmoire parfaite).
b) Calculer dans chacune de ces situations la probabilit quil fasse plus de 3 ten-
tatives pour obtenir de la nourriture.
3. Soit X une v.a. de densit :
f (x) =
_

_
x si 0 x 1
2 x si 1 x 2
0 sinon
a) Dterminer la fonction de rpartition de X et en dduire la mdiane de cette loi.
b) Calculer P{|X 1| < x} pour tout rel x.
4. Soit (X, Y) un couple de v.a. de densit :
f
_
x, y
_
=
_
2 si 0 x y 1
0 sinon
a) Dterminer les densits marginales de X et Y. Les v.a. X et Y sont-elles ind-
pendantes ?
b) Dterminer les densits conditionnelles de X sachant que Y = y et de Y sachant
que X = x.
5. Pour connatre la proportion p dutilisateurs dinternet dans une rgion fran-
aise, on effectue un sondage auprs de N personnes qui ont t tires au hasard
et avec remise dans un fichier des habitants de cette rgion qui est dcoupe en
deux zones rurale et urbaine. On tire donc deux sous-chantillons indpendants
de tailles respectives n et m, avec n + m = N. On note T
n
et T

m
les estimateurs
associs de p. On retient comme estimateur construit sur lchantillon total
p
N
= aT
n
+ bT

m
. Dterminer le rel b en fonction du rel a pour que cet estima-
teur soit sans biais. Dterminer ensuite a pour que cet estimateur soit optimal.
6. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de densit :
f (x; ) =
_
_
_
2x

2
si 0 x
0 sinon
o est un paramtre rel inconnu strictement positif.
a) Calculer E(X) et V(X).
b) Dterminer un estimateur T
n
de par la mthode des moments. tudier ses
proprits. Est-il efficace ?
c) Dterminer un nouvel estimateur sans biais T

n
de construit partir de
M
n
= max {X
1
, ..., X
n
}. Comparer les estimateurs T
n
et T

n
et indiquer celui quil
faut choisir.
7. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de loi normale centre et de
variance , o est un paramtre rel strictement positif.
a) Dterminer un estimateur T
n
de par la mthode des moments. tudier ses
proprits. Est-il efficace ?
b) Dterminer un intervalle de confiance de niveau 1 = 0, 95 pour .
Application :

50
i=1
x
2
i
= 100.
Mai 2006
1. Soit p la probabilit quune pice produite par une machine prsente un
dfaut grave.
a) On prlve au hasard 150 pices produites pour effectuer un contrle de qua-
lit. Sachant que 6 dentre elles prsentent un dfaut grave, construire un inter-
valle de confiance pour p de niveau 0,95.
b) Une nouvelle machine est installe et sur 30 pices prleves au hasard aucune
ne prsente un dfaut grave. Donner un intervalle de confiance de niveau 0,95
pour ce nouveau paramtre p. Peut-on considrer que cette nouvelle machine est
de meilleure qualit ?
2. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de densit :
f (x; ) =
_
_
_
e

(
x
)
si x >
0 si x
o est un paramtre rel inconnu.
162 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 163


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
a) Dterminer lestimateur

n
du maximum de vraisemblance du paramtre .
b) Calculer la quantit dinformation de Fisher I
n
(). Lestimateur

n
est-il effi-
cace ?
3. Pour connatre le budget mensuel consacr aux loisirs, on a effectu un son-
dage dans neuf villes franaises auprs de 100 mnages. On note X la variable
alatoire qui reprsente le budget loisir dun mnage tir au sort et Y celle qui
reprsente la moyenne dun chantillon de taille 100 de ces budgets dans une ville
donne. On dispose donc dun chantilllon (Y
1
, ..., Y
9
) de cette v.a. Y.
a) Indiquer la loi quil est logique de retenir pour cette v.a. Y et en dduire alors
la loi de la moyenne empirique Y
9
de lchantillon.
b) Dterminer un estimateur de chacun des paramtres m = E(X) et
2
= V(X).
c) Dterminer un intervalle de confiance bilatral symtrique de niveau 1
pour m. Application :

9
i=1
y
i
= 2709,

9
i=1
_
y
i
y
9
_
2
= 1800 et 1 = 0,95.
Janvier 2006
1. Parmi les patients venus consulter un ophtalmologue, 10 % taient myopes,
20 % presbytes, les autres ayant une bonne vue, les proportions de ceux dclarant
souffrir de maux de tte tant respectivement de 90 %, 50 % et 5 %. Quelle est la
probabilit quun patient souffrant de maux de tte nait pas besoin de porter de
lunettes ?
2. Soit X une v.a. de densit :
f (x) =
_

_
x
2
si 0 x 1
1
2
si 1 x 2
1
2
(3 x) si 2 x 3
0 sinon
a) Dterminer la fonction de rpartition de X.
b) Calculer E(X).
3. Soit X une v.a. de loi normale, telle que P(X < 3) = 0,1587 et
P(X > 12) = 0,0228. Calculer P(X > 0) puis trouver le nombre rel a tel que
P
_
[X E(X)]
2
< a
_
= 0,975.
4. On lance 2 boules qui tombent chacune au hasard dans lun des 2 tiroirs Aou
B. On note X la v.a. qui reprsente le nombre de boules tombes dans le tiroir A
et Y la v.a. qui reprsente le nombre de tiroirs non vides. Dterminer la loi de pro-
babilit du couple (X, Y) puis calculer cov (X, Y) . Les v.a. X et Y sont-elles ind-
pendantes ?
Septembre 2005
1. Une urne contient trois boules rouges et deux boules noires. On effectue des
tirages successifs sans remise et on arrte ds quon a obtenu 2 boules rouges.
Prciser lensemble fondamental retenu pour modliser ce problme et calcu-
ler la probabilit de chaque vnement lmentaire.
2. Soit (X
1
, ..., X
n
) des v.a. indpendantes et de mme loi que X de densit :
f (x) =
_
2 (1 x) si 0 x 1
0 sinon
Dterminer la densit de la v.a. M
n
= max {X
1
, ..., X
n
}.
3. Soit X une v.a. de loi normale, telle que P(X < 1) = 0,500 et
P(1,6 < X < 0,4) = 0,770. Calculer P(X > 0) puis trouver le nombre rel a tel
que P
_
X
2
+ 2X < a
_
= 0,995.
4. Soit (X, Y) un couple de v.a. de densit :
f
_
x, y
_
=
_
e
yx
si y x et 0 y 1
0 sinon
Dterminer les densits marginales de X et Y. Les v.a. X et Y sont-elles indpen-
dantes ?
5. Un joueur participe une loterie o sa probabilit de gain est 1/, avec > 1.
Il joue jusqu ce quil ait gagn et on note X la v.a. qui reprsente le nombre de
tirages indpendants auxquels il a particip.
a) Dterminer la loi de probabilit de X et calculer E(X).
b) partir dun chantillon (X
1
, ..., X
n
) de X dterminer un estimateur T
n
de
par la mthode des moments et tudier ses proprits.
6. Soit (X
1
, ..., X
n
) un chantillon dune v.a. de loi normale desprance et de
variance 2, o est un paramtre rel strictement positif. On pose :
X
n
=
1
n
n

i =1
X
i
S
2
n
=
1
n 1
n

i =1
_
X
i
X
n
_
2
T
n1
=

n
X
n

S
n
Dterminer partir de T
n 1
un intervalle de confiance bilatral symtrique de
niveau 1 = 0,95 pour dans le cas o n = 30.
164 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 165


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
7. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de densit :
f (x; ) =
_
_
_
1

x
1 1
si 1 x
0 sinon
o est un paramtre rel inconnu strictement positif. Dterminer un estimateur
T
n
de par la mthode du maximum de vraisemblance. tudier ses proprits.
Est-il efficace ?
Mai 2005
1. Soit p la probabilit quun systme dalarme se dclenche bon escient.
a) Sur 250 essais indpendants effectus dans une bijouterie il y a eu 240 dclen-
chements justifis de lalarme. Construire un intervalle de confiance pour p de
niveau 0,95 laide dun abaque, puis en utilisant une approximation que lon jus-
tifiera, si lon ne disposait pas de cet abaque.
b) Un nouvel quipement est install dans cette bijouterie et sur 30 essais ind-
pendants effectus, tous ont provoqu un dclenchement justifi. Donner un
intervalle de confiance pour ce nouveau paramtre p de niveau 0,95. Peut-on
considrer que ce nouvel quipement est de meilleure qualit ?
2. Pour comparer deux modles de pse-lettre, nots A et B, on effectue des
peses successives indpendantes dune lettre de poids exact connu 100 g. On
note X la v.a. qui reprsente le poids affich par un pse-lettre.
a) Indiquer la loi quil est logique de retenir pour cette v.a. X et prciser alors le
paramtre qui peut servir dindicateur de qualit dun modle de pse-lettre.
Dterminer un estimateur T
n
de construit partir dun chantillon (X
1
, ..., X
n
)
de X et tudier ses proprits.
b) Pour le modle Aon a effectu 30 peses indpendantes, les valeurs observes
x
1
, ..., x
30
conduisant

30
i =1
x
i
= 3020 et

30
i =1
x
2
i
= 315400. Dterminer un
intervalle de confiance de niveau 1 = 0,95 pour .
c) Pour le modle B on a effectu 50 peses indpendantes, les valeurs observes
y
1
, ..., y
50
conduisant

50
i =1
y
i
= 4950 et

50
i =1
y
2
i
= 510000. Dterminer un
intervalle de confiance de niveau 1 = 0,95 pour le paramtre associ ce
modle. Quel modle vous parat de meilleure qualit ?
3. Soit (X
1
, ..., X
n
) un chantillon dune v.a. X de densit :
f (x; ) =
_
_
_
1

x
1 1
si 0 x 1
0 sinon
o est un paramtre rel inconnu strictement positif.
a) Dterminer la densit de la v.a. Y = ln X.
b) Calculer E(X) et V(X).
c) Dterminer un estimateur T
n
de par la mthode du maximum de vraisem-
blance. tudier ses proprits. Est-il efficace ?
Janvier 2005
1. Le jeu de lambassadeur consiste transmettre oralement son voisin, sans
que les autres entendent, un message compliqu pour samuser des dformations
quil peut subir. Le message initial contient une quantit dinformation note I
0
(par exemple le nombre de phonmes) et chaque relais il y a une probabilit p
quil soit transmis correctement. Avec une probabilit q = 1 p la quantit din-
formation est diminue et devient aI
0
, avec 0 < a < 1. On note I
n
la v.a. qui repr-
sente la quantit dinformation obtenue aprs n relais. Dterminer la loi de pro-
babilit de I
1
, I
2
puis I
n
pour n > 2.
2. Une information est transmise sous forme de codage logique en 0 ou 1.
Il y a une probabilit p derreur au cours de chaque relais de transmission, cest-
-dire de transformer le 0 (resp. 1) en 1 (resp. 0). On note V
n
lvnement lin-
formation transmise aprs n relais est exacte, cest--dire identique linforma-
tion dorigine et on pose p
n
= P(V
n
) .
a) Calculer p
1
et p
2
.
b) Calculer p
n
en fonction de p
n1
pour n 2.
c) Calculer u
n
= p
n

1
2
en fonction de u
n1
et en dduire la valeur de u
n
, puis
celle de p
n
, en fonction de n et p.
Calculer la limite de p
n
quand n devient infini.
3. Soit X une v.a. de densit :
f (x) =
_
_
_
1
4
+
3
4
x
2
si 1 x 1
0 sinon
a) Calculer E(X) et V(X).
b) Dterminer la fonction de rpartition de X puis calculer la probabilit que X
appartienne lintervalle [x
1
, x
2
], en fonction des rels x
1
et x
2
tels que x
1
< x
2
.
4. Soit (X, Y) un couple de v.a. discrtes dont la loi de probabilit est donne par
le tableau ci-aprs.
Calculer E(X), E(Y) puis cov (X, Y) . Les v.a. X et Y sont-elles indpendantes ?
166 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 167


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Septembre 2007
1

Les hypothses se traduisent par P
_
A B
_
=
1
4
, P
_
A B
_
=
1
3
, P(A B) =
3
4
.
On en dduit :
P(A B) = P(A B) P
_
A B
_
P
_
A B
_
=
1
6
P(A) = P(A B) + P
_
A B
_
=
5
12
P(B) = P(A B) + P
_
A B
_
=
1
2
Comme P(A B) = P(A) P(B), les vnements A et B sont dpendants.
2

a) Un joueur gagne sil tire une carte paire et si le(s) prcdent(s) a (ont) tir
une carte impaire. On obtient ainsi :
P(A) =
3
6
, P(B) =
3
6

3
5
=
6
20
, P(C) =
3
6

2
5

3
4
=
3
20
,
P(D) =
3
6

2
5

1
4

3
3
=
1
20
b) On en dduit :
E(N) =
3
6
+ 2
6
20
+ 3
3
20
+ 4
1
20
=
35
20
3

On a P(X < 0) = P(X < 1) = 0 et, pour n 2 :
P(X < n) =
n1

k=1
P(X = k) =
_
1
1
2
_
+
_
1
2

1
3
_
+ ...
+
_
1
n 2

1
n 1
_
+
_
1
n 1

1
n
_
= 1
1
n
X
1 0 1
Y
2 1/8 1/8 1/8
2 1/4 1/8 1/4
LMENTS DE CORRECTION
On obtient :
E(X) =

n=1
nP(X = n) =

n=1
1
n + 1
=
cest--dire que cette loi nadmet pas desprance.
4

a) On pose m = E(X) et
2
= V(X) et on considre la variable centre et
rduite ; les conditions scrivent :
P
_
X m

<
2 m

_
= 1 0,6915 P
_
X m

<
2 m

_
= 0,9332
La table 1 permet dobtenir
2 + m

=
1
2
et
2 m

=
3
2
do m = 1 et = 2. La v.a.
_
X + 1
2
_
2
suit une loi du khi-deux 1 degr de libert ; la condition :
P
_
_
X + 1
2
_
2
<
a + 1
4
_
= 0,975
permet dobtenir, partir de la table 5, a = 19,08.
b) La v.a. U
_
V 4
_
suit une loi de Student 16 degrs de libert, donc la table
6 permet dobtenir b = 0,53.
5

La loi du couple (X, Y) figure dans le tableau ci-aprs, avec les lois de X et
Y dans les marges de ce tableau :
168 TD Statistique et probabilits
X
Y
0 1 2
0 0
3
10
1
10
4
10
1
3
10
3
10
0
6
10
3
10
6
10
1
10
1
Avec par exemple P(X = 1, Y = 0) = P(RN) =
2
5

3
4
=
3
10
. On calcule partir
du tableau E(X) =
4
5
, E(Y) =
3
5
et E(XY) = P(X = 1, Y = 1) =
3
10
.
Ainsi cov (X, Y) =
9
50
et les variables X et Y sont dpendantes.
TD 9 Annales corriges Universit Panthon-Assas, Paris II 169


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
6

a) Comme E(X) = , lestimateur T
n
obtenu par la mthode des moments
est la moyenne empirique X
n
, estimateur sans biais et convergent daprs la loi
des grands nombres. De mme, E
_
X
2
_
= V(X) + E
2
(X) = , donc
T

n
=
1
n

n
i=1
X
2
i
est aussi un estimateur sans biais et convergent de daprs la
loi des grands nombres.
b) Pour comparer ces deux estimateurs sans biais, nous formons le rapport des
variances :
V(T

n
)
V(T
n
)
= 2( + 1)
Comme cette quantit dpend de la valeur du paramtre estimer, on ne peut pas
conclure. Ces deux estimateurs ne sont pas comparables. Aucun deux ne peut
tre efficace, car il serait alors toujours le meilleur.
7

a) On calcule E(X) = + 1.
b) Lestimateur T
n
= X
n
1 obtenu par la mthode des moments est sans biais et
convergent daprs la loi des grands nombres.
c) Daprs le thorme central-limite :

n
X
n
E(X)
(X)

loi
N(0, 1)
donc on obtient :

n(T
n
)
loi
N(0, 1)
Lestimateur T
n
suit asymptotiquement la loi normale N
_
,
1

n
_
. On construit
donc un intervalle de confiance bilatral symtrique, puisque cette loi est sym-
trique. On peut trouver la valeur aproche de la constante u telle que :
1 = P
_
u <

n(T
n
) < u
_
Lintervalle de confiance est alors dfini par :
T
n

u

n
< < T
n
+
u

n
o u est approxim par le fractile dordre 1

2
de la loi normale standard
N(0, 1).
8

a) La f.r. F de X est nulle pour x 0, a pour valeur 1 pour x et a pour
expression, quand 0 x :
F(x) =
3

3
_
x
0
t
2
dt =
x
3

3
On calcule la f.r. de M
n
:
G(x) = P(M
n
< x) = P
_
n

i=1
(X
i
< x)
_
=
n

i=1
P(X
i
< x) = F
n
(x)
On obtient la densit par drivation :
g (x) = G

(x) = nF
n1
(x) f (x)
Donc pour 0 x :
g (x) = 3n
x
3n1

3n
b) Lexpression de la vraisemblance est :
L(x
1
, ..., x
n
; ) =
_
3

3
_
n n

i=1
x
2
i
si 0 x
i
pour 1 i n. La vraisemblance, considre comme une fonction
de , est nulle pour 0 < max {x
1
, ..., x
n
} puis dcroissante pour
max {x
1
, ..., x
n
} (voir figure 9.1) :
170 TD Statistique et probabilits
Figure 9.1
Il y a un maximum au point de discontinuit de la vraisemblance et lestimateur
du maximum de vraisemblance est donc M
n
. Comme E(M
n
) =
3n
3n + 1
, lesti-
mateur sans biais est T
n
=
3n + 1
3n
M
n
. La question de lefficacit ne se pose pas
car lensemble des valeurs possibles pour X dpend de .
c) Des deux conditions :

1
= G[(1 t
1
)] = (1 t
1
)
3n
1
2
= G[(1 t
2
)] = (1 t
2
)
3n
TD 9 Annales corriges Universit Panthon-Assas, Paris II 171


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
on dduit :
t
1
= 1
1 3n
1
t
2
= 1 (1
2
)
1 3n
Lintervalle de confiance est dfini par la condition :
1 = P{t
1
< M
n
< t
2
}
Sil est bilatral symtrique
1
=
2
= /2, do lintervalle de confiance pour
:
M
n
(1 2)
1 3n
< <
M
n
( 2)
1 3n
Mai 2007
1

a) Lintervalle de confiance unilatral obtenu avec labaque 1 est p > 72 %.
On peut ici utiliser le thorme central limite :

n
p
n
p
_
p
_
1 p
_

loi
N(0, 1)
On utilise cette loi asymptotique pour trouver la valeur approche de la constante
u telle que :
0,95 = P
_
_
p
n
u

p
n
_
1 p
n
_
n
< p
_
_
On a ici
p
100
= 0,8 et on lit dans la table 2 u = 1,645 do p > 73 %.
b) On lit sur labaque p > 93 %. Pour cet chantillon, on obtient
p
50
= 1, donc on
ne peut pas remplacer p
_
1 p
_
par
p
n
_
1 p
n
_
. Lintervalle de confiance serait
obtenu par rsolution de lingalit :
p
50
u

p
_
1 p
_
n
< p
2

a) Lestimateur X
n
est sans biais et convergent daprs la loi des grands
nombres.
b) Lestimateur T
n
=
1
2
S
2
n
obtenu par la mthode des moments est sans biais. La
v.a.
n 1
2
S
2
n
suit une loi du khi-deux n 1 degrs de libert, donc
V(T
n
) =
2
2
n 1
. Cet estimateur est sans biais et sa variance tend vers zro donc il
est convergent.
c) Pour comparer ces deux estimateurs sans biais, nous formons le rapport des
variances :
V(T
n
)
V
_
X
n
_ =
n
n 1

Comme cette quantit dpend de la valeur du paramtre estimer, on ne peut pas


conclure. Ces deux estimateurs ne sont pas comparables. Aucun deux ne peut
tre efficace, car il serait alors toujours le meilleur.
3

a) Lexpression de la vraisemblance est :
L(x
1
, ..., x
n
; ) =
n

i=1
f (x
i
; ) =
n

i=1
1

2
exp
(x
i
m
i
)
2
2
2
=
_
1

2
_
n
exp
1
2
2
n

i=1
(x
i
m
i
)
2
La log-vraisemblance est donc :
ln L(x
1
, ..., x
n
; ) = n ln
_

2
_

1
2
2
n

i=1
(x
i
m
i
)
2
On obtient comme drive :
lnL

=
1

2
n

i=1
(x
i
m
i
)
Elle sannule pour =
1
n

n
i=1
(x
i
m
i
). On drive une nouvelle fois :

2
lnL

2
=
n

2
< 0
Le point qui annule la drive premire correspond donc un maximum et les-
timateur du maximum de vraisemblance est :
T
n
=
1
n
n

i=1
(X
i
m
i
)
Les v.a. Y
i
= X
i
m
i
suivent des lois normales desprance et de variance
2
,
donc T
n
= Y
n
est un estimateur sans biais et convergent daprs la loi des grands
nombres. On calcule alors la quantit dinformation de Fisher :
I
n
() = E
_

2
lnL

2
_
=
n

2
Lestimateur est donc efficace puisque :
V(T
n
) =

2
n
=
1
I
n
()
172 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 173


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
b) Lestimateur T
n
= Y
n
suit une loi normale desprance et de variance
2
n.
On construit donc un intervalle de confiance bilatral symtrique puisque cette
loi est symtrique. On doit trouver la valeur de la constante u telle que :
1 = P
_
u <

n
T
n

< u
_
Lintervalle de confiance est alors dfini par :

n
< T
n
<
u

n
Ce qui est quivalent :
T
n

u

n
< < T
n
+
u

n
o u est le fractile dordre 1

2
de la loi normale standard N(0, 1).
Application : 7,17 < < 7,83.
Janvier 2007
1

Lensemble fondamental est constitu de tous les vnements lmentaires
possibles, crits sous la forme de triplets dont la premire lettre dsigne le sexe du
premier n. On a donc :
= {F, G}
3
Il y a quiprobabilit donc :
P(GGG) =
_
4
7
_
3
P(FFF) =
_
3
7
_
3
La probabilit que les enfants ne soient pas tous du mme sexe est donc :
1
_
4
7
_
3

_
3
7
_
3
=
36
49
2

a) Avec des notations videntes :

_
p
_
= P
_
M

T
+
_
=
P
_
M T
+
_
P(T
+
)
=
P(M) P
_
T
+
|M
_
P(M) P(T
+
|M) + P
_
M
_
P
_
T
+

M
_
=
p (1 )
p (1 ) +
_
1 p
_

b) Dans le cas o = :

_
p
_
=
p (1 )
+ p (1 2)
On obtient () = 1/2, cest--dire que dans le cas o le risque derreur du test
est gal la proportion danimaux malades, il y a seulement une chance sur deux
quun animal dont le test est positif soit rellement malade.
c) On a :
(0,005) =
1
1 + 198
Soit (0,005) = 49/248( 1/5) pour = 0,02 et (0,005) = 99/298( 1/3) pour
= 0,01. Mme avec un risque derreur de 1 % le taux de dtection exact est de
lordre de 30 %, cest--dire trs faible. Cela est d au fait que la maladie est rare.
3

La fonction de rpartition est constante par morceaux, donc la loi de proba-
bilit est discrte, avec ici X() = {3, 4, ..., n, ...} et pour tous les entiers n 3 :
p
n
= P(X = n) = P(X < n + 1) P(X < n)
= F(n + 1) F(n) =
_
1
1
2
n2
_

_
1
1
2
n3
_
=
1
2
n2
4

a) On calcule la f.r. de Y :
G
_
y
_
= P
_
Y < y
_
= P
_
X
2
< y
_
On a donc G
_
y
_
= 0 pour y 0, G
_
y
_
= 1 pour y 1 et, pour 0 y 1 :
G
_
y
_
= P
_

y < X <

y
_
= F
_

y
_
F
_

y
_
La densit est obtenue par drivation :
g
_
y
_
=
1
2

y
_
f
_

y
_
+ f
_

y
_
=
1
4

y
_
1 + 3y
_
b) On obtient comme esprance :
E(Y) =
1
4
_
1
0
_

y + 3y

y
_
dy =
7
15
5

a) Toute fonction linaire dune v.a. normale suit une loi normale, donc Y
suit une loi normale centre de variance 4 , X + Y = 3X suit une loi normale cen-
tre de variance 9 et X + Y 3X = 0 suit une loi normale dgnre (de variance
nulle), cest--dire est une variable certaine, P(X + Y + Z = 0) = 1.
b) On a cov (X, Y) = E(XY) = E
_
2X
2
_
= 2V(X) = 2 et V(X + Y + Z) = 0 car cest
une variable certaine.
174 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 175


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Septembre 2006
1

Lensemble fondamental est constitu de tous les vnements lmentaires
possibles, crits sous la forme de couples dont la premire lettre dsigne le rsul-
tat du d rouge :
= {P, I}
2
Les vnements considrs sont A = {(PP) , (PI)}, B = {(PP) , (IP)} et
C = {(PP) , (II)}. Il y a quiprobabilit donc :
P(A) = P(B) = P(C) =
2
4
Dautre part, A B = A C = B C = {(PP)} donc :
P(A B) =
1
4
= P(A) P(B) P(A C) =
1
4
= P(A) P(C)
P(B C) =
1
4
= P(B) P(C)
donc les vnements A, B et C sont indpendants deux deux. Enfin,
A B C = {(PP)} donc :
P(A B C) =
1
4
= P(A) P(B) P(C) =
1
8
donc les vnements A, B et C ne sont pas mutuellement indpendants.
2

a) Avec des notations videntes, on obtient dans le cas aucune mmoire
(am) :
P(X = n) = P
_
N...NN
_
=
_
2
3
_
n1
1
3
, n 1
Dans le cas mmoire courte (mc) :
P(X = 1) =
1
3
, P(X = n) = P
_
N...NN
_
=
2
3
_
1
2
_
n1
, n 2
Dans le cas mmoire parfaite (mp) :
P(X = 1) =
1
3
, P(X = 2) =
2
3

1
2
=
1
3
, P(X = 3) =
2
3

1
2
1 =
1
3
P(X = n) = 0 n 4
b) On calcule ensuite aisment, dans le cas am :
P(X 3) =
1
3
+
2
9
+
4
27
=
19
27
p
am
=
8
27
Dans le cas mc :
P(X 3) =
1
3
+
1
3
+
1
6
=
5
6
p
mc
=
1
6
Dans le cas mp :
P(X 3) =
1
3
+
1
3
+
1
3
= 1 p
mp
= 0
3

a) La fonction de rpartition de X est nulle pour x 0. Son expression pour
0 < x 1 est :
F(x) =
_
x
0
tdt =
x
2
2
Pour 1 x 2 :
F(x) = F(1) +
_
x
1
(2 t) dt =
x
2
2
+ 2x 1
On a ensuite F(x) = 1 pour x > 2. Puisque F(1) =
1
2
, la mdiane vaut 1 (cest le
centre de symtrie de cette loi).
b) On a P{|X 1| < x} = 0 pour tout rel x 0. Pour x > 0 :
P{|X 1| < x} = P{1 x < X < 1 + x} = F(1 + x) F(1 x)
Donc P{|X 1| < x} = 1 pour tout rel x 1. Pour 0 < x < 1 :
P{|X 1| < x} = 1 (1 x)
2
= x(2 x)
4

a) Les densits marginales de X et Y sobtiennent par intgration de la den-
sit du couple (voir figure 9.2) :
f
X
(x) =
_
+

f
_
x, y
_
dy = 2
_
1
x
dy = 2 (1 x) si 0 x 1
f
Y
_
y
_
=
_
+

f
_
x, y
_
dx = 2
_
y
0
dx = 2y si 0 y 1
On constate que f
_
x, y
_
= f
X
(x) f
Y
_
y
_
donc les v.a. X et Y ne sont pas indpen-
dantes.
b) Les densits conditionnelles sobtiennent en divisant la densit du couple par
la densit marginale de la v.a. qui conditionne :
f
X
_
x |Y = y
_
=
f
_
x, y
_
f
Y
_
y
_ =
1
y
pour 0 < x y
Il sagit de la loi uniforme sur lintervalle
_
0, y

.
La loi de Y sachant que X = x a pour densit :
176 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 177


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
f
Y
_
y |X = x
_
=
f
_
x, y
_
f
X
(x)
=
1
1 x
pour x y < 1
Il sagit de la loi uniforme sur lintervalle [x, 1].
5

Les estimateurs T
n
et T

m
sont sans biais, donc E
_
p
N
_
= aE(T
n
) + bE(T

m
)
= (a + b) p. Lestimateur
p
N
sera aussi sans biais si b = 1 a. Les estimateurs T
n
et T

m
sont indpendants, donc :
V
_
p
N
_
= a
2
V(T
n
) + b
2
V
_
T

m
_
= p
_
1 p
_
_
a
2
n
+
(1 a)
2
m
_
Lestimateur optimal est celui de variance minimale ; on doit donc minimiser la
fonction de a :
f (a) =
a
2
n
+
(1 a)
2
m
Cest une fonction de drive :
f

(a) =
2a
n

2 (1 a)
m
La drive sannule pour a =
n
n + m
avec f (a) =
2
n
+
2
m
> 0 donc lestimateur
sans biais optimal est :
p
N
=
nT
n
+ mT

m
N
Figure 9.2
6

a) Nous calculons lesprance de cette loi :
E (X) =
2

2
_

0
x
2
dx =
2
3
Pour calculer la variance, nous avons besoin de :
E
_
X
2
_
=
2

2
_

0
x
3
dx =

2
2
Do :
V(X) = E
_
X
2
_
E
2
(X) =

2
18
b) En galant E(X) avec la moyenne empirique X
n
, on obtient comme solution
=
3
2
X
n
. Lestimateur obtenu par la mthode des moments est donc :
T
n
=
3
2
X
n
Cet estimateur est sans biais, E(T
n
) =
3
2
E
_
X
n
_
=
3
2
E(X) = , et convergent, car
daprs la loi des grands nombres :
X
n

p
E(X)
do on dduit en multipliant par
3
2
:
T
n
=
3
2
X
n

p
3
2
E(X) =
On peut galement tablir la convergence de cet estimateur sans biais en mon-
trant que sa variance tend vers 0 :
V(T
n
) = V
_
3
2
X
n
_
=
9
4
V
_
X
n
_
=
9V(X)
4n
0
Lensemble des valeurs possibles pour la variable est ici X() = [0, ] qui dpend
du paramtre estimer. Lingalit FDCR nest donc pas vrifie et la question de
lefficacit ne se pose pas.
c) La f.r. F de X est nulle pour x 0, a pour valeur 1 pour x et a pour expres-
sion, quand 0 x :
F(x) =
2

2
_
x
0
tdt =
x
2

2
On calcule ensuite la f.r. de M
n
:
178 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 179


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
G(x) = P(M
n
< x) = P
_
n

i=1
(X
i
< x)
_
=
n

i=1
P(X
i
< x) = F
n
(x)
On obtient la densit de M
n
par drivation de sa f.r. :
g (x) = G

(x) = nF
n1
(x) f (x) = 2n
x
2n1

2n
0 x
Ainsi :
E(M
n
) =
2n

2n
_

0
x
2n
dx =
2n
2n + 1

La valeur de E(M
n
) montre que lestimateur sans biais est :
T

n
=
2n + 1
2n
M
n
Pour les mmes raisons que dans la question prcdente, la question de leffica-
cit ne se pose pas. On calcule ensuite :
E
_
M
2
n
_
=
2n

2n
_

0
x
2n+1
dx =
2n
2n + 2

2
Do la variance :
V(M
n
) = E
_
M
2
n
_
E
2
(M
n
) =
n
(n + 1) (2n + 1)
2

2
La variance de cet estimateur est :
V
_
T

n
_
= V
_
2n + 1
2n
M
n
_
=
(2n + 1)
2
4n
2
V(M
n
) =

2
4n(n + 1)
Nous allons comparer ces deux estimateurs sans biais en formant le rapport de
leurs variances :
V(T

n
)
V(T
n
)
=
2
n + 1
0
Lestimateur T

n
est donc infiniment plus efficace que T
n
.
7

a) On a E(X
2
) = , donc lestimateur T
n
de par la mthode des moments
est la moyenne empirique :
T
n
= X
2
n
=
1
n
n

i=1
X
2
i
Cet estimateur est sans biais :
E(T
n
) = E
_
X
2
_
=
Il est aussi convergent daprs la loi des grands nombres :
X
2
n

p
E(X
2
) =
Pour savoir sil est efficace, on dtermine dabord lexpression de la vraisem-
blance :
L(x
1
, ..., x
n
; ) =
n

i=1
f (x
i
; ) =
n

i=1
1

2
exp
x
i
2
2
=
_
1

2
_
n
exp
1
2
n

i=1
x
i
2
La log-vraisemblance est donc :
ln L(x
1
, ..., x
n
; ) =
n
2
ln(2)
n
2
ln
1
2
n

i=1
x
2
i
Soit en drivant :
lnL

=
n
2
+
1
2
2
n

i=1
x
2
i
On drive une nouvelle fois :

2
lnL

2
=
n
2
2

1

3
n

i=1
x
2
i
On calcule alors la quantit dinformation de Fisher :
I
n
() = E
_

2
lnL

2
_
=
n
2
2
+
1

3
n

i=1
E
_
X
2
i
_
=
n
2
2
La v.a. X
2
/ suit une loi du khi-deux 1 degr de libert, donc V(X
2
) = 2
2
et :
V(T
n
) =
2
2
n
=
1
I
n
()
Lestimateur T
n
est donc efficace.
b) La v.a. nT
n
/ suit une loi du khi-deux n degrs de libert. Le paramtre
mesurant un degr dimprcision, on choisit un intervalle unilatral dfini par :
1 = P
_
nT
n

> a
_
Application : T
50
= 2 et a = 34,76 d

o lintervalle <
100
a
= 2,88.
180 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 181


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Mai 2006
1

a) Lintervalle de confiance est unilatral gauche en raison de linterprta-
tion du paramtre. La taille dchantillon (n = 150) permet dutiliser le thorme
central limite :

n
p
n
p
_
p
_
1 p
_

loi
N(0, 1)
On utilise cette loi asymptotique pour trouver la valeur approche de la constante
u telle que :
0,95 = P
_
_
p < p
n
+ u

p
n
_
1 p
n
_
n
_
_
On a ici
p
150
= 4 % et on lit dans la table 1 u = 1,645 do p < 7 %.
b) On doit utiliser labaque car n = 30 est trop petit ; on lit p < 8 %. Lestimation
de p est ici de 0 % contre 4 % dans le cas prcdent. Cependant, cela conduit mal-
gr tout un intervalle de confiance plus grand car la taille dchantillon est trs
petite. On ne peut pas conclure une meilleure qualit de la nouvelle machine.
2

a) Lexpression de la vraisemblance est :
L(x
1
, ..., x
n
; ) =
n

i=1
f (x
i
; ) = exp
n

i=1
(x
i
) = e
n
exp
_

i=1
x
i
_
si x
i
pour 1 i n. Cette fonction de est croissante pour
min{x
1
, ..., x
n
} puis nulle pour > min{x
1
, ..., x
n
} (voir figure 9.3) :
L
0 min x
i

Figure 9.3
Il y a un maximum au point de discontinuit de la vraisemblance et lestimateur
du maximum de vraisemblance est donc

n
= min{X
1
, ..., X
n
}.
b) La question de lefficacit ne se pose pas car lensemble des valeurs possibles
pour X dpend de . On peut cependant calculer la quantit dinformation de
Fisher :
lnL

= n
I
n
() = E
_
lnL

_
2
= n
2
3

a) La v.a. Y tant la moyenne de 100 variables indpendantes desprance m
et dcart type , on peut considrer quelle suit la loi asymptotique dduite du
thorme central limite, cest--dire quelle suit une loi normale desprance m et
dcart type /10. La moyenne empirique Y
9
suit donc une loi normale desp-
rance m et dcart type divis par

9, soit /30.
b) La moyenne empirique Y
9
est un estimateur sans biais de m. La question de la
convergence ne se pose pas puisque la taille dchantillon est ici fixe 9 ; cepen-
dant il sagit quand mme dun bon estimateur car cela correspond 900 obser-
vations individuelles. La variance empirique modifie :
S
2
9
=
1
8
9

i=1
_
Y
i
Y
9
_
2
est un estimateur sans biais de la variance de Y qui vaut
2
/100.
c) Pour construire un intervalle de confiance bilatral pour m, on utilise la statis-
tique :

9
Y
9
m
S
9
qui suit une loi de Student 8 degrs de libert. On peut donc trouver la valeur t
telle que :
1 = P
_
t <

9
Y
9
m
S
9
< t
_
Lintervalle de confiance est alors :
Y
9

t
3
S
9
< m < Y
9
+
t
3
S
9
Pour 1 = 0,95 le fractile est t = 2,306 et on obtient lintervalle :
289,5 < m < 312,5
182 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 183


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
Janvier 2006
1

Avec des notations videntes, les hypothses se traduisent par :
P(MY) =
1
10
P(PR) =
2
10
P(BV) =
7
10
P(MT |MY) =
9
10
P(MT |PR) =
5
10
P(MT |BV) =
1
20
On en dduit :
P(BV|MT) =
P(BV MT)
P(MT)
=
7
10

1
20
1
10

9
10
+
2
10

5
10
+
7
10

1
20
=
7
45
2

a) La fonction de rpartition de X est nulle pour x 0. Son expression pour
0 < x 1 est :
F(x) =
_
x
0
t
2
dt =
x
2
4
Pour 1 x 2 :
F(x) = F(1) +
_
x
1
1
2
dt =
2x 1
4
Pour 2 x 3 :
F(x) = F(2) +
_
x
2
3 t
2
dt =
x
2
+ 6x 5
4
On a ensuite F(x) = 1 pour x > 3.
b) On obtient :
E(X) =
_
1
0
x
2
2
dx +
_
2
1
x
2
dx +
_
3
2
3x x
2
2
dx =
3
2
3

On pose m = E(X) et
2
= V(X) et on considre la variable centre et
rduite ; les conditions scrivent :
P
_
X m

<
3 m

_
= 1 0,8413 P
_
X m

<
12 m

_
= 0,9772
La table 1 permet dobtenir
3 m

= 1 et
12 m

= 2 do m = 6 et = 3. On en
dduit :
P(X > 0) = P
_
X 6
3
> 2
_
= P
_
X 6
3
< 2
_
= 0,9772
La v.a.
_
X 6
3
_
2
suit une loi du khi-deux 1 degr de libert ; la condition :
P
_
_
X 6
3
_
2
<
a
9
_
= 0,975
permet dobtenir, partir de la table 5, a = 45,18.
4

La loi du couple (X, Y) est donne dans le tableau suivant, avec les lois de X
et Y dans les marges :
184 TD Statistique et probabilits
Avec par exemple P(X = 1, Y = 2) = 2
_
1
2
_
2
. On calcule partir du tableau
E(X) = 1, E(Y) =
3
2
et E(XY) =
3
2
. Ainsi cov (X, Y) = 0 et les variables X et Y sont
cependant dpendantes, car par exemple P(X = 1, Y = 1) = P(X = 1) P(Y = 1) .
Septembre 2005
1

La construction dun arbre permet dobtenir aisment
= {RR, RNR, RNNR, NNRR, NRNR, NRR} , avec :
P(RR) =
3
10
P(RNR) =
1
5
P(RNNR) =
1
10
P(NNRR) =
1
10
P(NRNR) =
1
10
P(NRR) =
1
5
On peut vrifier que la somme de ces probabilits est bien gale 1.
2

La f.r. F de X est nulle pour x 0, a pour valeur 1 pour x 1 et a pour
expression, quand 0 x 1 :
F(x) = 2
_
x
0
(1 t) dt = 2
_
t
t
2
2
_
x
0
= 2x x
2
On calcule ensuite la f.r. de M
n
:
G(x) = P(M
n
< x) = P
_
n

i=1
(X
i
< x)
_
=
n

i=1
P(X
i
< x) = F
n
(x)
X
Y
0 1 2
1 1/4 0 1/4 1/2
2 0 1/2 0 1/2
1/4 1/2 1/4 1
TD 9 Annales corriges Universit Panthon-Assas, Paris II 185


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
On obtient la densit de M
n
par drivation de sa f.r. :
g (x) = G

(x) = nF
n1
(x) f (x) = 2n(1 x)
_
2x x
2
_
n1
0 x 1
3

La moyenne m = E(X) tant le centre de symtrie de la loi normale, on
en dduit m = 1. On pose
2
= V(X) et on considre la variable centre et
rduite ; lautre condition scrit :
P
_

0,6

<
X + 1

<
0,6

_
= 2
_
0,6

_
1 = 0,770
La table 1 permet dobtenir = 1/2. On en dduit :
P(X > 0) = P(2X + 2 > 2) = 0,0228
La v.a. 4(X + 1)
2
suit une loi du khi-deux 1 degr de libert ; la condition :
P
_
4X
2
+ 8X + 4 < 4a + 4
_
= 0,995
permet dobtenir, partir de la table 5, a = 0,97.
4

Les densits marginales de X et Y sobtiennent par intgration de la densit
du couple (voir figure 9.4) :
f
X
(x) =
_
+

f
_
x, y
_
dy =
_
x
0
e
yx
dy = 1 e
x
si 0 x 1
f
X
(x) =
_
1
0
e
yx
dy = (e 1) e
x
si 1 x
f
Y
_
y
_
=
_
+

f
_
x, y
_
dx =
_
+
y
e
yx
dx = 1 si 0 y 1
On constate que f
_
x, y
_
= f
X
(x) f
Y
_
y
_
donc les v.a. X et Y ne sont pas indpen-
dantes.
y
0
1
1
x
Figure 9.4
5

a) La v.a. X suit une loi gomtrique de paramtre 1/ :
P(X = k) =
1

_
1
1

_
k1
k N

avec E(X) = .
b) En galant E(X) avec la moyenne empirique X
n
, on obtient comme solution
= X
n
. Lestimateur obtenu par la mthode des moments est donc T
n
= X
n
. Cet
estimateur est sans biais, E(T
n
) = E
_
X
n
_
= E(X) = , et convergent daprs la loi
des grands nombres.
6

Pour construire un intervalle de confiance bilatral pour , on utilise la sta-
tistique T
n1
qui suit une loi de Student n 1 degrs de libert. On peut donc
trouver la valeur t telle que :
1 = P
_
t <

n
X
n

S
n
< t
_
o t est le fractile dordre 1

2
. Lintervalle de confiance est alors :
X
n
t
S
n

n
< < X
n
+ t
S
n

n
Pour 1 = 0,95 et n = 30 le fractile est t = 2,045.
7

Lexpression de la vraisemblance est :
L (x
1
, ..., x
n
; ) =
n

i=1
1

x
1 1
i
=
_
1

_
n
_
n

i=1
x
i
_
1 1
La log-vraisemblance est :
lnL(x
1
, ..., x
n
; ) = n ln
_
1

+ 1
_
n

i=1
lnx
i
On obtient comme drive :
lnL

=
n

+
1

2
n

i=1
lnx
i
Elle sannule pour =
1
n

n
i=1
lnx
i
. La drive seconde est :

2
lnL

2
=
n

2

2

3
n

i=1
lnx
i
Au point qui annule la drive premire, la drive seconde est ngative, donc
cela correspond un maximum et lestimateur du maximum de vraisemblance
186 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 187


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
est :
T
n
=
1
n
n

i=1
lnX
i
Nous avons E(T
n
) = E(lnX), donc nous calculons :
E (ln X) =
1

_
+
1
x
1 1
ln xdx
Soit en intgrant par parties :
E (ln X) =
_
x
1
ln x
_
+
1
+
_
+
1
x
1 1
dx =
Cet estimateur est donc sans biais et convergent daprs la loi des grands
nombres :
T
n

p
E(lnX) =
Pour savoir sil est efficace on calcule alors la quantit dinformation de Fisher :
I
n
() = E
_

2
lnL

2
_
=
n

2
+
2

3
n

i=1
E(lnX
i
) =
n

2
Il faut maintenant calculer :
E (ln X)
2
=
1

_
+
1
x
1 1
(ln x)
2
dx
Soit en intgrant par parties :
E (ln X)
2
=
_
x
1
(ln x)
2
_
+
1
+ 2
_
+
1
x
1 1
ln xdx = 2E (ln X) = 2
2
Ainsi V(lnX) =
2
et :
V(T
n
) =
V(lnX)
n
=

2
n
=
1
I
n
()
donc lestimateur est efficace.
Mai 2005
1

a) Lintervalle de confiance unilatral obtenu avec labaque 1 est p > 93 %.
On peut ici utiliser le thorme central limite :

n
p
n
p
_
p
_
1 p
_

loi
N(0, 1)
On utilise cette loi asymptotique pour trouver la valeur approche de la constante
u telle que :
0,95 = P
_
_
p
n
u

p
n
_
1 p
n
_
n
< p
_
_
On a ici
p
250
= 0,96 et on lit dans la table 1 u = 1,645 do p > 94 %, rsultat trs
proche du rsultat exact prcdent.
b) On doit utiliser labaque car n = 30 est trop petit ; on lit sur labaque 1 p > 90 %
avec pour cet chantillon
p
30
= 1. Bien que lestimation soit plus leve que dans
le cas prcdent, cela conduit malgr tout un intervalle de confiance plus grand
car la taille dchantillon est trs petite. On ne peut pas conclure une meilleure
qualit du nouvel quipement.
2

a) On considre que le poids affich peut scrire X = 100 + , o on fera
lhypothse que lerreur de mesure suit une loi normale centre. La variance
note de cette loi sera un bon indicateur de qualit ; moins les mesures affiches
seront disperses autour de la vraie valeur, meilleur sera le pse-lettre. On retient
comme estimateur sans biais de cette variance thorique la variance empirique :
T
n
=
1
n
n

i=1
(X
i
100)
2
La v.a. nT
n
/ suit une loi du khi-deux n degrs de libert, donc E(T
n
) = et
V(T
n
) = 2
2
/n.
b) Le paramtre mesurant un degr dimprcision, on choisit un intervalle unila-
tral dfini par :
1 = P
_
nT
n

> a
_
Pour n = 30 on lit a = 18, 49 et on obtient comme estimation :
T
A
30
=
1
30
(315400 200 3020) + 100
2
= 380
do lintervalle < 617.
c) Pour n = 50 on lit a = 34,76 et on obtient comme estimation :
T
B
50
=
1
50
(510000 200 4950) + 100
2
= 400
do lintervalle < 575. Bien que lestimation soit ici plus grande, lintervalle de
confiance est plus petit car la taille dchantillon est plus grande. Le modle B
parat donc de meilleure qualit.
3

a) La f.r. de la v.a. Y = lnX est nulle pour y 0 et a pour expression pour
y > 0 :
188 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 189


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
G
_
y
_
= P
_
lnX < y
_
= P
_
lnX > y
_
= P
_
X > e
y
_
= 1 F
_
e
y
_
o F est la f.r. de la v.a. X. On en dduit par drivation la densit de Y, qui est
nulle pour y 0 et qui a pour expression pour y > 0 :
g
_
y
_
= e
y
f
_
e
y
_
=
1

e
y
On reconnat la densit de la loi exponentielle de paramtre 1/.
b) Nous calculons lesprance :
E (X) =
1

_
1
0
x
1
dx =
1
+ 1
Pour calculer la variance, nous avons besoin de :
E
_
X
2
_
=
1

_
1
0
x
1 +1
dx =
1
2 + 1
Do :
V(X) = E
_
X
2
_
E
2
(X) =

2
( + 1)
2
(2 + 1)
c) Lexpression de la vraisemblance est :
L (x
1
, ..., x
n
; ) =
n

i=1
1

x
1 1
i
=
_
1

_
n
_
n

i=1
x
i
_
1 1
La log-vraisemblance est :
lnL(x
1
, ..., x
n
; ) = n ln +
_
1

1
_
n

i=1
lnx
i
On obtient comme drive :
lnL

=
n

2
n

i=1
lnx
i
Elle sannule pour =
1
n

n
i=1
lnx
i
. La drive seconde est :

2
lnL

2
=
n

2
+
2

3
n

i=1
lnx
i
Au point qui annule la drive premire, la drive seconde est ngative, donc
cela correspond un maximum et lestimateur du maximum de vraisemblance
est :
T
n
=
1
n
n

i=1
lnX
i
Nous avons E(T
n
) = E(lnX) = E(Y) = donc cet estimateur est sans biais ; il a
pour variance :
V(T
n
) =
V(ln X)
n
=

2
n
Il est donc convergent car cette variance tend vers 0 avec
1
n
. Pour savoir sil est
efficace, on calcule la quantit dinformation de Fisher :
I
n
() = E
_

2
ln L

2
_
=
n

2
+
2

3
n

i=1
E(ln X
i
) =
n

2
Ainsi :
V(T
n
) =

2
n
=
1
I
n
()
donc lestimateur est efficace.
Janvier 2005
1

On a :
P(I
1
= I
0
) = p P(I
1
= aI
0
) = 1 p
P(I
2
= I
0
) = p
2
P(I
2
= aI
0
) = 2p
_
1 p
_
P
_
I
2
= a
2
I
0
_
=
_
1 p
_
2
Plus gnralement, pour tout entier k tel que 0 k n :
P
_
I
n
= a
k
I
0
_
=
_
n
k
_
p
nk
_
1 p
_
k
2

a) On obtient p
1
= 1 p et :
p
2
= P(V
2
V
1
) + P
_
V
2
V
1
_
=
_
1 p
_
2
+ p
2
b) Pour n 2 :
p
n
= P
_
V
n
V
n1
_
+ P
_
V
n
V
n1
_
= P
_
V
n1
_
P
_
V
n
|V
n1
_
+ P
_
V
n1
_
P
_
V
n

V
n1
_
= p
n1
_
1 p
_
+
_
1 p
n1
_
p = p +
_
1 2p
_
p
n1
c) On obtient :
u
n
= p
n

1
2
=
_
1 2p
_
u
n1
=
_
1 2p
_
n1
u
1
=
1
2
_
1 2p
_
n
Ainsi, pour 0 < p < 1:
190 TD Statistique et probabilits
TD 9 Annales corriges Universit Panthon-Assas, Paris II 191


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
p
n
=
1
2
+
1
2
_
1 2p
_
n

1
2
car |1 2p| < 1
avec p
n
= 1 si p = 0 et p
2k
= 1, p
2k+1
= 0 si p = 1.
3

a) On obtient E(X) = 0 car la loi est symtrique et :
V(X) = E
_
X
2
_
=
2
4
_
1
0
_
x
2
+ 3x
4
_
dx =
7
15
b) La f.r. Fde X est nulle pour x 1 a pour valeur 1 pour x 1 et a pour expres-
sion, quand 1 x 1 :
F(x) =
_
x
1
_
1
4
+
3
4
t
2
_
dt =
x
3
4
+
x
4
+
1
2
La probabilit demande se calcule par :
p = P{X [x
1
, x
2
]} =
_
x
2
x
1
f (t) dt = F(x
2
) F(x
1
)
On a p = 0 pour x
2
< 1 et 1 < x
1
, les autres valeurs tant indiques dans le
tableau suivant, en fonction de la position de x
1
et x
2
:
x
1
< 1 < x
2
< 1 x
1
< 1 < 1 < x
2
1 < x
1
< x
2
< 1 1 < x
1
< 1 < x
2
1
4
_
x
3
2
+ x
2
+ 2
_
1
1
4
(x
2
x
1
) +
1
4
_
x
3
2
x
3
1
_

1
4
_
x
3
1
+ x
1
2
_
4

On obtient E(X) = 0 car la loi est symtrique, E(Y) =
1
2
,
cov (X, Y) = E(XY) = 0. Les variables X et Y sont cependant dpendantes, car
par exemple P(X = 1, Y = 2) =
1
8
= P(X = 1) P(Y = 2) =
3
8

3
8
.
Tables statistiques
Table 1 : Fonction de rpartition de la loi normale centre rduite
Table 2 : Fractiles de la loi normale centre rduite
Table 3 : Loi binmiale
Table 4 : Loi de Poisson
Table 5 : Fractiles de la loi
2

Table 6 : Fractiles de la loi de Student T

Table 7 : Fractiles dordre 0,95 de la loi de Fisher-Snedecor


Table 7 (suite) : Fractiles dordre 0,975 de la loi de Fisher-Snedecor
Abaque 1 : Intervalles de conance pour une proportion (bilatral de niveau 0,90
ou unilatral de niveau 0,95)
Abaque 2 : Intervalles de conance pour une proportion (bilatral de niveau 0,95
ou unilatral de niveau 0,975)
Ces tables sont publies avec laimable autorisation de la Revue de statistique
applique, numro spcial Aide-mmoire pratique des techniques statistiques, ditions
du CERESTA, 1986.
194 TD Statistique et probabilits
Table 1
Fonction de rpartition de la loi normale centre rduite
Probabilit F(u) dune valeur infrieure u
Tables pour les grandes valeurs de u
Tables statistiques 195
Table 2
Fractiles dordre P de la loi normale centre rduite
196 TD Statistique et probabilits
Table 2 (suite)
Fractiles dordre P de la loi normale centre rduite
Grandes valeurs de u
Tables statistiques 197
Table 3
Loi binmiale
Probabilits cumules
198 TD Statistique et probabilits
Table 4
Loi de Poisson
Tables statistiques 199
Table 5
Fractiles dordre P de la loi
2

200 TD Statistique et probabilits


Table 6
Fractiles dordre P de la loi de Student T

Tables statistiques 201


Table 7
Fractiles dordre 0,95 de la loi de Fisher-Snedecor F(
1
,
2
)
202 TD Statistique et probabilits
Table 7 (suite)
Fractiles dordre 0,975 de la loi de Fisher-Snedecor F(
1
,
2
)
Tables statistiques 203
Abaque 1
Intervalles de conance pour une proportion p
Intervalle bilatral de niveau de conance 0,90
Intervalles unilatraux de niveau de conance 0,95
204 TD Statistique et probabilits
Abaque 2
Intervalles de conance pour une proportion p
Intervalle bilatral de niveau de conance 0,95
Intervalles unilatraux de niveau de conance 0,975
A
abaque : 159, 165, 171, 181, 187, 188
algbre : 2, 7, 8
atome : 7, 15
B
biais : 86
C
coefficient de corrlation : 52
combinaison sans rptition : 18
convergence
en loi : 73, 75, 76, 78, 79
en moyenne : 77, 79
en moyenne quadratique : 74, 75,
77, 79, 96, 119, 120
en probabilit : 72-79, 86, 120
convolution : 52
couple : 158, 161, 164, 166, 168
covariance : 23, 52, 56, 158, 160, 164,
166, 168, 184, 191
D
densit : 36, 39-42, 44, 45, 53, 55, 56,
160-166, 170
conditionnelle : 161, 176
marginale : 59, 161, 164, 176, 185
E
cart type : 22, 45, 90, 112, 129-131,
137, 152
emv : 89
ensemble fondamental : 1, 5-7, 9, 11,
12, 25, 26, 160, 161, 164, 173, 175
erreur quadratique moyenne : 86, 93
esprance : 22, 25, 27, 36, 39, 42, 45,
56-58, 61, 81, 82, 119, 130, 131
conditionnelle : 58, 60
estimateur
convergent : 86, 89-91, 113, 169, 171,
172, 178, 180, 190
du maximum de vraisemblance :
88, 90, 91, 159, 160, 165, 166, 170,
172, 181, 186, 189
efficace : 87, 89-92, 113, 132, 159,
160, 162, 163, 165-167, 169, 170,
172, 180, 187, 190
optimal : 162, 177
sans biais : 86, 87, 89-91, 113, 114,
142, 145, 159, 162, 169, 171, 172,
190
vnement
lmentaire : 1, 6, 9, 13, 14, 26, 61,
164, 173, 175
incompatible : 5, 9
indpendant : 5, 167, 175
F
fonction de rpartition : 35, 40, 44, 47,
56, 59, 114, 115, 127, 158, 160, 161,
163, 166, 169, 170, 174, 176, 183, 184,
188, 191
formule
de Bayes : 4, 11, 13
Index
206 TD Statistique et probabilits
de la probabilit totale : 4, 12, 26
de Poincar : 3, 8
fractile : 42, 43, 142, 169, 173, 182, 186
frquence empirique : 90, 94, 110, 115
I
indpendance : 157, 158, 161, 164, 166
ingalit
de Bienaym-Tchebychev : 71, 75,
76
de Frchet-Darmois-Cramer-Rao :
87, 92, 178
de Markov : 71, 75, 77
L
loi
asymptotique (limite) : 171, 181,
182, 188
binmiale : 24, 30, 33, 56, 65, 97, 136
binmiale ngative : 25
conditionnelle : 52, 53, 57, 58, 91
de Bernoulli : 23, 94, 107, 110, 129,
141
de Cauchy : 45, 76
de Dirac : 23, 45
de Fisher-Snedecor : 39, 43
de Gumbel : 44
de Laplace : 41
de Pareto : 40, 92, 114
de Poisson : 24, 58, 76, 91, 113, 128,
129, 135, 155
de probabilit : 21, 25-28, 44, 57, 58,
60, 81, 87, 114, 115, 160, 161, 163,
164, 166
de Student : 39, 43, 78, 108, 116, 118,
145, 148, 153, 168, 176, 182, 186
des grands nombres : 72, 76-79, 92,
94, 96, 103, 119, 120, 169, 178, 180,
187
diffuse : 36, 40
du khi-deux : 39, 42, 83, 103, 118,
127, 148, 153, 154, 158, 168, 171,
180, 184, 185, 188
du maximum : 43
exponentielle : 38, 50, 79, 84, 100,
114, 189
exponentielle tronque : 43
gamma : 38
gomtrique : 24, 32, 186
hypergomtrique : 24, 34
limite : 158, 169
marginale : 51, 53, 58, 61, 64, 97
mixte : 45
multinomiale : 55, 60
normale : 38, 39, 42, 45, 55, 56, 77,
78, 92, 108, 111-113, 129-131, 133,
134, 137, 147, 151, 158-164, 169,
188
uniforme : 37, 59, 92, 128, 132, 176,
177
uniforme discrte : 32, 33
M
matrice de variances-covariances :
54, 55, 70
mdiane : 43, 46, 47, 161, 176
mthode des moments : 88, 89, 93,
100, 113, 158, 162, 164, 169
moment : 23, 27, 37, 40, 45
moyenne empirique : 88, 91, 93, 94,
98, 102, 108, 113, 114, 142, 143, 151,
154, 155, 163, 169, 178, 179, 182, 186
P
permutation sans rptition : 18
probabilit conditionnelle : 4, 10, 11,
13, 31, 58
puissance : 125, 128, 130-133, 137
Q
quantit dinformation de Fisher : 87,
95, 97, 99, 102, 163, 172, 180, 182,
187, 190
R
rgion
critique : 124, 130-132, 134, 142, 143,
146, 153
dacceptation : 124
rgression : 54, 58, 60, 61
Index 207


D
u
n
o
d
.

L
a

p
h
o
t
o
c
o
p
i
e

n
o
n

a
u
t
o
r
i
s

e

e
s
t

u
n

d

l
i
t
.
risque
de premire espce : 125, 127-133,
153
de seconde espce : 125, 127, 147
S
support : 41
T
test
dadquation : 127, 135
dindpendance : 126, 135
mixte : 138
UPP : 126, 133, 149
thorme
central limite : 74, 78, 79, 113, 142,
169, 171, 181, 182, 187
de Bayes : 124
de Lehmann : 126
de Slutsky : 72, 73, 80, 100, 120
tribu : 2, 8, 25
V
valeur extrme : 59, 132
variable alatoire certaine : 23, 29, 174
variables alatoires indpendantes :
161, 164, 166, 176, 185
variance : 22, 25, 26, 37, 39, 41, 42, 57,
112, 113, 119, 120, 145, 152
empirique : 88, 148, 155, 159, 182,
188
vraisemblance : 87-89, 94, 101, 129,
137, 139, 141, 143, 145, 159, 170, 172,
180, 181, 186, 189
PUBLIC
Licence conomie-
Gestion, AES, MASS
MIAGE
www.dunod.com
Les ouvrages de la collection TD proposent des rsums
de cours, de nombreux QCM, des questions de rflexion,
ainsi que des exercices dentranement et des sujets
dannales corrigs.
Cette 4
e
dition, complte par des sujets dannales
rcents, couvre en 180 questions et exercices les bases
de la statistique et des probabilits :
notion de probabilit ;
variable alatoire discrte ;
variable alatoire continue ;
couple et vecteur alatoires ;
notions de convergence ;
estimation ponctuelle ;
estimation par intervalle de confiance ;
thorie des tests.
TD co Sup
Jean-Pierre Lecoutre
STATISTIQUE
ET PROBABILITS
4
e
dition
JEAN-PIERRE LECOUTRE
Matre de confrences
luniversit Panthon-
Assas (Paris II).
- QCM
- questions de rflexion
- exercices dentranement
- annales
+ corrigs
Cours
30%
Applications
70%
ISBN 978-2-10-054431-8

Das könnte Ihnen auch gefallen