Beruflich Dokumente
Kultur Dokumente
probabilité (*1000 )
350
300
250
200
150
100
50
0 x
-1 0 1 2 3 4 5 6 7 8
Sur ce dessin, nous avons représenté la distribution de la loi binomiale B(7, 0.46). Les
modalités de la variable sont représentées par l’axe des abscisses, on a représenté les
probabilités de chaque modalité sur l’axe des ordonnées (en multipliant les probabilités par
1000 pour obtenir un plus beau dessin). La représentation adoptée est celle dite du
diagramme en bâtons : à chaque modalité de la variable X on associe un bâton de longueur
égale à la probabilité.
Comment, sur ce dessin, calculer simplement la probabilité que X soit inférieur ou égal à 3 ?
Il suffit simplement de sommer les longueurs des bâtons associés aux modalités 0, 1, 2 et 3.
Une autre astuce consiste à passer par des surfaces :
probabilité (*1000 )
350
300
250
200
150
100
50
0 x
1 1.5 2 2.5 3 3.5 4 4.5
350 350
300 300
250 250
200 200
150 150
100 100
50 50
X X
0 0
-1 0 1 2 3 4 5 6 7 8 -1 0 1 2 3 4 5 6 7 8
On peut alors revenir au graphique de la distribution : sur le graphique de gauche, nous avons
superposé à la fois les dessins en bâtons et en surface , pour ne conserver, dans le graphique
de droite, que les surfaces.
Combien vaut la probabilité que X soit inférieure ou égale à 3 ? Il suffit de calculer la surface
hachurée dans le graphique ci dessous.
probabilité (*1000 )
350
300
250
200
150
100
50
0 x
-1 0 1 2 3 4 5 6 7 8
Ce dessin nous permet donc de calculer la probabilité que X soit inférieur ou égal à 3 en se
servant d’un calcul de surface.
probabilité (*1000 )
350
300
250
200
150
100
50
0 x
-1 0 1 2 3 4 5 6 7 8
Si on hachure non pas jusqu’à 2.2 mais jusqu’à x0, on trouvera de même la probabilité que W
soit inférieure à x0.
probabilité (*1000 )
350
300
250
200
150
100
50
0 x
-1 3 x0 7
x
a x0 b
x
a x0 b
Un peu de vocabulaire :
Etant donnée une variable aléatoire W continue, la fonction f qui lui est associée selon
le graphique précédent s’appelle fonction de densité de la variable aléatoire W.
Que se passe-t-il lorsque l’on a affaire à une loi Binomiale telle celle de l’exemple 2, de
paramètres B(2000, p) ?
Le diagramme en bâtons est évidemment exclu: pour représenter sur une feuille plus de 2000
bâtons, ... une gageure. Quid du diagramme en surface ?
probabilité (*10000)
1000
800
600
400
200
0 x
0 10 20 30 40 50 60 70 80 90 100
Ce graphique ne doit pas faire illusion : la courbe ne permet de calculer les probabilités que
pour les points de coordonnées entières.
Remplaçons alors ce graphique par celui de la variable continue W qui admet comme densité
la fonction tracée sur la figure précédente.
densité ( * 10 000 )
1000
800
600
400
200
0 x
0 25 50 x0 75 100
Sur ce graphique, la probabilité que W soit inférieure à x0 est égale à la surface hachurée.
Quand à la probabilité que X soit inférieure ou égale à, mettons 64, elle est égale à la surface
correspondante du graphe de W en prenant x1 = 64.5 .
Restent deux problèmes : (i) Que se passe-t-il dans le raisonnement précédent, si on remplace
64.5 par 64 ? et (ii) peut-on avoir une idée de la fonction qui donne la densité de W ?
le problème (i), ce que l’on appelle la correction de continuité Regardons le graphique : En
calculant la surface grisée pour une valeur de x’ = 64 au lieu d’une valeur de x = 64.5, on fait
évidemment une erreur. Cette erreur est constituée d’une petite surface telle qu’elle apparaît
densité ( * 10 000 )
1000
800
600
400
200
x
0
50 52 54 56 58 60 62 64 66 68 70 72 74 76 78 80
A l’évidence, la différence est faible : dans ce cours, tout au moins, on la négligera : pour
calculer la probabilité que X soit inférieur ou égal à 64, on calculera tout bêtement la
probabilité que W soit inférieur à 64. Les « puristes » pourront, s’ils le veulent, calculer la
probabilité que W soit inférieur à 64.5 , ils trouveront « à peu prés » le même résultat .
Reste le problème (ii) , celui de la détermination de la loi de W. Il fait l’objet du chapitre
suivant.
Il n’est pas dans l’esprit de ce cours de faire des calculs particuliers à partir de l’expression
de la fonction de densité. Aussi, il ne faut pas s’effrayer de la forme particulière de cette
fonction, on ne s’en servira pas.
densité (* 1000)
30
25
20
15
10
5
0 x
-20 -10 0 10 20 30 40 50 60
Pour tout autre jeux de paramètres, on retrouverait le même type de courbe dite « courbe en
cloche ». La courbe de densité admet un axe de symétrie, matérialisé en pointillés sur le
graphique, qui passe par la valeur centrale (ici 20 ) qui est égal à la moyenne (l’espérance) de
la variable X dont on a représenté la densité. Le paramètre σ représente l’écart-type de X.
Pour calculer la probabilité que X soit inférieur à une valeur donnée, par exemple 15 , il
suffit de calculer la surface en grisé sur le dessin de gauche ci-dessous. Pour calculer la
probabilité que X soit compris entre deux valeurs, par exemple 10 et 35, il suffit de calculer
la surface en grisé du graphique de droite ci-dessous. Nous reviendrons plus loin sur le calcul
de ces surfaces au moyen de tables.
Comme on le voit sur le graphique ci dessous, plus σ est faible, plus la variable est
« concentrée autour de la moyenne »
en effet, rappelons nous que la surface « sous la courbe » vaut 1 pour chacune des courbes :
prenons un intervalle centré autour de la moyenne, par exemple entre 15 et 25 : la
comparaison des surfaces montre évidemment que la probabilité de cet intervalle est plus
forte avec la loi N(20,10) (petit écart-type) qu’avec la loi N(20, 15) (gros écart-type)
Comme nous l’avons dit, nous reviendrons plus tard sur les calculs de surfaces associés aux
lois de Laplace.
X − 85 122.5 − 85
P( X < 122.5) = P( 15 < 15
)
P( X < 122.5) = P( Y < 2.5)
Y suit une loi N(01
.)
exemple 3 Soit X une v.a. qui suit une loi N(-50, 3). Calculer la probabilité
P( -57.5 < X < -44 )
solution : Allons droit au but, comme on doit le faire à l’examen : Je centre et je réduits :
−57.5 − ( −50) X − ( −50) −44 − ( −50)
P( −57.5 < X < −44) = P( < < )
3 3 3
P( −57.5 < X < −44) = P( −2.5 < Y < 2)
Y suit une loi N(01
.)
Reste à savoir comment on calcule les probabilités associées à une loi N(0,1)
x0 x x
x0
-3 0 3 -3 0 3
sur les deux graphiques ci dessus, on a représenté les surfaces qui permettent de calculer
P( X < x ) (dessin de gauche) et P(X ≤ x ) (dessin de droite ). La différence ? Aucune, ces
deux surfaces sont égales : elles ne différent que par le fait que dans la figure de gauche, le
« coté vertical » associé à la valeur x ne doit pas être pris en compte, alors qu’il faut le
prendre en compte dans la figure de droite. Mais, pour les variables continues, on mesure les
probabilités par les surfaces : le « côté vertical » rajouté dans la figure de droite ( en gras),
n’a à proprement parler pas d’épaisseur : en passant de la figure de droite à celle de gauche,
on rajoute un « ensemble qui a une surface nulle » . On en déduit que
les probabilités P( X < x ) et P(X ≤ x ) sont identiques
On obtient ici une différence notoire entre les variables discrètes et continues .
Pour une variable discrète, la probabilité que la variable prenne une modalité donnée n’est
pas nulle . Aussi, il faut distinguer précisément P( X < x ) et P(X ≤ x ) . Par contre, pour les
variables continues, la probabilité que la variable prenne une modalité particulière est
toujours nulle, il n’y a pas lieu de faire cette distinction.
Mais, me direz-vous, comment se fait-il que la probabilité associée à chaque modalité
particulière d’un intervalle soit nulle, et que, dans le même temps, la probabilité de
l’intervalle ne soit pas nulle ? Bonne question, à laquelle je répondrai par la pirouette
habituelle « c’est trop compliqué pour ce cours ». Après cet acte de contrition, passons au vif
du sujet avec l’extrait suivant de la table donnée en annexe :
x x
-3 0 3 -3 0 3
m = E(X) la moyenne de X
σ2 = Var(X) la variance de X
En effet, si X suit une loi N(m1, σ1) et Y suit une loi N(m2, σ2), on peut considérer, comme
dans le second théorème de la limite centrale, que
X est la somme de « petites causes indépendantes «
de même Y est la somme de « petites causes indépendantes »
et donc Z = X + Y est aussi la somme de « petites causes indépendantes »
Par application du théorème, Z suit une loi de Laplace
- La moyenne m de Z est la somme des moyennes de X et de Y m = m1+m2
2
- La variance σ de Z est la somme des variances de X et de Y σ 2 = σ 12+ σ 22
Résumé
1 Si X est une v.a. qui suit une loi N(m, σ) alors E(X) = m et Var(X) = σ2
si a et b sont deux nombres , et si Y = aX + b , alors
Y suit une loi N(am + b, a σ ) (notez le signe "valeur absolue" dans l'écart-type de Y)
Ce résultat permet de transformer le problème du calcul des probabilités associées à une loi
N(m, σ) en un problème de calcul de probabilités associées à une loi N(0, 1). L'opération de
passage de la première distribution à la seconde s'appelle "centrer - réduire ).
2 Si X et Y sont deux variables aléatoires indépendantes et telles que X suit une loi
N(m1,σ1) et Y suit une loi N(m2, σ2) alors
Si Z = aX + bY +c
alors Z suit une loi N(am1 + bm2 + c , a 2σ 12 + b 2σ 22 )
Ce second résultat, fondamental, dit "en gros" que l'on ne sort pas de "la famille des lois
Normales" en faisant des combinaisons linéaires de variables aléatoires indépendantes. Nous
en verrons de multiples applications dans les leçons 13 et 14.
3 Si X suit une loi binomiale B(n, p), alors E(X) = np et Var(X) = np(1-p)
Si n est "grand" et p "pas trop petit ", alors
tout se passe comme si X suivait une loi N(np, np(1 − p) )
Quand p est "petit", on peut considérer que X suit une loi de Poisson. On a donc le choix,
pour les cas intermédiaires ( p de l'ordre de 0.10 ) entre la loi de Poisson de paramètre λ = np
et la loi Normale de paramètres np, et np(1 − p) . Mais le dilemme se résout, puisque l'on a
le résultat suivant :