Sie sind auf Seite 1von 71

Plan

de Ce cours provient de louvrage initiation aux probabilites Sheldon Ross, dit aux Presses Polytechniques et universitaires romanes

Ensemble fondamental et vnements Probabilit Probabilits conditionnelles Formules des probabilits totales Loi de Bayes Variables alatoires

p. 1/71 Methodes probabilistes - Probabilites

Ensemble fondamental

On considre une exprience dont lissue nest pas prvisible mais dont lensemble des rsultats possibles (on dit aussi issues) est connu et appel ensemble fondamental, not S .
Exemples :

si le rsultat de lexprience quivaut la dtermination du sexe dun nouveau n, alors : S = {g, f } si le rsultat est lordre darrive dune course entre 7 chevaux numrotes de 1 7, alors : S = {toutes les permutations de 1 ... 7}

p. 2/71 Methodes probabilistes - Probabilites

Evnement
enement Tout sous-ensemble E de S est appel un ev . Si le rsultat de lexprience est compris dans E , alors on dit . que E est realis e Exemples :

Dans le premier exemple, si E = {g } alors E est lvnement lenfant est un garc on. Dans le second exemple, si E = {tous les rsultats de S commenant par 3} alors E correspond lvnement le cheval 3 remporte la course.

p. 3/71 Methodes probabilistes - Probabilites

Oprations sur les vnements

Un vnement tant un ensemble, on peut combiner des vnements grce aux oprateurs ensemblistes : Union intersection complmentation

p. 4/71 Methodes probabilistes - Probabilites

Union
Lvnement E F est compos des rsultats appartenant E ou F . Lvnement E F est ralis si soit E soit F lest.

11111111 00000000 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 E 111111111 F 00000000 11111111 000000000 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111 00000000 11111111 000000000 111111111
S

Exemple :

Dans le cas du premier exemple, si E = {g } et F = {f }, alors E F = {f, g } = S

p. 5/71 Methodes probabilistes - Probabilites

intersection
Lvnement E F (not EF ) est compos des rsultats appartenant E et F . EF est ralis si E est ralis et F lest aussi.

11 00 00 11 00 11 00 11 00 11 00 11 E 00 11 00 11 00 11 00 11 00 11 00 11 00 11 00 11
Exemple :

` est pile)et Si E = {P P, P F, F P } (au moins une piece ` est face), alors, F = {P F, F P, F F } (au moins une piece ` est lvnement EF = {P F, F P } est lvnement une piece pile et lautre face.
p. 6/71 Methodes probabilistes - Probabilites

complmentation

Pour chaque vnement E , lvnement E est compos des rsultats qui sont dans S et qui ne sont pas dans E . E est appel le complmentaire de E dans S .

Exemple :

111111111111111 000000000000000 000000000000000 111111111111111 000000000000000 111111111111111 S 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 E 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111

Si E = {g } alors E = {f }.

p. 7/71 Methodes probabilistes - Probabilites

Evnement vide
Si E = {g } et F = {f }, alors lvnement EF ne pourra enement jamais tre ralis, on appellera un tel vnement lev vide, not . Si EF = , on dit que E et F sont mutuellement exclusifs.

p. 8/71 Methodes probabilistes - Probabilites

Proprits des oprations sur les vnements

Proprits algbriques : Les oprations ensemblistes sur les vnements obissent certaines rgles dalgbre : Commutativit : EF =F E EF = F E Associativit : (E F ) G = E (F G ) (EF )G = E (F G) Distributivit : (E F )G = EG F G EF G = (E G)(F G)
p. 9/71 Methodes probabilistes - Probabilites

Loi de de Morgan - 1

E et F tant des vnements, on a : EF =EF gnralisation, si Ei sont des vnements :


n n

Ei =
i=1 i=1

Ei

p. 10/71 Methodes probabilistes - Probabilites

dmonstration

x
i=1

Ei x
i=1

Ei

n Supposons que x n E . Alors x / i=1 Ei , ce qui signie i=1 i que x nest contenu dans aucun des vnements E1 . . . En . Ceci implique que x est contenu dans tous les vnements E1 . . . En . Il est donc contenu dans n i=1 Ei . n n

x
i=1

Ei x
i=1

Ei

si x n i=1 Ei , alors x appartient chaque E1 . . . En et donc n x / n E , ce qui entraine nalement que x i i=1 i=1 Ei 2
p. 11/71 Methodes probabilistes - Probabilites

Loi de de Morgan - 2

E et F tant des vnements, on a : EF =EF gnralisation, si Ei sont des vnements :


n n

Ei =
i=1 i=1

Ei

p. 12/71 Methodes probabilistes - Probabilites

dmonstration

On peut montrer cete loi en utilisant la prcdente. On a :


n n

Ei =
i=1 i=1

Ei

ce qui, du fait que E = E nous donne :


n n

Ei =
i=1 i=1

Ei

En prenant le complmentaire des deux membres de cette quation, on obtient :


n n

Ei =
i=1 i=1

Ei
p. 13/71 Methodes probabilistes - Probabilites

Probabilits - premire dnition

dnition par la frquence relative une exprience densemble fondamental S est excute plusieurs fois sous les mmes conditions. Pour chaque vnement E de S , n(E ) est le nombre de fois o lvnement E survient lors des n premires rptitions de lexprience. P (E ), la probabilit de lvnement E est dnie de la manire suivante : n(E ) P (E ) = lim n n

p. 14/71 Methodes probabilistes - Probabilites

Probabilits - premire dnition

Inconvnients : On ne sait pas si n(E ) va converger vers une limite constante qui sera la mme pour chaque squence de rptitions de lexprience. Dans le cas du jet dune pice par exemple, peut-on tre sr que la proportion de piles sur les n premiers jets va tendre vers une limite donne lorsque n grandit linni ? Mme si elle converge vers une certaine valeur, peut-on tre sr que nous obtiendrons de nouveau la mme proportion limite de piles si lexprience est entirement rpte une deuxime fois ?

p. 15/71 Methodes probabilistes - Probabilites

Probabilit - approche axiomatique

On considre que pour chaque vnement E de lensemble de fondamental S , il existe une valeur P (E ) appele probabilite E qui vrie les trois axiomes suivants : 1. 0 P (E ) 1 2. P (S ) = 1 3. Pour chaque squence dvnements mutuellement exclusif E1 , E2 . . . En (Ei Ej = si i = j ),
n n

P(
i=1

Ei ) =
i=1

P ( Ei )

p. 16/71 Methodes probabilistes - Probabilites

Approche axiomatique

En supposant qu lissue du lancer dun d les six faces ont les mmes chances dapparatre, on aura :
Exemple :

1 P ({1}) = P ({2}) = P ({3}) = P ({4}) = P ({5}) = P ({6}) = 6 Du troisime axiome, il resulte que la probabilit de tirer un nombre pair est : 3 P ({2, 4, 6}) = P ({2}) + P ({4}) + P ({6}) = 6

p. 17/71 Methodes probabilistes - Probabilites

Quelques thormes lmentaires

P (E ) = 1 P (E ) Si E F , alors P (E ) P (F ) P (E F ) = P (E ) + P (F ) P (EF )

p. 18/71 Methodes probabilistes - Probabilites

P (E ) = 1 P (E )

Demonstration :

1 = P (S ) = P (E E ) = P (E ) + P (E ) (Axiome 2)

p. 19/71 Methodes probabilistes - Probabilites

Si E F , alors P (E ) P (F )

Demonstration :

Du fait que E F , on peut crire : F = E EF E et EF tant mutuelement exclusifs, par laxiome 3, on tire : P (F ) = P (E ) + P (EF ) or, daprs laxiome 1 P (EF ) 0, do : P (E ) P (F )

p. 20/71 Methodes probabilistes - Probabilites

P (E F ) = P (E ) + P (F ) P (EF )

Demonstration :
E I II III F

I = EF II = EF III = EF

E F = I II III E = I II F = II III

p. 21/71 Methodes probabilistes - Probabilites

Dmonstration (suite)

E I II III

I, II et III tant disjoints, on a daprs laxiome 2 : P (E F ) = P (I ) + P (II ) + P (III ) P (E ) = P (I ) + P (II ) P (F ) = P (II ) + P (III ) On a donc : P (E F ) = P (E ) + P (F ) P (II ) P (E F ) = P (E ) + P (F ) P (EF )

p. 22/71 Methodes probabilistes - Probabilites

Ens. fond. vnements lmentaires quiprobables

Pour de nombreuses expriences, il est naturel dadmettre que chaque vnement lmentaire a la mme probabilit dapparatre. Si S = {1, 2 . . . N }, on a : P ({1}) = P ({2}) = . . . = P ({N }) Ce qui implique du fait des axiomes 2 et 3 : 1 i1 i N, P ({i}) = N De ceci et de laxiome 3, il rsulte que pour tout vnement E: P (E ) =
nombre dlments dans E nombre dlments dans S
p. 23/71 Methodes probabilistes - Probabilites

Exemple 1

Si deux ds sont jets, quelle est la probabilit que la somme des faces soit 7 ?
Solution :

On fait lhypothse que les 36 issues possibles sont quiprobables. Puisquil y a 6 issues qui donnent une somme de 7 : (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) la probabilit est 6/36 = 1/6.

p. 24/71 Methodes probabilistes - Probabilites

Exemple 2

Si deux boules sont tires au hasard dun bol en contenant 6 blanches et 5 noires, quelle est la probabilit quune des boules tires soit blanche et lautre noire ? On considre que lordre dans lequel les boules sont choisies est signicatif lensemble fondamental comprend 11 10 = 110 points. Il y a 6 5 = 30 manires de tirer pour lesquelles la premire boule est blanche et lautre noire. et 5 6 = 30 manires de tirer pour lesquelles la premire boule est noire et la seconde blanche. Si les 110 points de lensemble fondamental ont la mme probabilit, la probabilit cherche est :
Solution :

30 + 30 6 = 110 11
p. 25/71 Methodes probabilistes - Probabilites

Probabilits conditionnelles

Un des concepts les plus importants de la thorie des probabilits. Limportance de ce concept est de deux ordres : On sintresse souvent calculer des probabilits lorsquune partie de linformation concernant le rsultat de lexprience est disponible dans une telle situation, les probabilits cherches sont justement des probabilits conditionnelles. Mme lorsquaucune information partielle nest disponible, il est souvent avantageux dutiliser un dtour par certaines probabilits conditionelles pour russir le calcul des probabilits cherches.

p. 26/71 Methodes probabilistes - Probabilites

Prsentation intuitive
On jette deux ds, chacun des 36 vnements lmentaires a la mme probabilit de survenir, soit

1 . 36

Si lon sait que le premier d donne un 3, quelle est la probabilit que la somme des deux ds donne 8 ? le d initial tant un 3, il ne peut plus y avoir que 6 vnements dans notre exprience, savoir : (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6). Puisque chacun de ces vnements a originellement la mme probabilit dapparatre, ils auront encore des probabilits gales : 1 6

p. 27/71 Methodes probabilistes - Probabilites

Prsentation intuitive (suite)

Si nous dsignons respectivement par E et F les est 8 et le premier de donne 3, la vnements la somme des des probabilit prcdente est appele probabilit conditionnelle que E apparaisse sachant que F est de E sachant F ). ralise, elle est note P (E |F ) (probabilite
E
(1,3) (1,4) (2,5) (4,3) (5,4) (1,6) (6,3) (4,5) (2,6)

F
(6,4) (5,5)

(4,6) (3,1) (3,2) (6,5) (1,5) (4,4) (3,5) (3,3) (5,2) (5,6) (3,4) (5,3) (1,1) (5,1) (3,6) (6,2) (6,1) (1,2) (4,2) (2,3) (2,1) (2,2) (1,4) (2,4) (6,6)

p. 28/71 Methodes probabilistes - Probabilites

Gnralisation

On sinspire de la mme dmarche pour driver une formule gnrale donnant P (E |F ) pour tout vnement E et F : Si F est ralis, alors E apparatra chaque fois que lon aura affaire un vnement de E et de F la fois, en dautres termes, ce sera un lment de EF . Par ailleurs, comme nous savons que F est ralis, cet ensemble devient le nouvel ensemble fondamental, appel ensemble fondamental reduit . La probabilit conditionnelle de lvnement E sera donne par comparaison de la probabilit non conditionelle de EF avec la probabilit non conditionnelle de F .

p. 29/71 Methodes probabilistes - Probabilites

Gnralisation - 2

On dbouche ainsi sur la dnition suivante : Si P (F ) > 0, la probabilit conditionnelle de E sera : P (EF ) P (E |F ) = P (F ) En multipliant par P (F ) les deux membres de lquation, on obtient : P (EF ) = P (F )P (E |F ) Cette quation signie que la probabilit que E et F apparaissent la fois est gale la probabilit que F apparaisse multiplie par la probabilit conditionnelle de E si lon sait que F est survenu.
p. 30/71 Methodes probabilistes - Probabilites

Exemple 1

Une urne contient 10 billes blanches, 5 jaunes et 10 noires. Une bille est tire au hasard de lurne et lon constate quelle nest pas noire. Quelle est la probabilit quelle soit jaune ? est jaune et soit N elle Solution : Soit J lvnement la bille tiree nest pas noire. De la dnition des probabilits cond. on tire : P (JN ) P (J |N ) = P (N ) Cependant, JN = J puisque la bille sera la fois jaune et non noire si et seulement si elle est jaune. Nous obtenons ainsi, en supposant que chacune des 25 billes a la mme chance dtre choisie : P (J |N ) =
5 25 15 25

1 = 3

p. 31/71 Methodes probabilistes - Probabilites

Exemple 2

Une urne contient 8 boules rouges et 4 blanches. On tire sans remise 2 boules de lurne et on admet qu chaque tape tous les tirages possibles sont quiprobables. Quelle est la probabilit que les 2 boules tires soient rouges ?
Solution : ` boule est rouge R1 = la premiere

R2 = la seconde est rouge Si la premire boule slectionne est rouge, il reste 7 boules rouges et 4 boules blanches. Donc P (R2 |R1 ) = 7/11; comme P (R1 ) vaut 8/12, la probabilite recherche est : P (R2 R1 ) = P (R2 |R1 )P (R1) = 2/3 7/11 = 14/33
p. 32/71 Methodes probabilistes - Probabilites

Evnements indpendants

En gnral P (E |F ) = P (E ) Le fait de savoir que F est survenu inuence la probabilit de E . Dans les cas o P (E |F ) est bien gal P (E ), E est dit independant de F . Du fait que P (E |F ) = quivaut :
P (EF ) , P (F )

lindpendance de E et F

P (EF ) = P (E )P (F ) Cette quation est symtrique en E et F , il en rsulte que lorsque E est indpendant de F , F lest aussi de E .

p. 33/71 Methodes probabilistes - Probabilites

Exemple - 1

On tire au hasard une carte dun paquet de 52 cartes jouer ordinaires.


est un as E = la carte tiree

F = cest un pique E et F sont indpendants. En effet : P (EF ) = 1/52 P (E ) = 4/52 P (F ) = 13/52. On a bien : P (EF ) = P (E )P (F )
p. 34/71 Methodes probabilistes - Probabilites

Exemple - 2

On jette deux pices et on suppose que les 4 rsultats possibles sont quiprobables.
` piece ` est pile A = la premiere

B = la seconde est face. A et B sont indpendants. En effet : P (AB ) = P ({(P, F )}) = 1/4 P (A) = P ({(P, P ), (P, F )}) = 1/2 P (B ) = P ({(P, F ), (F, F }) = 1/2 On a bien : P (AB ) = P (A)P (B )
p. 35/71 Methodes probabilistes - Probabilites

Evnements indpendants

Il est important de ne pas confondre les deux notions dvnements mutuellement exclusifs et dvnements indpendants Des vnements mutuellement exclusifs ne sont pas indpendants. En effet, si lon sait que E et F sont mutuellement exclusifs alors on sait que si E est ralis, F ne peut pas ltre, et vice versa. Par consquent, la connaissance de E va modier la connaissance de F , les deux vnements ne sont donc pas indpendants.

p. 36/71 Methodes probabilistes - Probabilites

La rgle de multiplication

On peut gnraliser la rgle des probabilits conditionnelles lintersection dun nombre arbitraire dvnements. Cette rgle est appele rgle de multiplication. P (E1 E2 . . . En ) = P (E1 )P (E2 |E1 )P (E3 |E1 E2 ) . . . P (En |E1 . . . En1 ) On dmontre cette loi en appliquant la dnition des probabilits conditionnelles au membre de droite : P ( E2 E1 ) P ( E3 E1 E2 ) P ( E1 . . . En ) P ( E1 ) ... = P ( E1 E2 . . . En ) P ( E1 ) P ( E2 E1 ) P ( E1 . . . En 1 )

p. 37/71 Methodes probabilistes - Probabilites

Formule des probabilits totales - 1

Soient E et F deux vnements quelconques. Nous pouvons crire E sous la forme E = EF EF . 000000000 111111111 E F 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 EF 111 EF 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 00 11 000 111 000000000 111111111 000000000 111111111 EF et EF tant mutuellement exclusifs, on peut crire : P (E ) = P (EF ) + P (EF ) = P (E |F )P (F ) + P (E |F )P (F ) = P (E |F )P (F ) + P (E |F )[1 P (F )]

p. 38/71 Methodes probabilistes - Probabilites

Formule des probabilits totales - 2

P (E ) = P (E |F )P (F ) + P (E |F )[1 P (F )] La probabilit de lvnement E est une moyenne pondre de la probabilit conditionnelle de E lorsque F est apparu et de la probabilit de E lorsque F nest pas apparu les poids tant les probabilits des vnements conditionnants. Lintrt de cette formule est quelle permet de dterminer la probabilit dun vnement en commenant par le conditionner selon lapparition ou non dun autre vnement.

p. 39/71 Methodes probabilistes - Probabilites

Exemple

Une compagnie dassurance estime que les gens peuvent tre rpartis en deux classes : ceux qui sont enclins aux accidents ceux qui ne le sont pas. Les statistiques montrent quun individu enclin aux accidents a une probabilit de 0, 4 den avoir un dans lespace dun an; cette probabilit vaut 0, 2 pour les gens risque modr. On suppose que 30% de la population appartient la classe haut risque. Quelle est alors la probabilit quun nouvel assur soit victime dun accident durant lanne qui suit la signature de son contrat ?

p. 40/71 Methodes probabilistes - Probabilites

Solution

Nous obtiendrons la probabilit de lvnement cit en le conditionnant selon que le signataire de la police est ou nest pas enclin aux accidents.
qui suit X = le signataire aura un accident dans lannee letablissement du contrat

A = le signataire est enclin aux accidents. La formule des probabilits totales nous donne : P (X ) = P (X |A)P (A) + P (X |A)P (A) = 0.4 0.3 + 0.2 0.7 = 0.26

p. 41/71 Methodes probabilistes - Probabilites

Exemple (suite)

Un nouveau signataire a un accident dans lanne qui suit ltablissement de son contrat. Quelle est la probabilit quil fasse partie de la classe haut risque ? Solution : Cette probabilit est P (A|X ), donne par : P (AX ) P (A|X ) = P (X ) P (A)P (X |A) = P (X ) 0.3 0.4 = = 0.46 0.26

p. 42/71 Methodes probabilistes - Probabilites

Formule des probabilits totales - Gnralisation

Si F1 . . . Fn sont des vnements sexcluant mutuellement, tels que :


n

Fi = S
i=1

F1

Fn

On peut crire :
n

E=
i=1

EFi
p. 43/71 Methodes probabilistes - Probabilites

Formule des probabilits totales - Gnralisation

En utilisant le fait que les vnements EFi sexcluent mutuellement, on peut crire :
n

P (E ) =
i=1 n

P (EFi ) P (E |Fi )P (Fi )


i=1

Cette quation montre qutant donn un jeu dvnements F1 . . . Fn desquels un et un seul surviendra, on peut calculer P (E ) en commenant par conditionner selon les Fi .

p. 44/71 Methodes probabilistes - Probabilites

Thorme de Bayes

Supposons que E se soit ralis et que nous cherchions dterminer la probabilit que lun des Fj se soit aussi ralis. On dduit de lquation ci-dessus le thorme suivant, appel thorme de Bayes : P (EFj ) P (Fj |E ) = P (E ) P (E |Fj )P (Fj ) = P (E ) P (E |Fj )P (Fj ) = n i=1 P (E |Fi )P (Fi )

p. 45/71 Methodes probabilistes - Probabilites

Exemple 1

On considre deux urnes, lune contient une bille noire et une blanche, et lautre deux noires et une blanche. On dsigne une urne au hasard, de laquelle on tire une bille. Quelle est la probabilit quelle soit noire ? Si lon sait que la bille est blanche, quelle est la probabilit que ce soit la premire urne qui ait t dsigne ?

p. 46/71 Methodes probabilistes - Probabilites

Solution
N = la bille choisie est noire B = la bille choisie est blanche U1 = lurne choisie est lurne 1 U2 = lurne choisie est lurne 2 Loi des probabilits totales : P (N ) = P (N |U1 )P (U1 ) + P (N |U2 )P (U2 ) = Loi de Bayes (U1 B ) = P (U1 |B ) = PP (B )

1 2

2 1 + 2 3

1 2

7 12

P (B |U1 )P (U1 ) P (N )

12 20

p. 47/71 Methodes probabilistes - Probabilites

Exemple 2

Un laboratoire danalyse du sang assure avec une abilit de 95% la dtection dune certaine maladie lorsquelle est effectivement prsente. Cependant, le test indique aussi un rsultat faussement positif pour 1% des personnes rellement saines qui on le fait subir (une personne saine teste sera dclare malade une fois sur cent). Si 0, 5% de la population porte effectivement la maladie, quelle est la probabilit quune personne soit vraiment malade lorsquon la dclare telle sur la base du test ?

p. 48/71 Methodes probabilistes - Probabilites

Solution
D = la personne soumise au test est porteuse de la maladie
E = le resultat du test est positif

La formule des probabilits totales nous donne : P (DE ) P (D|E ) = P (E ) P (E |D)P (D) = P (E |D)P (D) + P (E |D)P (D) .95 .005 = .323 .95 .005 + .01 .995 Ainsi 32% seulement des personnes dont le rsultat au test est positif ont vraiment la maladie !

p. 49/71 Methodes probabilistes - Probabilites

Variables alatoires

Une variable alatoire est une fonction qui associe un nombre rel tous les lments de S Les variables alatoires permettent ainsi de passer dvnements, qui peuvent tre de natures trs diverse, des nombres, et deffectuer des calculs sur ces derniers.
b a c d e f

R
X(a) X(b) X(c) X(d) X(e) X(f)

p. 50/71 Methodes probabilistes - Probabilites

Variables alatoires

Une variable alatoire permet aussi de nassocier quune valeur un ensemble dissues lmentaires, dans le cas o, lissue dune exprience, on sintresse plus une fonction du rsultat quau rsultat lui-mme. Lors dun jeu de ds, par exemple, certains jeux accordent de limportance la somme obtenue avec deux ds, 7 par exemple, plutt qu la question de savoir si cest la paire (1, 6) qui est apparue, ou (2, 5) . . . . On peut alors dnir une variable alatoire X qui reprsente la somme des deux ds.

p. 51/71 Methodes probabilistes - Probabilites

Variables alatoires

S
(1,3) (2,2) (3,1) (1,4) (2,3) (3,2) (3,1) (1,5) (2,4) (3,3) (4,2) (5,1) (1,6) (2,5) (3,4) (4,3) (5,2) (6,1) (2,6) (3,5) (4,4) (5,3) (6,2) (3,6) (4,5) (5,4) (6,3) (4,6) (5,6) (6,4)

(1,1)

(1,2) (2,1)

(5,6) (6,5)

(6,6)

X R
2 3 4 5 6 7 8 9 10 11 12

p. 52/71 Methodes probabilistes - Probabilites

Variables alatoires

La valeur dune variable alatoire est dtermine par le rsultat de lexprience, il est possible dattribuer une probabilit aux diffrentes valeurs que la variable alatoire peut prendre. On note la probabilit que la variable alatoire X prenne la valeur i par : P (X = i).

p. 53/71 Methodes probabilistes - Probabilites

Exemple

Notre exprience consiste jeter 3 pices quilibres. Si lon dsigne le nombre de faces par Y , Y est une variable alatoire et peut prendre les valeurs 0, 1, 2, 3 avec pour probabilit respectivement :
P (Y = 0) P (Y = 1) P (Y = 2) P (Y = 3) = P ((P, P, P )) = 1 8

3 8 3 = P ((P, F, F ), (F, P, F ), (F, F, P )) = 8 1 = P ((P, P, P )) = 8 = P ((P, P, F ), (P, F, P ), (F, P, P )) =

p. 54/71 Methodes probabilistes - Probabilites

variables alatoires discrtes

Une variable alatoire ne pouvant prendre quune ` . quantit dnombrable de valeurs est dite discrete Pour une telle variable alatoire X , on dnit sa loi de pX (p lorsque ce nest pas ambig) probabilite p(a) = P (X = a) = P (E ) avec E = {i S |X (i) = a}

p. 55/71 Methodes probabilistes - Probabilites

variables alatoires discrtes

Une loi de probabilit ne peut tre positive que pour un ensemble dnombrable darguments. Si X peut prendre les valeurs x1 , x2 , . . ., alors : p(xi ) 0 i = 1, 2, . . . p(x) = 0 pour toutes les autres valeurs de x Du fait que X doit bien prendre lune de ces valeurs xi , on aura : i=1 p(xi ) = 1 Si une variable alatoire X suit une loi de distribution p on notera X p

p. 56/71 Methodes probabilistes - Probabilites

Histogramme

Reprsentation dune loi de probabilit sur un graphique en reportant p(xi ) sur laxe des y et xi sur laxe des x. Histogramme de la loi de probabilit dune variable alatoire comptant la somme des nombres obtenus lors du jet de deux ds quilibrs :
p(x)

6/36 5/36 4/36 3/36 2/36 1/36 0 0 1 2 3 4 5 6 7 8 9 10 11 12


p. 57/71 Methodes probabilistes - Probabilites

Caractristiques dune variable alatoire

La loi dune variable alatoire est constitue par lensemble des probabilits des valeurs que peut prendre cette variable. Dans certains cas, le nombre de valeurs possibles de la variable est extrmement lev ou mme inni. Il est intressant, dans ces cas, de dgager certaines caractristiques qui permettent desquisser lallure gnrale de ces lois. On dnit deux caractristiques des lois de probabilits :
lesperance permet de situer la variable. la variance permet destimer la dispersion de la variable

p. 58/71 Methodes probabilistes - Probabilites

Esprance

Pour une variable alatoire discrte X de loi p(), on dnit lesprance de X , note E [X ], par lexpression : E [X ] =
x|p(x)>0

xp(x)

En termes concrets, lesprance de X est la moyenne pondre des valeurs que X peut prendre, les poids tant les probabilits que ces valeurs soient prises.

p. 59/71 Methodes probabilistes - Probabilites

Esprance - 2

Interprtation en recourant la dnition des probabilits comme mesures de frquences relatives : dun ev enement La probabilite E est la proportion du nombre de realisation de E dans une sequence inniment longue dexperiences
identiques

Supposons que lon se livre jeu dargent pour lequel on connat la probabilit de chaque gain. On reprsente par X la variable alatoire reprsentant le gain. Cette v.a. peut prendre les valeurs x1 , . . . , xn avec les probabilits p(x1 ), . . . p(xn ). La proportion de jeux pour laquelle la somme xi aura t gagne va se rapprocher de p(xi ). Lesprance de la v.a. X est alors le gain moyen par jeu : n i=1 xi p(xi )
p. 60/71 Methodes probabilistes - Probabilites

Variance
E [X ] nous donne une moyenne pondre des valeurs possibles dune variable alatoire X . Mais elle ne nous dit rien des variations de X autour de lesprance. Soit les variables alatoires suivantes : X avec pX (0) = 1 1 , p (1) = Y avec pY (1) = 1 Y 2 2 1 , p (100) = Z avec pZ (100) = 1 Z 2 2 E [X ] = E [Y ] = E [Z ] = 0 Mais il y a de bien plus grands carts entre les diffrentes valeur de Y quentre celles de X (qui est constante) et de plus grands carts entre celles de Z quentre celles de Y .
p. 61/71 Methodes probabilistes - Probabilites

Variance - 2
On mesure les variations dune v.a. X par lesprance du carr de lcart entre X et son esprance, que lon appelle variance de X , note V ar(X ) : V ar(X ) = E [(X E [X ])2 ] Qui peut aussi tre calcule de la faon suivante : V ar(X ) = E [X 2 ] (E [X ])2 Si X est le rsultat du lancer dun d quilibr, alors E [X ] = 7 comme nous lavons vu ci-dessus. De plus : 2 1 1 1 1 2 1 2 1 +22 6 +32 6 +42 1 +5 +6 = 91 E [X 2 ] = 12 6 6 6 6 6 et donc : 91 7 2 35 V ar(X ) = ( ) = 6 2 12

p. 62/71 Methodes probabilistes - Probabilites

Variables binomiales
On ralise n preuves indpendantes, chacune ayant une probabilit de succs de p et une probabilit dchec de 1 p. La variable alatoire X qui compte le nombre de succs sur lensemble des n preuves est dite variable alatoire binomiale de paramtres (n, p). toute squence comportant i succs et n i checs a pour probabilit pi (1 p)ni . il y a
n i

squences vriant cette proprit p(i) = n i pi (1 p)ni

on a donc :

p. 63/71 Methodes probabilistes - Probabilites

Esprance dune variable binomiale

E [X ] =
i=1 n

i p(i) i
i=1 n

(1)

= =
i=1

n i

pi (1 p)ni pi (1 p)ni pi1 (1 p)ni pj (1 p)n(j +1)

(2)

n
n

n1 i1 n1 i1 n1 j

(3)

= np
i=1 n1

(4)

= np
j =0

(5) (6) (7)


p. 64/71 Methodes probabilistes - Probabilites

= np(p + 1 p)n1 = np

Variables alatoires conjointes

Il est souvent ncessaire de considrer des vnements relatifs deux variables simultanment.
conjointe de deux v.a. X et Y : On dnit la loi de probabilite

p(x, y ) = P (X = x, Y = y ) On peut dduire de la loi de probabilit conjointe de deux marginale de X de la variables X et Y la loi de probabilite faon suivante : p X ( x) = P ( X = x) =
y |p(x,y )>0

p(x, y )

De faon similaire : p Y (y ) = P (Y = y ) =
x|p(x,y )>0

p(x, y )
p. 65/71 Methodes probabilistes - Probabilites

Exemple

On tire au hasard 3 boules dune urne contenant 3 rouges, 4 blanches et 5 bleues. X et Y dsignent respectivement le nombre de boules rouges et celui de boules blanches tires. La loi de probabilit conjointe p(i, j ) = P (X = i, Y = j ) de X et Y est reprsente dans un tableau deux entres : j 1
40 220 60 220 12 220

0 0 1 i 2 3
10 220 30 220 15 220 1 220

2
30 220 18 220

3
4 220

0 0

0 0 0
p. 66/71 Methodes probabilistes - Probabilites

Exemple (suite)

j 0 0 1 2 3 P (Y = j )
10 220 30 220 15 220 1 220 56 220

1
40 220 60 220 12 220

2
30 220 18 220

3
4 220

P (X = i)
84 220 108 220 27 220 1 220

0
112 220

0 0
48 220

0 0 0
4 220

La loi marginale de X est calcule en faisant les totaux par ligne, tandis que celle de Y lest en faisant les totaux par colonne. Cest le fait que les lois de X et Y individuellement puissent tre lues dans les marges du tableau qui leur vaut leur nom de lois marginales.
p. 67/71 Methodes probabilistes - Probabilites

Variables alatoires indpendantes

Deux variables alatoires X et Y sont dites independantes si, pour tout choix dune paire densembles A et B de nombres rels, on a :

P (X A, Y B ) = P (X A) P (Y B ) En dautres termes, X et Y sont indpendantes si, quels que soient A et B , les vnements EA = (X A) et EB = (X B ) sont indpendants. Cela revient dire que : p(x, y ) = pX (x)pY (y ) x, y Dun point de vue intuitif, X et Y sont indpendantes si le fait de connatre la valeur de lune ninue pas sur la distribution de lautre. Des variables qui ne sont pas indpendantes sont dites dpendantes.

p. 68/71 Methodes probabilistes - Probabilites

Exemple

On ralise n + m preuves indpendantes ayant chacune p pour probabilit de succs. La variable X est le nombre de succs lors des n premires preuves et Y est le nombre de succs lors des m dernires. X et Y sont indpendantes car le fait de connatre le nombre de succs lors des n premires preuves ninue en rien sur celui des succs lors des m dernires (cest l la traduction de lindpendance des preuves). En revanche, X et Z sont dpendantes si Z reprsente le nombre total de succs au cours des n + m preuves.

p. 69/71 Methodes probabilistes - Probabilites

Lois de probabilit conditionnelles

Etant donn deux variables alatoires X et Y , on dnit la loi de probabilit de X sous la condition Y = y : pX |Y (x|y ) = P (X = x|Y = y ) P (X = x, Y = y ) = P (Y = y ) p(x, y ) = p Y (y )

p. 70/71 Methodes probabilistes - Probabilites

Lois de probabilit conditionnelles - 2

Lorsque X et Y sont indpendantes, les lois conditionnelles et non conditionnelles sont identiques : pX |Y (x|y ) = P (X = x|Y = y ) P (X = x, Y = y ) = P (Y = y ) P ( X = x) P ( Y = y ) = P (Y = y ) = P ( X = x)

p. 71/71 Methodes probabilistes - Probabilites

Das könnte Ihnen auch gefallen