Sie sind auf Seite 1von 18

MÉCANIQUE QUANTIQUE

Jean Dalibard, Philippe Grangier


Manuel Joffre, Mathieu de Naurois
EXERCICES 1.1

RAPPELS DE PROBABILITÉS
INTRODUCTION
ESPACE PROBABILISÉ

Phénomène aléatoire: Phénomène Probabilité : fréquence d’apparition d’une


physique possédant un ensemble Ω de ou plusieurs issues:
possibilités (tirage de dés, date de 𝑁Τ𝑋=𝑥𝑖 𝑁Τ𝑋 ∈ 𝐴
désintégration d'une particule,...), continu 𝑃 𝑥𝑖 = , 𝑃 𝐴 =
ou non 𝑁 𝑁
Espace probabilisé:
Ω est l'ensemble des éventualités ou
• Normalisé
issues

X, variable aléatoire, est une fonction ෍ 𝑃 𝑥𝑖 = 1


définie sur l'ensemble des éventualités 𝑖
(ex. gain, chiffre sur le dé, durée de • Probabilités positives:
vie,...). Issues possibles 𝐴= 𝑥𝑖
0 ≤ 𝑝 𝑥𝑖 ≤ 1
VARIABLE CONTINUE

Variable continue: densité de probabilité


P x d𝑥=Prob X ∈ 𝑥,𝑥+d𝑥
d
P x = Prob X ≤ x
d𝑥
Espace probabilisé:
• Normalisation:

න𝑃 𝑥 dx=1

• Probabilités positives:
𝑃 𝑥 ≥0
MOYENNE ET VARIANCE

<𝑋>

Moyenne: espérance mathématique

𝑋 = ෍ 𝑥𝑖 𝑃 𝑥𝑖
𝑖
𝜎
𝑋 = න𝑥 𝑃 𝑥 d𝑥
Fonction quelconque de la variable
aléatoire:
𝑓 𝑋 = ෍ 𝑓 𝑥𝑖 𝑃 𝑥𝑖
Variance (écart quadratique moyen)
𝑖
var 𝑋 = 𝑋 − 𝑋 2 = 𝑋2 − 𝑋 2
𝑓 𝑋 = න𝑓 𝑥 𝑃 𝑥 d𝑥
= 𝜎2
VARIABLES INDÉPENDANTES

Pour des variables indépendantes:


P X ∈ A, Y ∈ B =P X ∈ A × P Y ∈ B
Implique en particulier:
< 𝑓 X 𝑔 Y > = < 𝑓 X >< 𝑔 Y >
1 – VARIABLES INDÉPENDANTES

On considère une variable aléatoire 𝑋, distribuée selon une loi de moyenne 𝑥0 et


d'écart-type 𝜎. On effectue 𝑁 mesures indépendantes de 𝑋, quelle est l’incertitude
sur ⟨𝑋⟩?
1 – VARIABLES INDÉPENDANTES

On considère une variable aléatoire 𝑋, distribuée selon une loi de moyenne 𝑥0 et


d'écart-type 𝜎. On effectue 𝑁 mesures indépendante de 𝑋, quelle est l’incertitude sur
⟨𝑋⟩?
1
𝑌 = ෍ 𝑋𝑘 , Δ 𝑋 = Δ𝑌
𝑁
𝑘

1 1 2 1
⟨𝑌 2 ⟩ = 2 ෍ ෍⟨𝑋𝑘 𝑋𝑙 ⟩ = 2 ෍⟨𝑋𝑘 ⟩ + 2 ෍⟨𝑋𝑘 ⟩ ⟨𝑋𝑙 ⟩
𝑁 𝑁 𝑁
𝑘 𝑙 𝑘 𝑙≠𝑘

2
1 2 𝑁 𝑁−1 2
⟨𝑌 ⟩ = 𝑋 + 2
𝑋
𝑁 𝑁
1 – VARIABLES INDÉPENDANTES

On considère une variable aléatoire 𝑋, distribuée selon une loi de moyenne 𝑥0 et


d'écart-type 𝜎. On effectue 𝑁 mesures indépendante de 𝑋, quelle est l’incertitude sur
⟨𝑋⟩?

2
1 2
⟨𝑌⟩ = 2 ෍ ෍⟨𝑋𝑘 ⟩ 𝑋𝑙 = 𝑋
𝑁
𝑘 𝑙

1 2 2 𝑁 𝑁−1
2
σ 𝑌 = 𝑌 2
− 𝑌2 = 2
𝑋 σ +(𝑋) 2 𝑋 2
− 𝑋 2
σ 𝑌 𝑁= 𝑁
𝑁 1
= 𝑋2
𝑁
2 – PROBABILITÉS CONDITIONNELLES

Probabilités conditionnelles:
P AΤB ou P 𝑋 = AΤ Y = B
Théorème de Bayes:
P A ∩ B = P AΤB × P B
Probabilité conditionnelle:
P A∩B
P AΤB =
P B
2 – PROBABILITÉS CONDITIONNELLES

Probabilité conditionnelle: Deux variables aléatoires:


P A∩B ഥ = sain}
• X : état de santé { A = malade, A
P AΤB =
P B ഥ = négatif}
• Y: résultat du test {B = positif, B
Etant donné une maladie dont la
prévalence est de 1/1 000 et pour laquelle Probabilités d’un test positif:
il existe un test de dépistage donnant 5 % ഥ)
P(B) = P(A) + 0.05 × P(A
de faux positifs, quel est le risque qu'une
personne dont le test est positif soit Probabilité conditionnelle:
effectivement malade ? P(A ∩ B) P(A)
P(AΤB) = =
P(B) P(B)
P A
P(AΤB) = = 0,02

P A + 0.05P A
3 – LOI BINOMIALE

Loi discrète relativement simple décrivant 𝐶𝑁𝑘 : Nombre de combinaisons de 𝑘 éléments


le nombre de succès obtenus lors de parmi 𝑁:
tirages aléatoire: • 𝑁 choix pour le premier élément
- On effectue 𝑁 tirages indépendants • 𝑁 − 1 choix pour le second
- À chaque tirage, probabilité 𝑝 de • 𝑁 − 𝑘 + 1 pour le dernier
succès → 𝑁!/(𝑁 − 𝑘)! choix possibles au total
L’ordre n’important pas, il y a k!
𝑃(𝑘) probabilité d’obtenir 𝑘 succès: combinaisons équivalentes.
𝑁!
𝐶𝑁𝑘 =
𝑘! (𝑁 − 𝑘)!
𝑘
𝑃(𝑘) = 𝐶𝑁 × 𝑝𝑘 (1 − 𝑝)(𝑁−𝑘) 𝑁! 𝑘
𝑃(𝑘) = 𝑝𝑘 (1 − 𝑝)(𝑁−𝑘)
𝑘! (𝑁 − 𝑘)!𝑁
3 – LOI BINOMIALE – NORMALISATION

Loi binomiale
𝑃(𝑘) = 𝐶𝑁𝑘 𝑝𝑘 (1 − 𝑝)(𝑁−𝑘)
Condition de Normalisation:
𝑁 𝑁

෍ 𝑃(𝑘) = ෍ 𝐶𝑁𝑘 𝑝𝑘 (1 − 𝑝)(𝑁−𝑘)


𝑘=0 𝑘=0
𝑁
= 𝑝+ 1−𝑝
=1
Et: 0 ≤ 𝑃(𝑘) ≤ 1
4 – LOI BINOMIALE – CALCUL DE LA VALEUR MOYENNE

𝑘𝑁!
𝑘 = ෍ 𝑘𝑃(𝑘) = ෍ 𝑝𝑘 1 − 𝑝 𝑁−𝑘
𝑘! (𝑁 − 𝑘)!
𝑘 𝑘
𝑁(𝑁 − 1)!
=෍ 𝑝 × 𝑝𝑘−1 1 − 𝑝 𝑁−1)−(𝑘−1
(𝑘 − 1)! ((𝑁 − 1) − (𝑘 − 1))!
𝑘
𝑘−1 𝑘−1 𝑁−1)−(𝑘−1
= ෍ 𝑁 × 𝑝 × 𝐶𝑁−1 𝑝 1−𝑝 = 𝑁𝑝
𝑘

𝑘 2 = ෍ 𝑘 2 𝑃(𝑘) = ෍ 𝑘(𝑘 − 1)𝑃(𝑘) + ෍ 𝑘𝑃(𝑘)


𝑘 𝑘 𝑘
𝑘−2 𝑘−2 𝑘−1 𝑘−1
= ෍ 𝑁 𝑁 − 1 × 𝑝2 × 𝐶𝑁−2 𝑝 1−𝑝 𝑁−𝑘
+ ෍ 𝑁 × 𝑝 × 𝐶𝑁−1 𝑝 1−𝑝 𝑁−𝑘

𝑘 𝑘
= 𝑁(𝑁 − 1)𝑝2 + 𝑁𝑝
𝜎 2 (𝑘) = 𝑁𝑝(1 − 𝑝)
5 – DISTRIBUTION CONTINUE

Distribution Gaussienne à une dimension:


1 −(𝑥 − 𝑥0 )2
𝑃(𝑥) = exp
2𝜋𝜎 2𝜎 2
Condition de Normalisation:
∞ ∞
1 −𝑢2
න 𝑃(𝑥) d𝑥 = න exp d𝑢
−∞ 2𝜋 −∞ 2
=𝐼
2 2)
−(𝑥 + 𝑦
𝐼 2 = ඵ exp d𝑥 d𝑦
2
−𝑟 2
= ඵ 𝑟 × exp d𝑟 d𝜑 = 2𝜋
2

න 𝑃(𝑥) d𝑥 = 1
−∞
6 – VALEUR MOYENNE ET VARIANCE

1 − 𝑥 − 𝑥0 2
⟨𝑥⟩ = න𝑥 × exp 2
d𝑢
2πσ 2σ
1 −𝑢2
= න( σ𝑢 + 𝑥0 )exp d𝑢 = 𝑥0
2π 2

1 − 𝑥 − 𝑥 2 1 −𝑢 2
2 2 0 2 exp
⟨𝑥 ⟩ = න𝑥 × exp 2
d𝑢 = න σ𝑢 + 𝑥0 d𝑢
2πσ 2σ 2π 2
2 2
σ −𝑢
= 𝑥02 + න𝑢2 exp d𝑢 = 𝑥02 + σ2
2π 2

𝜎 2 (x) = σ2
CONCLUSIONS

Das könnte Ihnen auch gefallen