Beruflich Dokumente
Kultur Dokumente
Définitions
Signal aléatoire ≡ fonction de deux variables x(t,α)
t ≡ temps (continu ou discret)
α ≡ variable aléatoire
Echantillon ou trajectoire :
xα(t) = x(t,α) pour une
réalisation de α
Exemples :
X(t) = A
avec A normale centrée
(bruit)
X(t) = sin(ωt+θ)
avec θ uniforme entre
0 et 2π
1
Lois de probabilité
A chaque instant t, X(t) = x(t,α) est une variable
aléatoire
Fonction de répartition
F( x, t ) = P [X( t ) ≤ x ]
Densité de probabilité
∂ F( x, t )
p( x, t ) dx = P [x ≤ X( t ) < x + dx ] ⇒ p( x, t ) =
∂x
2
Stationnarité
Un signal aléatoire est dit stationnaire (au sens strict)
si toutes ses propriétés statistiques, à tous les
ordres, sont invariantes dans le temps. C’est-à-dire
que les deux signaux X(t) et Y(t) = X(t + τ) ont les
mêmes propriétés statistiques.
Stationnarité (2)
Stationnarité du 2ème ordre
F( x, t ) = F( x ) et p( x, t ) = p( x )
E( x, t ) = E( x ) = µ x E( x 2 , t ) = E( x 2 ) = µ x + σ x
2 2
et
3
Ergodisme
Considérons un échantillon (ou trajectoire) d’un signal aléatoire,
que nous notons x(t) pour alléger l’écriture.
Valeur moyenne temporelle :
1 T
x = lim
T →∞ T ∫0 x( t ) dt
Fonction d’autocorrélation
La fonction d’autocorrélation statistique d’un signal
aléatoire X(t) est définie par :
R X ( t1, t 2 ) = E[X( t1 ) X( t 2 )] = E( x1 x 2 )
+∞ +∞
R X ( t1, t 2 ) = ∫
− ∞ ∫−∞
x1 x 2 p( x1, t1; x 2 , t 2 ) dx1 dx 2
4
Fonction d’autocorrélation (2)
Signal stationnaire : ne dépend que de l’intervalle
τ = t2 – t1
+∞ +∞
R X ( τ) = ∫ ∫−∞ x1 x 2 p( x1, x2, τ) dx1 dx 2 et CX ( τ) = R X ( τ) − E( x )2
−∞
Propriétés :
R X ( − τ ) = R X ( τ) et C X ( − τ) = C X ( τ)
R X (0) = E( x 2 ) = µ x + σ x C X ( 0) = σ x
2 2 2
et
µ x − σ x ≤ R X ( τ) ≤ µ x + σ x
2 2 2 2
5
Densité spectrale de puissance
Signal déterministe : densité spectrale d’énergie ≡ transformée
de Fourier de son autocorrélation
Relation de Wiener-Khinchine : densité spectrale de puissance
d’un signal aléatoire stationnaire ≡ transformée de Fourier de sa
fonction d’autocorrélation (définition)
S X (ν ) = TF[R X ( τ)]
Première justification
R X ( τ) = TF−1 [S X (ν )]
+∞
R X ( τ) = ∫ S X (ν ) e j 2 π ν τ dν
−∞
+∞
E( x 2 ) = R X (0) = ∫ S X (ν ) dν
−∞
Théorème de Wiener-Khinchine
Densité spectrale de puissance pour un signal à énergie
moyenne finie
XT ( ν ) XT ( ν )
*
S x (ν ) = lim
T →∞ T
définie à partir du signal mutilé
0
On procède de même pour un signal aléatoire pour lequel la
transformée de Fourrier n’est pas nécessairement définie
Périodogramme
TF[x T ( t )]
1 2
Φ x (ν, T ) =
T
6
Théorème de Wiener-Khinchine (2)
Développons :
1 T T
Φ x (ν, T ) = ∫ x( t ) e − jωt dt ∫ x(u) e jωu du
T 0 0
1 T T
Φ x (ν, T ) = ∫ ∫ x( t ) x(u) e− jω( t −u) dt du
T 0 0
Espérance mathématique du périodogramme
E[Φ x (ν, T )] =
1 T T
∫0 ∫0 R X ( t, u) e − jω( t −u) dt du
T
E[Φ x (ν, T )] =
1 T T
∫0 ∫0 R X ( t − u) e − jω( t −u ) dt du
T
Changement de variable u → v = t-u
t −T
E[Φ x (ν, T )] = −
1 T
∫0 ∫t R X ( v ) e − jω v dv dt
T
E[Φ x ( ν, T )] =
1 T t − jω v
T ∫0 ∫t−T RX (v ) e dv dt
7
Théorème de Wiener-Khinchine (3)
Domaine d’intégration :
v
0≤t≤T et t−T≤ v ≤ t T
ou :
pour − T ≤ v ≤ 0 0 ≤ t ≤ v + T
pour 0 ≤ v ≤ T v≤t≤T
0 T t
⇒ 2 triangles
-T
v +T
E[Φ x (ν, T)] =
1 0 1 T T
∫−T ∫0 R X ( v ) e− jω v dt dv + ∫0 ∫v R X ( v ) e− jω v dt dv
T T
Soit
T v
E[Φ x (ν, T )] = ∫ 1 − R X ( v ) e − jω v dv
−T
T
+∞
lim E[Φ x (ν, T )] = ∫ R X ( t ) e− jω t dt
T →∞ −∞
8
Couple de signaux aléatoires
X(t) et Y(t) : deux signaux aléatoires
Fonction d’intercorrélation
R XY ( t1, t 2 ) = E[X( t1 ) Y( t 2 )]
+∞ +∞
R XY ( t1, t 2 ) = ∫ ∫ x1 y 2 p( x1, t1; y 2 , t 2 ) dx1 dy 2
−∞ −∞
R YX ( τ) = R XY ( −τ)
9
Couple de signaux aléatoires (3)
Fonction d’intercovariance :
CXY ( t1, t 2 ) = R XY ( t1, t 2 ) − E( x ) E( y )
Signaux stationnaires :
C XY ( τ) = R XY ( τ) − E( x ) E( y )
Inégalité de Cauchy-Schwartz ⇒
R XY ( τ) = R YX ( τ) = 0
10
Somme de signaux aléatoires
X(t) et Y(t) : deux signaux aléatoires, Z(t) = X(t) + Y(t)
Fonction d’intercorrélation
R Z ( τ) = E{[X( t ) + Y( t )][X( t + τ) + Y( t + τ)]}
R Z ( τ) = E[X( t ) X( t + τ)] + E[X( t ) Y( t + τ)] + E[Y( t ) X( t + τ)] + E[Y( t ) Y( t + τ)]
R Z ( τ) = R X ( τ) + R XY ( τ) + R YX ( τ) + R Y ( τ)
Fonction d’intercovariance
C Z ( τ) = R Z ( τ) − E( z )2 = R Z ( τ) − [E( x ) + E( y )]
2
CZ ( τ) = C X ( τ) + C XY ( τ) + CYX ( τ) + CY ( τ)
Signaux non corrélés
C Z ( τ) = C X ( τ) + C Y ( τ )
Polytech Marseille - INFO Systèmes de Traitement du Signal - S. Tisserant - 2016 21
Propriétés
S YX (ν ) = S XY (ν )
*
S XY (ν ) ≤ S X (ν ) S Y (ν )
2
11
Fonction de cohérence
Définition
D X (ν ) = TF [C X ( τ)]
D XY (ν )
2
ΓXY (ν ) = avec D Y (ν ) = TF [CY ( τ)]
D X (ν ) DY (ν )
D XY (ν ) = TF [C XY ( τ)]
D XX (ν )
2
ΓXX (ν ) = =1
D X (ν ) D X (ν )
Signaux non corrélés
12