Beruflich Dokumente
Kultur Dokumente
13.7.2013
Alexander Hein
Einf uhrung
Grundlagen
Bayesnetze
Markovnetze
Alexander Hein
Einf uhrung
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , }
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , } Ereignisalgebra Ereignis: Teilmenge einer Ergebnismenge Gew urfelte Augenzahl ist Primzahl = { , , } Ereignisalgebra : Menge von Teilmengen einer Ergebnismenge mit den Eigenschaften:
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , } Ereignisalgebra Ereignis: Teilmenge einer Ergebnismenge Gew urfelte Augenzahl ist Primzahl = { , , } Ereignisalgebra : Menge von Teilmengen einer Ergebnismenge mit den Eigenschaften:
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , } Ereignisalgebra Ereignis: Teilmenge einer Ergebnismenge Gew urfelte Augenzahl ist Primzahl = { , , } Ereignisalgebra : Menge von Teilmengen einer Ergebnismenge mit den Eigenschaften: M1 , M2 M1 M2
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , } Ereignisalgebra Ereignis: Teilmenge einer Ergebnismenge Gew urfelte Augenzahl ist Primzahl = { , , } Ereignisalgebra : Menge von Teilmengen einer Ergebnismenge mit den Eigenschaften: M1 , M2 M1 M2 M M
Alexander Hein
Ergebnismenge Ergebnisse: Resultate von Zufallsprozessen: . Beispiel: Einmaliger Wurf eines W urfels: = { , , , , , } Ereignisalgebra Ereignis: Teilmenge einer Ergebnismenge Gew urfelte Augenzahl ist Primzahl = { , , } Ereignisalgebra : Menge von Teilmengen einer Ergebnismenge mit den Eigenschaften: M1 , M2 M1 M2 M M Beispiel: 1 = {, } oder 2 = Pot(),
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1
P (E ) 0 f ur alle E .
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1 2
P (E ) 0 f ur alle E . P () = 1
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1 2 3
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1 2 3
Wahrscheinlichkeitsraum (, , P ).
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1 2 3
Alexander Hein
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen P Eine Wahrscheinlichkeitsverteilung P ist eine Abbildung P : (, ) R, die den Kolmogorov-Axiomen gen ugt:
1 2 3
Zufallsvariablen
Zufallsvariablen (Diskrete) ZV X bildet Ergebnisse auf Werte Val (X ) ab: X : (, ) Val (X ) X induziert W-Verteilelung PX auf Val (X ) durch W-Raum (, , P ) PX (X = x ) := P (X 1 (x )) = P ({ | X ( ) = x }) f ur x Val (X )
Alexander Hein
Zufallsvariablen
Zufallsvariablen (Diskrete) ZV X bildet Ergebnisse auf Werte Val (X ) ab: X : (, ) Val (X ) X induziert W-Verteilelung PX auf Val (X ) durch W-Raum (, , P ) PX (X = x ) := P (X 1 (x )) = P ({ | X ( ) = x }) f ur x Val (X )
Im Folgenden nur noch Verteilung u ber ZVs von Interesse, |Val (X )| < Schreibweise: P (X ) f ur Verteilung bzw. P (x ) f ur P (X = x ).
Alexander Hein
Zufallsvariablen
Zufallsvariablen (Diskrete) ZV X bildet Ergebnisse auf Werte Val (X ) ab: X : (, ) Val (X ) X induziert W-Verteilelung PX auf Val (X ) durch W-Raum (, , P ) PX (X = x ) := P (X 1 (x )) = P ({ | X ( ) = x }) f ur x Val (X )
Im Folgenden nur noch Verteilung u ber ZVs von Interesse, |Val (X )| < Schreibweise: P (X ) f ur Verteilung bzw. P (x ) f ur P (X = x ). Beispiel: ZV Augenzahl Az : (, Pot()) {1, ...6} mit Az ( ) = 1 usw. F ur Laplace-Verteilung: PAz (Az = 1) = P ({ }) = 1 6.
Alexander Hein Einf uhrung in Bayes- und Markovnetze
Verbundverteilungen
Betrachtung einer W-Verteilung u ber einer Menge X = {X1 , ..., Xn }. von Zufallsvariablen u ber W-Raum (, , P ). Verteilung P ordnet jeder Instantiierung der Variablen (x1 , ..., xn ) Wahrscheinlichkeit zu: P := P (X1 = x1 , ..., Xn = xn ) ((X1 = x1 ) ... (Xn = xn ))
n i =1
G g g g0 g0 g+ g+
F f f+ f f+ f f+
P (G , F ) 0.15 0.05 0.22 0.28 0.03 0.27 =1 P(G) 0.2 0.5 0.3 =1
|Val (Xi )| G g g0 g+
Alexander Hein
Alexander Hein
Alexander Hein
... =
i =1
Alexander Hein
Denition ZVs X , Y heissen (total) unabh angig (unter P ), falls P (X = x , Y = y ) = P (X = x )P (Y = y ) f ur alle x Val (X ), y Val (Y )
Alexander Hein
Denition ZVs X , Y heissen (total) unabh angig (unter P ), falls P (X = x , Y = y ) = P (X = x )P (Y = y ) f ur alle x Val (X ), y Val (Y ) Alternativ: P (X = x |Y = y ) = P (X = x ) f ur alle x Val (X ), y Val (Y ) oder P (Y = y ) = 0.
Alexander Hein
Denition ZVs X , Y heissen (total) unabh angig (unter P ), falls P (X = x , Y = y ) = P (X = x )P (Y = y ) f ur alle x Val (X ), y Val (Y ) Alternativ: P (X = x |Y = y ) = P (X = x ) f ur alle x Val (X ), y Val (Y ) oder P (Y = y ) = 0. Schreibweise: P X Y oder P (X , Y ) = P (X )P (Y ).
Alexander Hein
Denition ZVs X , Y heissen (total) unabh angig (unter P ), falls P (X = x , Y = y ) = P (X = x )P (Y = y ) f ur alle x Val (X ), y Val (Y ) Alternativ: P (X = x |Y = y ) = P (X = x ) f ur alle x Val (X ), y Val (Y ) oder P (Y = y ) = 0. Schreibweise: P X Y oder P (X , Y ) = P (X )P (Y ).
Beispiel: Ergebnisse zweimaligen W urfelns sind unabh angig. Totale Unabh angigkeit eher selten.
Alexander Hein
Alexander Hein
Alexander Hein
Alexander Hein
Alexander Hein
Erweiterung auf Mengen X, Y, Z: P (X Y|Z) P (X, Y|Z) = P (X|Z)P (Y|Z) Totale Unabh angigkeit als Spezialfall.
Alexander Hein
Alexander Hein
Alexander Hein
Beispiele
(Lebensmittelvergiftung MagenDarmVirus )
Alexander Hein
Beispiele
(Lebensmittelvergiftung MagenDarmVirus ) aber nicht (Lebensmittelvergiftung MagenDarmVirus | Bauchschmerzen)
Alexander Hein
Beispiele
(Lebensmittelvergiftung MagenDarmVirus ) aber nicht (Lebensmittelvergiftung MagenDarmVirus | Bauchschmerzen) (Erbkrankheit GeneGrossEltern | GeneEltern)
Alexander Hein
Beispiele
(Lebensmittelvergiftung MagenDarmVirus ) aber nicht (Lebensmittelvergiftung MagenDarmVirus | Bauchschmerzen) (Erbkrankheit GeneGrossEltern | GeneEltern) nicht (Bauchschmerzen Durchfall )
Alexander Hein
Beispiele
(Lebensmittelvergiftung MagenDarmVirus ) aber nicht (Lebensmittelvergiftung MagenDarmVirus | Bauchschmerzen) (Erbkrankheit GeneGrossEltern | GeneEltern) nicht (Bauchschmerzen Durchfall ) aber (Bauchschmerzen Durchfall | MagenDarmErkrankungen)
Alexander Hein
Motivation
Ziel: Darstellung und Operationen auf einer Verbundverteilung u ber Variablenmenge X = {X1 , ..., Xn }
Alexander Hein
Motivation
Ziel: Darstellung und Operationen auf einer Verbundverteilung u ber Variablenmenge X = {X1 , ..., Xn } Probleme bei expliziter Darstellung als Tabelle:
Speicherverbrauch exponentiell in Anzahl der ZVs bei. Operationen haben hohen Berechnungsaufwand.
Alexander Hein
Motivation
Ziel: Darstellung und Operationen auf einer Verbundverteilung u ber Variablenmenge X = {X1 , ..., Xn } Probleme bei expliziter Darstellung als Tabelle:
Speicherverbrauch exponentiell in Anzahl der ZVs bei. Operationen haben hohen Berechnungsaufwand.
L osung: Reduzierung der Komplexit at: Ausnutzung der (bedingten) Unabh angigkeiten zwischen den Zufallsvariablen.
Alexander Hein
Beispiel-Bayesnetz (1)
Beispiel: Expertensystem f ur Arzt zur Diabeteserkennung. Modellierung der Dom ane mit 5 Zufallsvariablen, die jeweils 2 Werte annehmen k onnen. Variable Diabestes Familienanamnese Ern ahrung Kopfschmerzen Bluttest Abk urzung D F E K T ja (d+) negativ (f-) gut (e-) ja (k+) positiv (t+) nein (d-) positiv (f+) schlecht (e+) nein (k-) negativ (t-)
Alexander Hein
Beispiel-Bayesnetz (2)
Modellierung kausaler Beziehungen durch gerichtete Kanten (willk urlich). Kante X Y : Y h angt ab von X . Kanten X Y Z : Z h angt mittelbar ab von X .
Alexander Hein
Beispiel-Bayesnetz (3)
Knoten annotiert mit Bedingter W-Verteilung (BWV) in Abh. von den Vorg angern.
Alexander Hein
Beispiel-Bayesnetz (3)
Knoten annotiert mit Bedingter W-Verteilung (BWV) in Abh. von den Vorg angern. Wahrscheinlichkeit des Ereignisses (f , e , d +, k , t +).
Alexander Hein
Beispiel-Bayesnetz (3)
Knoten annotiert mit Bedingter W-Verteilung (BWV) in Abh. von den Vorg angern. Wahrscheinlichkeit des Ereignisses (f , e , d +, k , t +). P (f , e , d +, k , t +) = 0, 7 0, 4 0, 1 0, 1 0, 95 = 0, 00266
Alexander Hein
Beispiel-Bayesnetz (3)
Knoten annotiert mit Bedingter W-Verteilung (BWV) in Abh. von den Vorg angern. Wahrscheinlichkeit des Ereignisses (f , e , d +, k , t +). P (f , e , d +, k , t +) = 0, 7 0, 4 0, 1 0, 1 0, 95 = 0, 00266
Allgemein:P (F , E , D , K , T ) = P (F )P (E )P (D |F , E )P (K |D )P (T |D )
Alexander Hein
Beispiel-Bayesnetz (3)
Knoten annotiert mit Bedingter W-Verteilung (BWV) in Abh. von den Vorg angern. Wahrscheinlichkeit des Ereignisses (f , e , d +, k , t +). P (f , e , d +, k , t +) = 0, 7 0, 4 0, 1 0, 1 0, 95 = 0, 00266
DAGs
Bayesnetze basieren auf gerichteten azyklischen Graphen (DAGs). Beispiel:
Alexander Hein
DAGs
Bayesnetze basieren auf gerichteten azyklischen Graphen (DAGs). Beispiel:
Alexander Hein
DAGs
Bayesnetze basieren auf gerichteten azyklischen Graphen (DAGs). Beispiel:
Bayesger uste
Denition Bayesger ust DAG GX , dessen Knoten Variablen X = {X1 , ..., Xn } entsprechen. Struktur des Graphen kodiert eine Menge von (bedingten) Unabh angigkeitsaussagen: IndGX := {(Xi NichtNachf GX (Xi ) | ElternGX (Xi )) : Xi X }
Alexander Hein
Bayesger uste
Denition Bayesger ust DAG GX , dessen Knoten Variablen X = {X1 , ..., Xn } entsprechen. Struktur des Graphen kodiert eine Menge von (bedingten) Unabh angigkeitsaussagen: IndGX := {(Xi NichtNachf GX (Xi ) | ElternGX (Xi )) : Xi X }
(F E ) (E F ) (K T , F , E | D ) (T K , F , E | D )
Alexander Hein
Faktorisierung
Faktorisierung u ust ber Bayesger Verteilung PX u ber Variablen X = {X1 , ..., Xn }. PX faktorisiert u ber einem Bayesger ust GX , falls PX darstellbar ist durch:
n
PX (X1 , ..., Xn ) =
i =1
(Kettenregel f ur Bayesnetze)
Alexander Hein
Faktorisierung
Faktorisierung u ust ber Bayesger Verteilung PX u ber Variablen X = {X1 , ..., Xn }. PX faktorisiert u ber einem Bayesger ust GX , falls PX darstellbar ist durch:
n
PX (X1 , ..., Xn ) =
i =1
GX besteht aus n isolierten Knoten: PX faktorisiert u ber GX , falls PX (X1 , ..., Xn ) = P (X1 ) P (X2 ) P (Xn )
Alexander Hein
Faktorisierung
Faktorisierung u ust ber Bayesger Verteilung PX u ber Variablen X = {X1 , ..., Xn }. PX faktorisiert u ber einem Bayesger ust GX , falls PX darstellbar ist durch:
n
PX (X1 , ..., Xn ) =
i =1
GX besteht aus n isolierten Knoten: PX faktorisiert u ber GX , falls PX (X1 , ..., Xn ) = P (X1 ) P (X2 ) P (Xn ) GX ist vollst andiger DAG: Jede Verteilung faktorisiert u ber GX (Faktorisierung entspricht allg. Kettenregel).
Alexander Hein Einf uhrung in Bayes- und Markovnetze
I-Maps
IndPX F ur Verteilung PX u ber Variablenmenge X bezeichne IndPX die Menge aller (bedingten) Unabh angigkeiten der Form ( X Y | Z) f ur X, Y, Z X , die unter PX gelten.
Alexander Hein
I-Maps
IndPX F ur Verteilung PX u ber Variablenmenge X bezeichne IndPX die Menge aller (bedingten) Unabh angigkeiten der Form ( X Y | Z) f ur X, Y, Z X , die unter PX gelten. I-Map Sei PX Wahrscheinlichkeitsverteilung und GX Bayesger ust u ber identischer Variablenmenge X . GX heisst I-Map (Independency-map) f ur PX , falls IndGX IndPX gilt. Bedeutet: Jede vom Graphen kodierte Unabh angigkeit gilt auch unter der Verteilung.
Alexander Hein Einf uhrung in Bayes- und Markovnetze
Alexander Hein
Alexander Hein
Alexander Hein
Alexander Hein
Alexander Hein
Bayesnetze-Zusammenfassung
Denition Bayesnetz Bayesnetz u ber X ist Paar BX := (PX , GX ), wobei PX durch GX faktorisiert wird, und die einzelnen Faktoren als BWVs den entsprechenden Knoten des Bayesger usts zugeordnet sind.
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z).
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P (X, Z) P (Y, Z) P (Z) P (Z)
P (X|Z)P (Y|Z)
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P (X, Z) P (Y, Z) = P (Z) P (Z) P ( X , Y , Z) P (Z) P ( X , Y , Z) P ( Z)
P (X|Z)P (Y|Z)
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P ( X , Y , Z) P ( X , Y , Z) P (X, Z) P (Y, Z) = Y X P (Z) P (Z) P (Z) P ( Z) ( Y 1 (X, Z)2 (Y, Z)) ( X 1 (X, Z)2 (Y, Z)) P (Z) P (Z)
P (X|Z)P (Y|Z)
= =
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P ( X , Y , Z) P ( X , Y , Z) P (X, Z) P (Y, Z) = Y X P (Z) P (Z) P (Z) P ( Z) ( Y 1 (X, Z)2 (Y, Z)) ( X 1 (X, Z)2 (Y, Z)) P (Z) P (Z) 1 (X, Z)2 (Z) 1 (Z)2 (Y, Z) P (Z) P (Z)
P (X|Z)P (Y|Z)
= = =
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P ( X , Y , Z) P ( X , Y , Z) P (X, Z) P (Y, Z) = Y X P (Z) P (Z) P (Z) P ( Z) ( Y 1 (X, Z)2 (Y, Z)) ( X 1 (X, Z)2 (Y, Z)) P (Z) P (Z) 1 (X, Z)2 (Z) 1 (Z)2 (Y, Z) P (X, Y, Z)2 (Z)1 (Z) = P (Z) P (Z) P (Z) P (Z)
P (X|Z)P (Y|Z)
= = =
Alexander Hein
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P ( X , Y , Z) P ( X , Y , Z) P (X, Z) P (Y, Z) = Y X P (Z) P (Z) P (Z) P ( Z) ( Y 1 (X, Z)2 (Y, Z)) ( X 1 (X, Z)2 (Y, Z)) P (Z) P (Z) 1 (X, Z)2 (Z) 1 (Z)2 (Y, Z) P (X, Y, Z)2 (Z)1 (Z) = P (Z) P (Z) P (Z) P (Z) P (X, Y, Z) X,Y 1 (X, Z)2 (Y, Z) P (Z) P (Z)
Alexander Hein Einf uhrung in Bayes- und Markovnetze
P (X|Z)P (Y|Z)
= = = =
Warm-Up
Satz Y Z = X. Disjunkte Menge von ZVs X P (X ) (X Y|Z) P (X ) = 1 (X, Z)2 (Y, Z). Beweis (=): P ( X , Y , Z) P ( X , Y , Z) P (X, Z) P (Y, Z) = Y X P (Z) P (Z) P (Z) P ( Z) ( Y 1 (X, Z)2 (Y, Z)) ( X 1 (X, Z)2 (Y, Z)) P (Z) P (Z) 1 (X, Z)2 (Z) 1 (Z)2 (Y, Z) P (X, Y, Z)2 (Z)1 (Z) = P (Z) P (Z) P (Z) P (Z) P (X, Y, Z) X,Y 1 (X, Z)2 (Y, Z) P (X, Y, Z) = P (Z) P (Z) P (Z)
Alexander Hein Einf uhrung in Bayes- und Markovnetze
P (X|Z)P (Y|Z)
= = = =
Faktoren
Denition Faktor Faktor auf einer Menge von Zufallsvariablen D ist Abbildung : D R+ 0. X x x x+ x+ Z z z+ z z+ 1 (X , Z ) 13 2 4 11 Y y y y+ y+ Z z z+ z z+ 2 (Y , Z ) 2 6 23 1
Alexander Hein
Gibbsverteilungen
Def. Gibbsverteilung Sei X = {X1 , ..., Xn } eine Menge von Zufallsvariablen und D1 , ..., Dk X . Eine Gibbsverteilung, parametrisiert durch Faktoren = {1 (D1 ), ..., k (Dk )}, ist deniert durch P (X1 , ..., Xn ) = wobei
k
1 P (X1 , ..., Xn ) Z
= P
i =1
i (Di )
(X1 , ..., Xn ) P
ist.
Alexander Hein Einf uhrung in Bayes- und Markovnetze
Faktorisierung
Def. Faktorisierung Gibbsverteilung P mit = {1 (D1 ), ..., k (Dk )} u ber Variablen X = {X1 , ..., Xn } faktorisiert u ust GX , falls alle ber einem Markovger Di X (maximale) Cliquen in GX sind.
Alexander Hein
Faktorisierung
Def. Faktorisierung Gibbsverteilung P mit = {1 (D1 ), ..., k (Dk )} u ber Variablen X = {X1 , ..., Xn } faktorisiert u ust GX , falls alle ber einem Markovger Di X (maximale) Cliquen in GX sind. Globale Markoveigenschaften Knotenmengen X, Y, Z GX . X und Y werden durch Z separiert, falls jeder Pfad zwischen Knoten aus X und Y durch Z verl auft: Schreibweise: sepGX (X; Y|Z)
Alexander Hein
Faktorisierung
Def. Faktorisierung Gibbsverteilung P mit = {1 (D1 ), ..., k (Dk )} u ber Variablen X = {X1 , ..., Xn } faktorisiert u ust GX , falls alle ber einem Markovger Di X (maximale) Cliquen in GX sind. Globale Markoveigenschaften Knotenmengen X, Y, Z GX . X und Y werden durch Z separiert, falls jeder Pfad zwischen Knoten aus X und Y durch Z verl auft: Schreibweise: sepGX (X; Y|Z) Vom Markovger ust GX kodierte Unabh angigkeiten: IndGlob (GX ) := {(X Y | Z) : sepGX (X; Y|Z) }
Alexander Hein
Alexander Hein
Alexander Hein
i (Di )
i =1 i =s +1
i (Di )
Alexander Hein
i (Di )
i =1 i =s +1
i (Di )
Erstes Produkt enth alt keine ZVs aus Y und zweites keine aus X: P (X1 , ..., Xn ) = f (X, Z)g (Y, Z)
Alexander Hein
i (Di )
i =1 i =s +1
i (Di )
Erstes Produkt enth alt keine ZVs aus Y und zweites keine aus X: P (X1 , ..., Xn ) = f (X, Z)g (Y, Z) also P (X Y | Z).
Alexander Hein Einf uhrung in Bayes- und Markovnetze
2.Fall
Alexander Hein
2.Fall
Y Z R = X Partitioniere R in Mengen RX und RY , 2.Fall: X sodass X RX und Y RY durch Z separiert werden.Analog erster Fall folgt: P (X, RX Y, RY | Z)
Alexander Hein
2.Fall
Y Z R = X Partitioniere R in Mengen RX und RY , 2.Fall: X sodass X RX und Y RY durch Z separiert werden.Analog erster Fall folgt: P (X, RX Y, RY | Z) Mit Zerlegungsregel folgt: P ( X Y | Z)
Alexander Hein
2.Fall
Y Z R = X Partitioniere R in Mengen RX und RY , 2.Fall: X sodass X RX und Y RY durch Z separiert werden.Analog erster Fall folgt: P (X, RX Y, RY | Z) Mit Zerlegungsregel folgt: P Satz v. Hammersley-Cliord F ur strikt positive Verteilung PX gilt: Ist GX I-Map von PX , so ist PX Gibbsverteilung, die u ber GX faktorisiert. ( X Y | Z)
Alexander Hein
Alexander Hein
Alexander Hein
Alexander Hein