Wirtschaftsingenieurwesen an der Universität Duisburg-Essen
Markov hidden
1. Anwendungen und Problemstellungen
Probabilistische Graphische Modelle
Sven Wachsmuth
Universit¨t Bielefeld, Technische Fakult¨t, AG Angewandte Informatik
a a
WS 2006/2007
Probabilistische Graphische Modelle 1
2. Anwendungen und Problemstellungen
¨
Ubersicht uber die Vorlesung
¨
1 Anwendungen und Problemstellungen
Anwendungen: Bayes-Netze
Probabilistische Graphische Modelle 2
4. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2. Varianten von PGMs
Es sind verschiedene Auspr¨gungen von PGMs getrennt von
a
einander entstanden, deren Theorie erst sp¨ter uber den Begriff der
a ¨
Graphical Models zusammengef¨hrt wurden:
u
Bayes’sche Netzwerke (BN)
Finn V. Jensen, An Introduction to Bayesian Networks,
London: UCL Press Limited, 1996, Kap. 2.3, 3.3.
Hidden Markov Modelle (HMM)
Gernot A. Fink, Mustererkennung mit Markov-Modellen,
Wiesbaden: Teubner, 2003, Kap. 5.
Markov Random Fields (MRF) Stan Z. Li, Markov Random
Field Modeling in Computer Vision, New York, Berlin,
Heidelberg, Tokyo: Springer, 1995, Kap. 1.
Probabilistische Graphische Modelle 4
5. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Bayes’sche Netzwerke (BN)
Die Verbundwahrscheinlichkeit uber eine Variablenmenge
¨
X = {X1 , X2 , . . . , Xn } wird auf der Basis der Produkt- oder
Kettenregel faktorisiert:
P(x1 , x2 , . . . , xn ) =P(x1 |x2 , . . . , xn ) P(x2 |x3 , . . . , xn ) . . .
. . . P(xn−1 |xn )P(xn )
d.h. es wird eine Ordnung auf den Variablen angenommen
(aus unterschiedlichen Ordnungen resultieren unterschiedliche
BN’s).
¨
Uber Annahmen einer bed. Unabh. zwischen Variablen,
k¨nnen die Variablen in der Bedingung eingeschr¨nkt werden
o a
Probabilistische Graphische Modelle 5
6. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Bed. Unabh¨ngigkeit in BNs
a
In BNs werden bedingte Unabh¨ngigkeiten H uber sogenannte
a ¨
Eltern (parents) definiert:
n
P(x1 , x2 , . . . , xn |H) ≡ P(xi |xπi )
i=1
wobei πi ⊆ {Xi+1 , . . . , Xn } Eltern von xi .
¨
Uber die Eltern-Kind-Beziehung definiert sich der zugeh¨rige
o
gerichtete Graph.
Probabilistische Graphische Modelle 6
7. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Beispiel:
Paul arbeitet in seinem B¨ro in Californien. Sein Haus in einem
u
Vorort ist durch eine Alarmanlage gesichert.
Nach einer Sitzung bekommt er die Nachricht, dass seine
Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine
Alarmanlage losgegangen? Hat eventuell ein Einbruch
stattgefunden?
Nach der n¨chsten Sitzung erf¨hrt er, dass auch sein anderer
a a
Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er
sich in sein Auto und f¨hrt nach Hause.
a
Unterwegs h¨rt er im Radio, dass ein kleines Erdbeben
o
stattgefunden hat, ohne Sch¨den zu verursachen. Wieder beruhigt
a
kehrt er zur Arbeitsstelle zur¨ck.
u
Probabilistische Graphische Modelle 7
8. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Beispiel:
Paul arbeitet in seinem B¨ro in Californien. Sein Haus in einem
u
Vorort ist durch eine Alarmanlage gesichert.
Nach einer Sitzung bekommt er die Nachricht, dass seine
Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine
Alarmanlage losgegangen? Hat eventuell ein Einbruch
stattgefunden?
Nach der n¨chsten Sitzung erf¨hrt er, dass auch sein anderer
a a
Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er
sich in sein Auto und f¨hrt nach Hause.
a
Unterwegs h¨rt er im Radio, dass ein kleines Erdbeben
o
stattgefunden hat, ohne Sch¨den zu verursachen. Wieder beruhigt
a
kehrt er zur Arbeitsstelle zur¨ck.
u
Probabilistische Graphische Modelle 7
9. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Anwendung der Kettenregel:
P(John, Mary , Alarm, Einbruch, Erdbeben)
= P(John|Mary , Alarm, Einbruch, Erdbeben)
P(Mary |Alarm, Einbruch, Erdbeben)
P(Alarm|Einbruch, Erdbeden)
P(Einbruch|Erdbeben) P(Erdbeben)
und Anwendung der bedingten Unabh¨ngigkeitsannahmen H ...
a
Probabilistische Graphische Modelle 8
11. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Einbruch Erdbeben
Alarm
JohnCalls MaryCalls
P(John, Mary , Alarm, Einbruch, Erdbeben|H)
= P(John|Alarm) P(Mary |Alarm)
P(Alarm|Einbruch, Erdbeden) P(Einbruch) P(Erdbeben)
wobei H die Menge der bed. Unabh¨ngigkeitsannahmen.
a
Probabilistische Graphische Modelle 9
12. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Def. (diskretes) Bayes’sches Netzwerk (BN) (I)
Ein BN besteht aus:
Einer Menge von Variablen (Knoten) und einer Menge von
gerichteten Kanten zwischen Variablen.
Jede Variable hat eine endliche Menge von sich gegenseitig
ausschließenden Zust¨nden.
a
Die Variablen bilden zusammen mit den gerichteten Kanten
einen gerichteten azyklischen Graphen (directed acyclic graph
- DAG).
D.h. Es existiert kein gerichteter Pfad mit
X1 → · · · → Xk , so dass X1 = Xk
...
Probabilistische Graphische Modelle 10
13. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Def. (diskretes) Bayes’sches Netzwerk (BN) (II)
Ein BN besteht aus (Fortsetzung):
Jeder Variablen Xi mit Eltern πi ist eine Tabelle von
bedingten Wahrscheinlichkeiten zugeordnet:
(1) (1) (1) (L)
p(xi |xπi ) . . . p(xi |xπi )
P(Xi |Xπi ) ≡ ... ...
(K ) (1) (K ) (L)
p(xi |xπi ) . . . p(xi |xπi )
Probabilistische Graphische Modelle 11
14. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Inferenz bei BNs (Problemstellungen):
Sei X = {X1 , X2 , . . . , Xn } die Menge von ZV’en des BN.
Sei O = (XJ = xJ ) = (Xj1 = xj1 , . . . , XjJ = xjJ ) gegeben.
Belief updating (Bel):
P(xi |O) = P(Xi = xi |Xj1 = xj1 , . . . , XjJ = xjJ )
Most probable explanation (MPE):
arg max P(xI |xJ ), wobei XI = X XJ
xI ∈AXI
Maximum a posteriori hypothesis (MAP):
arg max P(xI |xJ ), wobei XI ⊆ X XJ
xI ∈AXI
Probabilistische Graphische Modelle 12
15. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Modellierung in BN’en
Problem großer bed. Wk.-Tabellen P(A|B, C , D):
Es liegen Sch¨tzungen f¨r P(A|B), P(A|C ), P(A|D) vor,
a u
wie beschreiben wir ihre Kombination in P(A|B, C , D)?
Jede Ursache hat eine unabh¨ngige Wirkung,
a
wie kann dies modelliert werden?
Probabilistische Graphische Modelle 13
16. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Beispiel (Noisy-or)
Es gibt 3 Ereignisse, die dazu f¨hren, dass die Alarmanlage los
u
geht:
Hintergrund-Ereignis: 0,1% aus unspezifischen Gr¨nden
u
Einbrecher: 95%
Erdbeben: 29%
Annahme: Die Faktoren, die dazu f¨hren, dass das Ereignis
u
trotzdem nicht eintritt sind unabh¨ngig.
a
Probabilistische Graphische Modelle 14
17. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Noisy-or
Seien A1 , . . . , An bin¨re Variablen der m¨glichen Ursachen von
a o
dem Ereignis der bin¨ren Variablen B.
a
Ai = true verursacht B = true, solange dies nicht durch
andere Faktoren verhindert wird.
Sei P(B = false|Ai = true) = qi die bed. Wk., dass B
trotzdem nicht eintritt.
Annahme: Verhinderungsfaktoren der Ereignisse von
A1 , . . . , An sind unabh¨ngig, d.h. z.B.:
a
P(B = true|A1 = true, A2 = true, A3 = · · · = An = false)
= 1 − P(B = false|A1 = true, A2 = true, A3 = · · · = An = false)
= 1 − q1 q2
Probabilistische Graphische Modelle 15
18. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Beispiel (unabh¨ngige Ursachen)
a
Kopfschmerzen (Ko) k¨nnen durch Fieber (Fi), einen Kater (Ka),
o
Rheuma (Rh), einen Gehirntumor (Ge), oder andere Gr¨nde (An)
u
verursacht werden. Eventuell wird Aspirin (As) zur Linderung der
Kopfschmerzen eingenommen.
Die einzelnen Ursachen verst¨rken den Effekt.
a
Der Einfluss der Ursachen auf die Wirkung ist unabh¨ngig.
a
Probabilistische Graphische Modelle 16
19. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
unabh¨ngige Ursachen
a
Seien C1 , . . . , Cn die Elternknoten von A.
C1 , . . . , Cn sind unabh¨ngig, falls das folgende f¨r alle
a u
Konfigurationen (c1 , . . . , cn ) und f¨r alle i gilt:
u
Falls A = a und Ci = ci ¨ndert sich nach Ci = ci , dann wird
a
die resultierende Verteilung von A nur durch eine Funktion
von a, ci , ci bestimmt.
Probabilistische Graphische Modelle 17
20. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Divorcing
Noisy-or und kausale Unabh¨ngigkeit sind Spezialf¨lle von der
a a
Methode Divorcing (scheiden).
Seien A1 , . . . , An Elternknoten von B.
A1 , . . . , Ai is divorced from Ai+1 , . . . , An durch die Einf¨hrung
u
einer Zwischenvariablen C mit
C wird gemeinsames Kind von A1 , . . . , Ai .
C wird neben Ai+1 , . . . , An Elternknoten von B.
Annahme: Die Konfigurationen von A1 , . . . , Ai k¨nnen o
partitioniert werden in die Mengen c (1) , . . . , c (K ) , so dass f¨r
u
zwei Konfigurationen a[1,i] , a[1,i] aus einer Menge c (j) gilt:
P(B|a[1,i] , a[i+1,K ] ) = P(B|a[1,i] , a[i+1,K ] )
Probabilistische Graphische Modelle 18
21. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Beispiel (Ungerichtete Relationen):
Um zwei zusammengeh¨rige Socken zu finden, kann man diese
o
nach Farbe und Muster klassifizieren. Nach mehrfachem Waschen
ist dies jedoch nicht immer ganz einfach.
In der letzten Waschmaschine waren 2 Paar Socken, die nicht mehr
ganz eindeutig auseinander zu halten sind. Nichtsdestotrotz
m¨ssen wir zwei passende finden.
u
Die Beschr¨nkung dabei ist, dass es jeweils exakt 2 Socken des
a
gleichen Typs gibt.
Probabilistische Graphische Modelle 19
22. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Ungerichtete Relationen
Sei R(A, B, C ) eine ungerichtete Relation zwischen den Variablen
A, B, C , die durch die Werte {0, 1} beschrieben wird.
F¨ge eine Variable D mit AD = {true, false}.
u
Definiere P(D = true|A, B, C ) = R(A, B, C ).
Definiere P(D = false|A, B, C ) = 1 − R(A, B, C ).
Setze die Evidenz D = true.
Probabilistische Graphische Modelle 20
23. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.1 Varianten von PGMs: Bayes’sche Netzwerke
Zusammenfassung Bayes-Netze
Ein BN ist ein DAG, wobei jedem Knoten (Variablen) eine
bedingte Wk.-Tabelle zugeordnet ist.
Gerichtete Kanten des DAG ergeben sich h¨ufig uber kausale
a ¨
Beziehungen der in den ZV modellierten Ereignisse.
Die Faktorisierung der Verbundwk. ergibt sich uber die
¨
Kettenregel bzw. die Elternknoten.
Jede Instanziierung eines BNs (partielle Belegung der
Variablen mit Werten – Evidenzen) wird als unabh¨ngiges
a
Ereignis betrachtet.
Die Theorie von Bayes-Netzen kann auch auf kontinuierliche
Variablen ausgedehnt werden (→ hybride Bayes-Netze)
Ziel ist die Berechnung der bedingten Wahrscheinlichkeit von
nicht beobachteten Variablen.
Probabilistische Graphische Modelle 21
24. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Hidden Markov Modelle (HMM)
HMMs beschreiben einen 2-stufigen stochastischen Prozess
erste Stufe:
diskreter stochastischer Prozess,
station¨r, kausal, einfach,
a
endliche Zustandsmenge,
¨
endlicher Automat mit Ubergangswk.
P(st |s1 , s2 , . . . , st−1 ) = P(st |st−1 )
zweite Stufe:
Zu jedem Zeitpunkt t wird eine Ausgabe (Emission) ot
generiert,
die Ausgabe ist nur vom aktuellen Zustand st abh¨ngig
a
P(ot |o1 , . . . , ot−1 , s1 , . . . , st ) = P(ot |st )
Probabilistische Graphische Modelle 22
25. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Beispiel
Paul ist neu in der Stadt und versucht Mary, die sich in der Stadt
recht gut auskennt, zu erkl¨ren, wo er gestern lang gegangen ist.
a
“Ich bin an einer großen Kreuzung gestartet. Dann bin ich bei einer
Kirche herausgekommen und weiter gegangen zu einem Platz mit
einem Brunnen. Von dort bin ich dann an einer Eisdiele vorbei
gegangen, habe ein St¨ck weiter Straßenbahngleise uberquert und
u ¨
bin bei meinem Hotel herausgekommen.
Welcher Weg wurde genommen?
An welchem Hotel ist Paul angekommen?
Probabilistische Graphische Modelle 23
26. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Die Zustandsmenge besteht aus
den markierten Stellen im
Stadtplan.
Die Beobachtungen sind
markante Objekte an diesen
Orten.
Welcher Weg wurde
genommen?
An welchem Hotel ist Paul
angekommen?
Probabilistische Graphische Modelle 24
27. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Def. Hidden Markov Modelle
Ein HMM 1. Ordnung wird vollst¨ndig beschrieben durch:
a
eine endliche Menge von Zust¨nden St ∈ {s|1 ≤ s ≤ N}
a
eine Matrix A von Zustands¨bergangswk.
u
A = {aij |aij = P(St = j|St−1 = i)}
einen Vektor π von Zustandsstartwk.
π = {πi |πi = P(S1 = i)}.
zustandsspezifische Emissionsverteilungen
B = {bkj |bkj = P(Ot = ok |St = j)}
bzw. {bj (x)|bj (x) = p(x|St = j)} (kont. Dichten)
Probabilistische Graphische Modelle 25
28. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Modellierung der Modellemissionen
Meistens wird eine kontinuierliche Dichte durch eine
Mischverteilung approximiert:
Mj
bj (x) = cjk N (x|µjk , Kjk )
k=1
wobei cjk das Mischungsgewicht mit k ck = 1 und ck ≥ 0 ∀k,
µjk der zustandsabh. Mittelwert der Komponente,
Kjk die zustandsabh. Kovarianzmatrix der Komponente.
Probabilistische Graphische Modelle 26
29. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Semikontinuierliche HMMs
Die zu mischenden Komponenten sind unabh¨ngig vom Zustand:
a
Mj
bj (x) = cjk N (x|µk , Kk )
k=1
wobei cjk das Mischungsgewicht mit k ck = 1 und ck ≥ 0 ∀k,
µk der komponentenspezifische Mittelwert,
Kk die komponentenspezifische Kovarianzmatrix.
Probabilistische Graphische Modelle 27
30. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Inferenz bei HMMs (Problemstellungen)
Sei S = (S1 , . . . , ST ) eine Folge von Zustandsvariablen.
Sei O = (O1 = ok1 , . . . , Ot = okT ) eine Folge von Beobachtungen.
Produktionswk. von HMM λ (Evaluierung)
P(O|λ) = P(O, s1 , . . . , sT |λ)
s1 ,...,sT
optimale Produktionswk. von HMM λ (Dekodierung)
P ∗ (O|λ) = P(O, s ∗ |λ) = max P(O, s1 , . . . , sT |λ)
s1 ,...,sT
Probabilistische Graphische Modelle 28
31. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Inferenz bei HMMs (Problemstellungen II)
Sei S = (S1 , . . . , ST ) eine Folge von Zustandsvariablen.
Sei O = (O1 = ok1 , . . . , Ot = okT ) eine Folge von Beobachtungen.
Klassifikation (zwei oder mehr HMMs λi )
P(O|λi ) P(λi )
P(λi ∗ |O) = max
i P(O)
Probabilistische Graphische Modelle 29
32. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.2 Varianten von PGMs: Hidden Markov Modelle
Zusammenfassung HMMs
Ein HMM ist ein zweistufiger Zufallsprozess
(Zust¨nde der ersten Stufe sind nicht beobachtbar).
a
Aufeinander folgende Ereignisse sind nicht unabh¨ngig!
a
Ein HMM wird beschrieben durch λ = (A, π, B).
Es wird meistens zur Modellierung zeitlich organisierter
Prozesse verwendet.
Komplexere Problemstellungen werden meistens durch
Verbund-Modelle realisiert (Zusammenschaltung einfacher
Modelle)
Ein entrolltes HMM entspricht einem einfachen Bayes-Netz
mit rechtsseitiger Baumstruktur.
Probabilistische Graphische Modelle 30
33. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Markov Random Fields (MRF)
MRFs beschreiben ein Feld von Zufallsvariablen X mit
ungerichteten direkten Abh¨ngigkeiten. Dies ist darstellbar durch
a
einen ungerichteten Graphen mit einer Nachbarschaft XNi von
Knoten Xi .
Jede Variable Xi ist unabh¨ngig von den Zust¨nden der ubrigen
a a ¨
Variablen XJ gegeben die Menge der Nachbarschaftsknoten XNi :
P(xi |xNi , xJ ) = P(xi |xNi ), wobei X = {Xi } ∪ XJ ∪ XNi
Probabilistische Graphische Modelle 31
34. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Beispiel
Auf dem Tankstellenmarkt herrscht ein harter Preiskampf. Jeder
Tankstellenbetreiber versucht seine Preise anhand des lokalen
Preisgef¨ges der benachbarten Tankstellen und des
u
Weltmarktpreises zu optimieren.
Der Autofahrer unterwegs kennt zwar die Preise von Tankstelle
A, B, und C , kann aber den Preis seiner n¨chsten Tankstelle D an
a
einem Ort zwischen der teuren Tankstelle A und der g¨nstigen
u
Tankstelle C nur sch¨tzen.
a
Lohnt sich der Weg zur Tankstelle C ?
Probabilistische Graphische Modelle 32
35. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Welche Verteilung modelliert die Unabh¨ngigkeitsbed. eines
a
MRF?
Gedankenexperiment
Gegeben sei ein physikalisches System mit diskreten
Energiezust¨nden 1 , 2 , . . . , m .
a
N identische solche Systeme werden in einen abgeschlossenen
Raum gesperrt, k¨nnen aber untereinander Energie austauschen.
o
Was ist die Verteilung der Energiezust¨nde, die sich einstellt (am
a
wahrscheinlichsten ist)?
Probabilistische Graphische Modelle 33
36. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Boltzmann-Verteilung
∗
Ns exp{−β s }
=
N s exp{−β s }
wobei ∗
Ns die Anzahl der Systeme im Zustand s.
N die Gesamtanzahl der Systeme.
β temperaturabh. Parameter.
Probabilistische Graphische Modelle 34
37. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Die Faktorisierung der Boltzmann-Verteilung ergibt sich aus einer
Zerlegung des Energiezustandes s in eine Summe aus einzelnen
Energietermen Ei (s).
Faktorisierung der Boltzmann-Verteilung
∗
Ns exp{−β i Ei (s)}
=
N Z
wobei s = i Ei (s)
Z= s exp{−β i Ei (s )} (Zustandssumme)
Probabilistische Graphische Modelle 35
38. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Ein Systemzustand s wird modelliert durch eine Menge von
Zufallsvariablen X = {X1 , . . . , Xn } und entspricht einer
Systemkonfiguration
s ≡ (x1 , x2 , . . . , xn )
Ein Energieterm (Potentialfunktion VI (xI )) kann dabei nur von
einer Teilmenge XI ⊆ X der ZV abh¨ngen.
a
1
P(x1 , . . . , xn ) = exp{−β VI (xI )}
Z
I∈Q
wobei Q ⊆ P({1, 2, . . . , n}) (P: Potenzmenge).
Probabilistische Graphische Modelle 36
39. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
1
P(x1 , . . . , xn ) = exp{−β VI (xI )}
Z
I∈Q
Umsetzung der Zerlegung der Zustandsenergie s = I∈Q VI (xI )
in einen Graphen:
Definiere f¨r jede ZV einen Knoten.
u
Ziehe genau dann eine Kante (i, j) zwischen zwei Knoten,
wenn beide ZV in einem Teilenergieterm VI (xI ) vorkommen.
(∃I∈Q Xi , Xj ∈ XI )
⇒ Hieraus folgt die Unabh¨ngigkeitbed. in einem MRF.
a
P(xi |xNi , xJ ) = P(xi |xNi ), wobei Ni Nachbarschaft von Xi
Probabilistische Graphische Modelle 37
40. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Def. Markov Random Fields
Ein (diskretes) MRF wird beschreiben durch:
Einer Menge von Variablen (Knoten) X und einer Menge von
ungerichteten Kanten E.
Jede Variable hat eine endliche Menge von sich gegenseitig
ausschließenden Zust¨nden.
a
Die Variablen bilden zusammen mit den ungerichteten Kanten
einen ungerichteten Graphen G = (X , E)
Es gilt die Unabh¨ngigkeitsbed. (X = {Xi } ∪ XNi ∪ XJ )
a
P(xi |xNi , xJ ) = P(xi |xNi ), ∀j∈J (i, j) ∈ E ∀k∈Ni (i, k) ∈ E
Probabilistische Graphische Modelle 38
41. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Bisher haben wir gezeigt, dass die Boltzmann-(Gibbs-)Verteilung
die MRF-Bedingungen erf¨llt.
u
Hammersley-Clifford Theorem
X ist genau dann ein MRF in Bezug auf ein Nachbarschaftssystem
N , wenn P(x) eine Boltzmann-Gibbs-Verteilung ist.
1
P(x1 , . . . , xn ) = exp{−β VI (xI )}
Z
I∈Q
wobei Q die Menge der (maximalen) Cliquen des Graphen mit
Nachbarschaftssystem N ist.
Probabilistische Graphische Modelle 39
42. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Def. Clique
Eine Clique C in einem Graphen G = (X , E) ist eine
Knotenteilmenge von G , d.h. C ⊆ X , die vollverbunden ist, d.h.
∀ Xi , Xj : Xi ∈ C ∧ Xj ∈ C ⇒ (i, j) ∈ E
Die Beschr¨nkung im Hammersley-Clifford-Theorem auf
a
maximale Cliquen bedeutet keine Einschr¨nkung f¨r das
a u
Modell.
H¨ufig werden gr¨ßere Cliquen durch die Summe von
a o
Potentialfunktionen von Teil-Cliquen beschrieben.
Probabilistische Graphische Modelle 40
43. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Inferenz bei MRFs (Problemstellung)
Sei X = (X1 , . . . , Xn ) ein Feld von Zustandsvariablen.
Sei O = {O1 = o1 , . . . , On = on } eine Menge von Beobachtungen.
Most probable explanation (MPE):
arg max P(x|o) = arg max P(o|x) P(x)
x x
entspricht einer Energieminimierung
(meistens Annahme einer bed. Unabh. im Datenterm):
n
arg min E (x) = arg min VI (xI ) − log P(oi |xi )
x x
I∈Q i=1
Probabilistische Graphische Modelle 41
44. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Wahl des Priors U(x) = I∈Q VI (xI ) (Beispiele):
Multi-level logistic model (nicht geordnete Labelmenge)
ζI falls alle xi , i ∈ I den gleichen Wert haben
VI (xI ) =
−ζI sonst.
Glattheits-Prior (meistens paarweise)
U(x) = VI (xI ) = V2 (xi , xi ), S = {1, . . . , n}
I∈Q i∈S i ∈Ni
1
mit V2 (xi , xi ) = (xi − xi )2 .
2
andere anwendungsabh. Wahl m¨glich.
o
Probabilistische Graphische Modelle 42
45. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.3 Varianten von PGMs: Markov Random Fields
Zusammenfassung MRFs
Ein MRF ist ein ungerichteter Graph, wobei den Cliquen des
Graphs Potentialfunktionen zugeordnet sind.
Die Faktorisierung der Verbundwk. ergibt sich uber die
¨
Summe der Potentialfunktionen.
Jede Instantiierung einen MRFs wird als unabh¨ngiges
a
Ereignis betrachtet.
Die Theorie von MRFs kann auch auf kontinuierliche
Variablen ausgedehnt werden.
Das Minimieren der Gesamtenergie des MRF entspricht der
Berechnung einer most probable explanation der
entsprechenden Boltzmann-Gibbs-Verteilung.
Probabilistische Graphische Modelle 43
46. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.4 Varianten von PGMs: Gemeinsame Sicht
Probabilistische Graphische Modelle kann man sich vorstellen als
probabilistische Datenbasis, die wir uber einen
¨
Anfragemechanismus bez¨glich der Werte von Zufallsvariablen
u
abfragen k¨nnen.
o
Modelliert wird jedes mal die Verbundwahrscheinlichkeit uber
¨
einer Menge von Zufallsvariablen.
Unabh¨ngigkeitsannahmen H ergeben sich aus der
a
Graphstruktur und spiegeln sich in der Faktorisierung der
Verbundwk.
P(x1 , . . . , xn |H) = fI (xI )
I∈Q
Probabilistische Graphische Modelle 44
47. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.4 Varianten von PGMs: Gemeinsame Sicht
P(x1 , . . . , xn |H) = fI (xI )
I∈Q
Dabei ist ...
Bayes-Netze:
Q = {({Xi } ∪ Xπi )|i ∈ {1, . . . , n}}
fI (xI ) = P(xi |xπi ), wobei I = ({Xi } ∪ Xπi )
ausgerollte HMMs k¨nnen als Spezialfall eines BNs verstanden
o
werden.
MRFs:
Q Menge der (maximalen) Cliques uber dem Graph.
¨
fI (xI ) = exp{−βVI (xI )}
Probabilistische Graphische Modelle 45
48. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.4 Varianten von PGMs: Gemeinsame Sicht
Bayes-Netze und MRFs modellieren
eine Folge von unabh¨ngigen, identisch verteilten (IID)
a
Verbund-Ensembles.
Es besteht kein zeitlicher Zusammenhang zwischen zwei
aufeinander folgenden Belegungen
HMMs modellieren
eine Folge von abh¨ngigen Verbund-Ensembles
a
(Zustand, Beobachtung).
der “zeitliche” Zusammenhang ist meistens auf den vorherigen
Zustand beschr¨nkt.
a
⇒ Erweiterung von Bayes-Netzen und MRFs
auf dynamische PGMs.
Probabilistische Graphische Modelle 46
49. Anwendungen und Problemstellungen Anwendungen: Bayes-Netze
2.4 Varianten von PGMs: Gemeinsame Sicht
Gemeinsame Fragestellungen:
Lassen sich Bayes-Netze und MRFs auf einander abbilden?
Wo liegen die Grenzen,
was kann modelliert werden? was nicht?
Gibt es ein gemeinsames Schema f¨r Inferenzalgorithmen?
u
Wie k¨nnen Parameter und Struktur
o
aus Daten gelernt werden?
Probabilistische Graphische Modelle 47