Beruflich Dokumente
Kultur Dokumente
Probabilističko
reprezentiranje znanja
Pregled
Zašto trebamo probabilističku reprezentaciju
Osnovne stvari o vjerojatnosti
Dogañaji
Diskretne slučajne varijable, složeni dogañaji
Aksiomi vjerojatnosti
Nezavisni dogañaji
Uvjetna vjerojatnost
Zajednička distribucija vjerojatnosti
Bayesovo pravilo
Bayesove mreže
Zašto
Osnovni problem sa reprezentacijom
znanja u logičkim sustavima: nesigurnost
Kompletno znanje o okolini u realnom svijetu
je gotovo uvijek nedostupno
Ne možemo uvijek doći do kategoričkog
odgovora
Nesigurnost može proizaći i zbog našeg
nerazumijevanja – nepotpunost
To još uvijek ne znači da ne možemo
konstruirati racionalne odgovore ili akcije !
Zašto
Osnovni razlozi nesigurnosti
Greške - netočnost
Lijenost
za konstruirati pravila koje pokrivaju sve moguće
slučajeve treba previše resursa
Teoretsko nepoznavanje domene
Vidi medicinu kao primjer !
Neznanje uslijed nedostatka podataka:
Iako imamo besprijekorna pravila u bazi znanja, u
trenutku odlučivanja nemamo sve potrebne podatke
Zašto
Nepotpuno znanje je karakteristično za
mnoge realne domene (osim medicine)
Ekonomija, industrija, medicina, dizajn, ...
1. 0≤P(A)≤1
2. P(true)=1; P(false)=0
3. P(A∨B)=P(A)+P(B)-P(A^B)
Teorem: P(~A)=1-P(A)
Iz 2. i 3.
P(A ∨ ~A) = P(A) + P(~A) - P(A ^ ~A)
1 = P(A) + P(~A) – 0
P(~A)=1-P(A)
Interpretacija u slikama
P(~A) + P(A) = 1
~A
A
Interpretacija u slikama
•P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
~A^~B
A B
P(A ∧ B)
Osnovni pojmovi i notacija
Boole-ove varijable:
P(parno); P(~parno)
P(točno); P(~točno)
Distribucija vjerojatnosti:
Ako je X slučajna varijabla, a P (X=x) je funkcija
definirana za svaki x onda je P distribucija
vjerojatnosti za X i vrijedi:
P(X=x) ≥ 0 ∀x
∑x P(X=x) =1
Slučajne varijable s više vrijednosti
A je slučajna varijabla koja može poprimiti samo
jednu od k različitih vrijednosti {v1,v2, .. vk}.
P( A = vi ∧ A = v j ) = 0 ako i ≠ j
i
P( A = v1 ∨ A = v2 ∨ A = vi ) = ∑ P ( A = v j )
j =1
P( A = v1 ∨ A = v 2 ∨ .... ∨ A = v k ) = 1
Slučajne varijable s više vrijednosti
Zadatak:
Imamo čovječe-ne-ljuti-se-kockicu (1,2...6),
koja je malo “frizirana”, t.j.:
P(X=6)=0.25
P(X=1,2,3,4,5)=C*(1/5)
C=?
Propozicije i vjerojatnost
Klasična vjerojatnost – “idealni svijet”:
prethodna vjerojatnost (en. a priori probability)
Bez obzira na (nove) podatke iz realnog svijeta
Igre: kockice, karte, ..., kovanice
Dogañaji za koje je matematička formulacija
vjerojatnosti unaprijed poznata
Svi mogući dogañaji i ishodi su unaprijed poznati
Subjektivna vjerojatnost
Nemamo podatke – ali imamo eksperta !
Zapravo nije vjerojatnost nego intuicija (osjećaj) –
pretvoren u vjerojatnost
Nezavisni dogañaji
Dva dogañaja A i B su nezavisna akko:
P(A ^ B)=P(A)*P(B)
x,y P(X=x,Y=y)
a b c P
0 0 0 0.2
1 0 0 0.05
P(a^b)= ∑b=1,a=1 P(redi)= 0.15 1 1 0 0.1
1 1 1 0.05
0 1 0 0.2
P(a ako znamo b)= ?
0 1 1 0.2
0 0 1 0.08
1 0 1 0.12
Uvjetna vjerojatnost
Uvjetna vjerojatnost (en. conditional probability)
P(gripa)=0.01
- u nedostatku drugih informacija, naš IA će pridijeliti vjerojatnost
od 0.01 da pacijent boluje od gripe.
- Ako dobijemo neke druge informacije koje bi nam mogle koristiti,
to će izmijeniti ovu vjerojatnost
Vjerojatnosti vezane uz slučajne varijable – distribucija
vjerojatnosti:
- P(vrijeme=sunčano)=0.4; P(vrijeme=kiša)=0.2
- P(vrijeme=oblačno)=0.3; P(snijeg)=0.1
- P(vrijeme)=<0.4,0.2,0.3,0.1>
Distribucija vjerojatnosti i uvjetna
vjerojatnost
Zajednička distribucija vjerojatnosti (joint probability
distribution): P(G, T)
Gripa ~gripa
Temp<37 0.0 0.85
37<Temp<38 0.05 0.01
Temp>38 0.08 0.01
? P(Gripa|Temp>38) =
Uvjetna vjerojatnost
Vjerojatnost A uz to da znamo B: P(A|B)
Vjerojatnost A uz to da znamo B i C: P(A|B^C)
Ne znamo ništa => P(A)=P(A|)
P(A^B)=P(A|B) P(B)
P(A^B)=P(B|A) P(A)
____________________
P(A|B) P(B)=P(B|A) P(A)
Naš eksperiment:
(1)Uzmemo nasumce jednu kocku
(2)Bacimo je
Koja je vjerojatnost da ćemo okrenuti šesticu ?
Problemi
Vjerojatno imate barem 3 susjeda koje poznajete:
Zauzetost=Z (velika,mala)
Obaveze u obitelji = OuO (velika,srednja,mala)
Bayesova mreža !?
Primjer – igrati ili ne igrati ?
Bayesova mreža – koraci u stvaranju:
1) Odaberemo relevantne varijable (IT, V, PV, OuO, Z);
2) Odredimo njihovu hijerarhijsku povezanost, t.j. Koje
varijable predstavljaju “roditelje”, a koje “djecu”;
3) Odredimo vrijednosti u tablicama vjerojatnosti prema:
P(X=v | vrijednosti “roditelja” od X)
Primjer – igrati ili ne igrati ?
Bayesova mreža:
Kako izgledaju tablice
vjerojatnosti u tom slučaju ?
Primjer – igrati ili ne igrati ? P(IT | V,Z) Igram tenis
P(V|PV) P(Z|OuO)
vrijeme Zauzetost
P(PV) P(OuO)
Prognoza P Obaveza P