KNW- Wykład 5

18
KNW- Wykład 5 Zbiory Zbiory przybliżone i przybliżone i Funkcje Funkcje przekonań przekonań

description

KNW- Wykład 5. Zbiory przybliżone i Funkcje przekonań. PROGRAM WYKŁADU NR 5. Zbiory przybliżone Powtórka z Wykładu nr 4 Dowód NP-trudności problemu redukcji Funkcje przekonań Odniesienia do zbiorów przybliżonych Reguła syntezy informacji. POJĘCIE REDUKTU. - PowerPoint PPT Presentation

Transcript of KNW- Wykład 5

Page 1: KNW- Wykład 5

KNW- Wykład 5

Zbiory przybliżone i Zbiory przybliżone i Funkcje przekonańFunkcje przekonań

Page 2: KNW- Wykład 5

PROGRAM WYKŁADU NR 5

Zbiory przybliżone– Powtórka z Wykładu nr 4– Dowód NP-trudności problemu redukcji

Funkcje przekonań– Odniesienia do zbiorów przybliżonych– Reguła syntezy informacji

Page 3: KNW- Wykład 5

Outlook Temp. Humid. Wind Sport?

1 Sunny Hot High Weak No

2 Sunny Hot High Strong No

3 Overcast Hot High Weak Yes

4 Rain Mild High Weak Yes

5 Rain Cold Normal Weak Yes

6 Rain Cold Normal Strong No

7 Overcast Cold Normal Strong Yes

8 Sunny Mild High Weak No

9 Sunny Cold Normal Weak Yes

10 Rain Mild Normal Weak Yes

11 Sunny Mild Normal Strong Yes

12 Overcast Mild High Strong Yes

13 Overcast Hot Normal Weak Yes

14 Rain Mild High Strong No

POJĘCIE REDUKTU

Nie jest reduktem {T,H,W}, ani żaden jego podzbiór

Nie jest reduktem {O,T,H}, ani żaden jego podzbiór

Nie jest reduktem {O,W}, ani żaden jego podzbiór

Reduktami są:{O,T,W},{O,H,W}

Page 4: KNW- Wykład 5

PROBLEM ZNAJDOWANIA MINIMALNEGO REDUKTU

Mając daną tablicę decyzyjną, znaleźć redukt decyzyjny o minimalnej liczbie elementów

Tak sformułowany problem znajdowania minimalnego reduktu jest NP-trudny

Page 5: KNW- Wykład 5

SPROWADZALNOŚĆ

Niech P1, P2 oznacza dwa problemy optymalizacyjne, i1, i2 – dane wejściowe, zaś o1, o2 – odpowiedzi

Powiemy, że P1 jest wielomianowo sprowadzalny do P2, jeśli umiemy tak wielomianowo przekonwertować dane i1, aby zastosowanie do nich algorytmu rozwiązującego P2 doprowadziło do rozwiązania P1

Page 6: KNW- Wykład 5

SPROWADZALNOŚĆ

Typ_o1 P1(i1)

{

Typ_i2 i2 = Encode(i1); //polynomial

Typ_o2 o2 = P2(i2);

Typ_o1 o1 = Decode(o2); //polynomial

return o1;

}

Page 7: KNW- Wykład 5

Outlook Humid. Sport?

1 Sunny High No

2 Sunny High No

3 Overcast High Yes

4 Rain High Yes

5 Rain Normal Yes

6 Rain Normal No

7 Overcast Normal Yes

8 Sunny High No

9 Sunny Normal Yes

10 Rain Normal Yes

11 Sunny Normal Yes

12 Overcast High Yes

13 Overcast Normal Yes

14 Rain High No

Sunny Overcast Rain

Norm

alH

igh

Sunny Overcast Rain

Norm

alH

igh

SPRZECZNOŚCI W DANYCH

Page 8: KNW- Wykład 5

Outlook Temp. Humid. Sport? Gen(Sport?)

1 Sunny Hot High No {No}

2 Sunny Hot High No {No}

3 Overcast Hot High Yes {Yes}

4 Rain Mild High Yes {No,Yes}

5 Rain Cold Normal Yes {No,Yes}

6 Rain Cold Normal No {No,Yes}

7 Overcast Cold Normal Yes {Yes}

8 Sunny Mild High No {No}

9 Sunny Cold Normal Yes {Yes}

10 Rain Mild Normal Yes {Yes}

11 Sunny Mild Normal Yes {Yes}

12 Overcast Mild High Yes {Yes}

13 Overcast Hot Normal Yes {Yes}

14 Rain Mild High No {No,Yes}

DECYZJA UOGÓLNIONANowy atrybut decyzyjny grupujący oryginalne wartości decyzji tak, by otrzymana tablica była niesprzeczna

Tablica sprzeczna to taka, która zawiera obiekty nierozróżnialne ze względu na wartości atrybutów, jednak mające różne decyzje

Redukt ma za zadanie rozróżniać pary obiektów o różnych wartościach decyzji uogólnionej

Page 9: KNW- Wykład 5

ZBIORY PRZYBLIŻONE

Niech dany będzie zbiór obiektów U. Chcemy w nim wyróżnić pewien podzbiór X, jednak jesteśmy w stanie podać jedynie:– (X)lower : zbiór obiektów na pewno należących do X

(dolna aproksymacja X)

– (X)upper : zbiór obiektów mogących należeć do X (górna aproksymacja X)

Zbiór określony za pomocą dolnej i górnej aproksymacji nazywamy przybliżonym

Page 10: KNW- Wykład 5

Outlook Humid. Sport?

1 Sunny High No

2 Sunny High No

3 Overcast High Yes

4 Rain High Yes

5 Rain Normal Yes

6 Rain Normal No

7 Overcast Normal Yes

8 Sunny High No

9 Sunny Normal Yes

10 Rain Normal Yes

11 Sunny Normal Yes

12 Overcast High Yes

13 Overcast Normal Yes

14 Rain High No

PRZYKŁAD – APROKSYMACJE

14,10,6,5,4

14,13,12,11,10,9,7,6,5,4,3

13,12,11,9,7,3

Bboundary

Bupper

Blower

X

X

X

Rozpatrzmy X = {3,4,5,7,9,10,11,12,13}

jako zbiór:„obiekty o decyzji Sport=Yes”

PrzyjmijmyB = {Outlook, Humid.}

Wtedy:

Page 11: KNW- Wykład 5

B

lowerBlower

Blower

Blower

Blower

Blower

YXYX

YXYX

Bupper

Blower XUXU \\

WŁASNOŚCI

Dla dowolnego podzbioru cech B oraz dowolnych podzbiorów obiektów X,Y:

Dla dowolnego podzbioru cech B oraz dowolnego podzbioru obiektów X:

Page 12: KNW- Wykład 5

TEORIA FUNKCJI PRZEKONAŃ

Zazwyczaj wagi prawdopodobieństwa przypisywane są pojedynczym wartościom

W zastosowaniach operacja ta jest jednak często niemożliwa, bądź zbyt ryzykowna

Rozwiązaniem jest definiowanie wag jako przynależnych podzbiorom wartości

Page 13: KNW- Wykład 5

Sunny Overcast Rain

Norm

alH

igh

Sunny Overcast Rain

Norm

alH

igh

P(Sunny,High)=3/14P(Sunny,Normal)=2/14P(Overcast,High)=2/14P(Overcast,Normal)=2/14P(Rain,High)=2/14P(Rain,Normal)=3/14

m({No})=3/14m({Yes})=(2+2+2)/14m({No,Yes})=(2+3)/14

PRZYKŁAD

Page 14: KNW- Wykład 5

1 VX Xm

XY YmXBel )(

XY YmXPl )(

PODSTAWOWE DEFINICJE Niech V oznacza zbiór wartości Funkcją masy nazwiemy dowolne

przyporządkowanie m:2V[0,1], takie że:

Funkcja przekonania:

Funkcja domniemania:

Page 15: KNW- Wykład 5

Outlook Temp. Humid. Sport? Gen(Sport?)

1 Sunny Hot High No {No}

2 Sunny Hot High No {No}

3 Overcast Hot High Yes {Yes}

4 Rain Mild High Yes {No,Yes}

5 Rain Cold Normal Yes {No,Yes}

6 Rain Cold Normal No {No,Yes}

7 Overcast Cold Normal Yes {Yes}

8 Sunny Mild High No {No}

9 Sunny Cold Normal Yes {Yes}

10 Rain Mild Normal Yes {Yes}

11 Sunny Mild Normal Yes {Yes}

12 Overcast Mild High Yes {Yes}

13 Overcast Hot Normal Yes {Yes}

14 Rain Mild High No {No,Yes}

INTEPRETACJA FUNKCJI WAG

Chcąc obliczyć wartość funkcji m(Y) dla dowolnego podzbioru wartości Y, zliczamy liczbę wierszy, dla których decyzja uogólniona jest równa Y

Page 16: KNW- Wykład 5

Sunny Overcast Rain

Norm

alH

igh

m({No})=3/14m({Yes})=(2+2+2)/14m({No,Yes})=(2+3)/14

FUNKCJE PRZEKONAŃ A APROKSYMACJE

Bel({Yes}) = m({Yes}) = 6/14Pl({Yes}) = m({Yes}) + m({No,Yes}) = 11/14

Bel({Yes}) = | Dolna Aproksymacja {Yes} | / | U |Pl({Yes}) = | Górna Aproksymacja {Yes} | / | U |

Page 17: KNW- Wykład 5

Bupper

Blower XXX

YPlYPYBel BB

PRAWA APROKSYMACJI

Dla dowolnego podzbioru cech B oraz dowolnego podzbioru obiektów X:

Dla dowolnego podzbioru cech B oraz dowolnego podzbioru wartości Y:

Page 18: KNW- Wykład 5

Outlook Humid. Sport?

1 Sunny High No

2 Sunny High No

3 Overcast High Yes

4 Rain High Yes

5 Rain Normal Yes

6 Rain Normal No

7 Overcast Normal Yes

8 Sunny High No

9 Sunny Normal Yes

10 Rain Normal Yes

11 Sunny Normal Yes

12 Overcast High Yes

13 Overcast Normal Yes

14 Rain High No

PRZYKŁAD

1411

14,13,12,11,10,9,7,6,5,4,3

146

13,12,11,9,7,3

YPl

X

YBel

X

B

Bupper

B

Blower

Rozpatrzmy X = {3,4,5,7,9,10,11,12,13}

odpowiadający zbiorowi wartości Y = {Yes}

PrzyjmijmyB = {Outlook, Humid.}

Wtedy: