SIECI LVQ Learning Vector Quantization SIECI CP ...home.agh.edu.pl/~asior/stud/doc/HOPF_14.pdf ·...

Post on 28-Feb-2019

235 views 0 download

Transcript of SIECI LVQ Learning Vector Quantization SIECI CP ...home.agh.edu.pl/~asior/stud/doc/HOPF_14.pdf ·...

SIECI REKURENCYJNE

Joanna Grabska- Chrząstowska

SIECI HOPFIELDA

Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły

PROF. RYSZARDA TADEUSIEWICZA

SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM

y

x

sygnał wyjściowy

sygnał wejściowy

sygnał sprzężenia zwrotnego

y

10

sygnał wyjściowy

sygnał wejściowy

sygnał sprężenia zwrotnego

-1.2

y

sygnał wyjściowy

sygnał sprężenia zwrotnego

-1.2

Równowaga w sieci może być osiągnięta (bez

działającego sygnału wejściowego) jedynie w taki

sposób, że sygnał wyjściowy po przemnożeniu przez

wagę sprzężenia zwrotnego daje taki sam sygnał. Taki

sygnał nazywamy ATRAKTOREM. Położenie

atraktora jest związane z parametrami sieci. Dla

współczynnika wagowego sprzężenia zwrotnego o

wadze 1 każdy punkt jest atraktorem, natomiast dla

dowolnej sieci stan równowagi uzyskujemy tylko

wtedy, gdy sygnał wyjściowy ma wartość 0.

12.345

12.345

1

12.345

1

12.345

12.345

1

0

0

2

12.345

12.345

1

0

2

0

-1.4

10

0

-1.4

sygnał wyjściowy

-0,5

10

sygnał wyjściowy

-1

10

sygnał wyjściowy

-1

10

sygnał wyjściowy

-1

10

sygnał wyjściowy

-1

sygnał wyjściowy

-1

10

sygnał wyjściowy

0.1

sygnał wyjściowy

0.1

10

sygnał wyjściowy

0,1

90

WNIOSKI

Reguła Hebba

“Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu,

procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek

pobudzających B, wzrasta.”

D. O. Hebb,

1949

SIEĆ HOPFIELDA BUDOWA

y1 y2 yn-2 yn-1 yn

x1 x2 xn-2 xn-1 xn

TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA

TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA

SIEĆ HOPFIELDA

● Połączenia „każdy z każdym”

● Brak sprzężeń zwrotnych do samego siebie

● Symetryczna macierz wag

BUDOWA SIECI HOPFIELDA

BUDOWA SIECI

HOPFIELDA

)

POJĘCIE FUNKCJI ENERGETYCZNEJ

POJĘCIE FUNKCJI ENERGETYCZNEJ

Ze wzoru (1) wynika, że zmiana yi, o ile zachodzi, ma zawsze znak identyczny ze znakiem łącznego pobudzenia ei, więc iloczyn –ei Dyi jest zawsze nieujemny. Zmiana energii podczas aktualizacji wyjść jest zatem zawsze niedodatnia.

(1)

(2)

gdzie:

i, j = 1,...,N

s = 1, ..., M

N – liczba bitów w obrazie wzorcowym

M – liczba wektorów wzorcowych

tijs – waga połączenia wyjścia j-tego neuronu z wejściem i-tego

neuronu przy prezentacji s-tego obrazu wzorcowego.

jidla

M

s

sj

xsi

xN

jidla

sijt

1

1

0

Metoda Hebba

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ

PREZENTACJĘ WZORCÓW

gdzie:

T – macierz połączeń wagowych o wymiarze NxN

I – macierz jednostkowa odpowiedniego wymiaru

X składa się z M wektorów bazowych zapisanych kolumnowo

X = [ X1, ..., XM]

Metoda Hebba

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ

PREZENTACJĘ WZORCÓW

T = 1 /N (X XT – M I)

Metoda Hebba dla wzorców unipolarnych

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ

PREZENTACJĘ WZORCÓW

jidla

M

s

sj

xsi

xN

jidla

sijt

)1

1

2()12(1

0

Na przykład: dla zbioru wzorców: X = { [1, 0,1, 1], [0, 0, 1, 1], [0, 1, 1, 0] macierz T = ¼ 0 -1 -1 1 -1 0 -1 -1 -1 -1 0 1 1 -1 1 0

gdzie:

i, j = 1,...,N

s = 1, ..., M

N – liczba bitów w obrazie wzorcowym

M – liczba wektorów wzorcowych

T – macierz połączeń wagowych o wymiarze NxN

tijs – waga połączenia wyjścia j-tego neuronu z wejściem i-tego

neuronu przy prezentacji s-tego obrazu wzorcowego.

jidlasjx

six

N

sijt

jidla

sdla

sijt

11

0

00

Metoda Hebba w wersji iteracyjnej

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ

PREZENTACJĘ WZORCÓW

Metoda wzajemnych ograniczeń

METODY WYKORZYSTUJĄCE JEDNOKROTNĄ

PREZENTACJĘ WZORCÓW

W tej metodzie do podstawowej reguły Hebba dodaje się składnik „odpychający”:

jidla

jidlaxxxxt

M

s

M

sp

s

j

p

i

s

j

s

i

ij

0

1

gdzie > 0 jest ustalonym parametrem.

Reguła rzutowania D

METODY WYKORZYSTUJĄCE WIELOKROTNĄ

PREZENTACJĘ WZORCÓW

h jest stałą uczenia z zakresu [0.7, 0.9],

k – indeks prezentowanego wzorca.

TkX

kXt

kT

kX

Nt

kTt

kT

11

h

max,...,2,1 ttt

ma w iteracji t następującą postać:

z warunkiem początkowym T0(1)=0

Zmodyfikowana reguła perceptronu

METODY WYKORZYSTUJĄCE WIELOKROTNĄ

PREZENTACJĘ WZORCÓW

Wartości wag tij macierzy T po prezentacji wzorca Xk są następujące:

Metoda ta powstała na bazie metody uczenia perceptronu poszerzonej

o warunek symetrii wag opartej na wyliczaniu średniej z

odpowiadających sobie wag. Tak zdefiniowana reguła perceptronu ma

wiele wspólnych cech z zasadą Hebba ale różni się tym, że w procesie

uczenia dodano do niej składnik bieżącej korekcji błędów.

kix

kjy

kjx

kjx

kiy

kixtijt

tjittijt

2

11

h

SIEĆ HOPFIELDA JAKO PAMIĘĆ SKOJARZENIOWA

Tego typu sieci mogą

działać jako pamięć

autoasocjacyjna, czyli

rozpoznają wzorce,

którymi były uczone.

Wykorzystanie takiej pamięci

polega na tym, że potrafi ona

odtworzyć obraz na podstawie

obrazu silnie zniekształconego

lub zakłóconego.

CY

FR

Y

OBRAZY WZORCÓW

30 % ZAKŁÓCEŃ

ZŁE ODTWORZENIE

OBRAZY WZORCÓW

0 % ZAKŁÓCEŃ

ZŁE ODTWORZENIE

20 % ZAKŁÓCEŃ

PRAWIDŁOWE ODTWORZENIE

PROCES ODTWARZANIA „8"

REGUŁA HEBBA

REGUŁA RZUTOWANIA D

RE

GU

ŁA

HE

BB

A

OBRAZY WZORCÓW

30% ZAKŁÓCEŃ

ZŁE ODTWORZENIE

PROCES ODTWARZANIA "O"

OBRAZY WZORCÓW

20% ZAKŁÓCEŃ

PRAWIDŁOWE ODTWORZENIE

PROCES ODTWARZANIA "1"

OBRAZY WZORCÓW

30% ZAKŁÓCEŃ

ODTWORZENIE Z BŁĘDAMI

PROCES ODTWARZANIA "K"

RE

GU

ŁA

HE

BB

A

OBRAZY WZORCÓW

40 % ZAKŁÓCEŃ

ZŁE ODTWORZENIE

PROCES ODTWARZANIA „1"

OBRAZY WZORCÓW

50 % ZAKŁÓCEŃ

ZŁE ODTWORZENIE

PROCES ODTWARZANIA „+"

OBRAZY WZORCÓW

100 % ZAKŁÓCEŃ

PRAWIDŁOWE ODTWORZENIE

PROCES ODTWARZANIA „O"

ZAKŁÓCONE

W 20%

PRAWIDŁOWO

ODTWORZONE

ZAKŁÓCONE W

40%

PRAWIDŁOWO

ODTWORZONE

REGUŁA HEBBA

ZAKŁÓCONE

W 10%

PRAWIDŁOWO

ODTWORZONE

ZAKŁÓCONE W

20%

PRAWIDŁOWO

ODTWORZONE

REGUŁA RZUTOWANIA D

LITERY a - z LITERY A - Z CYFRY 1 - 9

Przy dopuszczeniu pewnej małej liczby błędów

PORÓWNANIE CZTERECH METOD

CYFRY ( 0 - 9 )

0

20

40

60

80

100

0 10 20 30 40 50

Liczba zmienionych pikseli [%]

Sk

ute

czn

ość

ro

zp.

[%]

Reguła Hebba

Reguła Wzaj. Ogran.

Reguła Rzut. Delta

Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD

LITERY A - Z

0

20

40

60

80

100

0 10 20 30 40 50

Liczba zmienionych pikseli [%]

Sku

teczn

ość r

ozp

. [%

]

Reguła Hebba

Reguła Wzaj. Ogran.

Reguła Rzut. Delta

Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD

RĘCZNIE PO GRUBIO NE ZNAKI

0

20

40

60

80

100

0 10 20 30 40 50

Liczba zmienionych pikseli [%]

Sku

teczn

ość r

ozp

. [%

]

Reguła Hebba

Reguła Wzaj. Ogran.

Reguła Rzut. Delta

Zmodyf. Reguła Percep.

PORÓWNANIE CZTERECH METOD

ZESTAWIENIE UŚREDNIO NYCH

WYNIKÓ W RO ZPO ZNAWANIA

0

20

40

60

80

100

0 10 20 30 40 50

Liczba zmienionych pikseli [%]

Sk

ute

czn

ość

rozp

. [%

]

Reguła Hebba

Reguła Wzaj. Ogran.

Reguła Rzut. Delta

Zmodyf. Reguła Percep.

ZASTOSOWANIE SIECI HOPFIELDA DO ODTWARZANIA

ZNIEKSZTAŁCONYCH WZORCÓW

Zbiór testowy ( wprowadzenie

25% szumu )

Zbiór uczący

Zbiór wynikowy

2 BŁĘDY

POŁĄCZENIE DWÓCH SIECI

WE SIEĆ

A

SIEĆ

B WY

POŁĄCZENIE DWÓCH SIECI

WE SIEĆ

A

SIEĆ

B WY

WE WY WE WY

ZASTOSOWANIE POŁĄCZENIA SIECI DO POPRAWY WYNIKÓW

ODTWARZANIA

SIEĆ B

2 BŁĘDY

SIEĆ A

2 BŁĘDY

SIEĆ A

1 BŁĄD

PRZYKŁAD EFEKTOWNEGO SUKCESU

SIEĆ A

SIEĆ B

SIEĆ A

WYNIK

62 10 74

80 15 52

95

96

LICZBA

WZORCÓW SZUM

[%]

ŚREDNIA LICZBA

ROZPOZNAŃ

PRZEZ SIEĆ A

[%]

OSTATECZNA

LICZBA

ROZPOZNAŃ

[%]

Optymalizacja

Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami.

,

1

2i k i k

i k

E n W n n

Funkcja kosztów: min. droga + 1 w wierszu + 1 w kolumnie

Macierz ni

i=1,2..N, nr. miasta

- kolejność 1

3

6

4

5

2

1 2 3 4 5 6

1 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 00 0 0 1 0 00 0 0 0 1 00 0 1 0 0 0

123456

Kolejność

Miasto

Jak dobrać W?

• Każde dwa miasta są połączone drogą o

określonej długości (graf pełny,

symetryczny, odległości euklidesowe).

• Problem TSP zapisać jako problem

optymalizacyjny z ograniczeniami

OPIS PROBLEMU TSP (TRAVELLING SALESMAN PROBLEM)

OPIS PROBLEMU TSP

● Ograniczenia:

- trasa zaczyna się i kończy w tym samym

mieście;

- trasa przechodzi dokładnie raz przez

każde z pozostałych miast

● Szukana jest najkrótsza droga

Rozwiązanie poprawne, ale nie optymalne

Optymalne rozwiązanie

TSP W SIECI HOPFIELDA

Rodzaje metod:

METODA KLASYCZNA

ZMODYFIKOWANA METODA KLASYCZNA

METODA METODA ANSARI I HOU

TSP W SIECI HOPFIELDA

x xy i

iyiyxixy

x i

xi

i x xy

yixi

x i ij

xjxi

vvvdD

nvC

vvB

vvA

E

)(22

22

1,1,

2

Postać energii w modelu klasycznym:

i

i

i u

vd

E

td

ud

Potencjał wejściowy neuronu i:

Dobór wag

Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami.

1 1

2

,

1

2

2

2

2

ik i k k

i k

i i

i

i k

i k

i

i

E n d n n n

An n

Bn n

Cn N

+ 1 w wierszu

Odległość

N miast

+ 1 w kolumnie

, 1, 1,1 1 1i k ik ik ik ikW d A B C

WYNIKI DOŚWIADCZEŃ

METODA KLASYCZNA

Konfiguracja

parametrów

Liczba rozwiązań poprawnych

syntaktycznie [%]

Liczba rozwiązań

optymalnych

Błąd w stosunku do rozwiązania

optymalnego [%]

Z1

Z2

Z3

Z1

Z2

Z3

Z1

Z2

Z3

D = 300

92

88

90

0

0

0

17,2

12,9

11,1

D = 350

79

69

74

0

0

0

15,1

13,4

12,8

D = 400

66

62

69

0

0

0

4,8

2,9

2,1

D = 450

42

45

56

0

0

0

7,1

7,2

7,1

D = 500

30

34

27

0

0

0

10,2

15,4

6,1

WYNIKI DOŚWIADCZEŃ ZMODYFIKOWANA METODA KLASYCZNA

Konfiguracja

parametrów

Liczba rozwiązań poprawnych

syntaktycznie [%]

Liczba rozwiązań

optymalnych

Błąd w stosunku do rozwiązania

optymalnego [%]

Z1

Z2

Z3

Z1

Z2

Z3

Z1

Z2

Z3

D = 250

96

98

95

0

0

0

27,2

22,9

21,1

D = 300

86

92

94

0

0

0

24,8

21,9

18,1

D = 350

74

68

72

0

0

0

11,5

12,4

14,2

D = 400

65

59

62

0

0

0

21,4

8,9

12,9

D = 500

25

28

22

0

0

0

25,6

23,6

24,9

WYNIKI DOŚWIADCZEŃ METODA ANSARI i HOU

Konfiguracja

parametrów

Liczba rozwiązań poprawnych

syntaktycznie [%]

Liczba rozwiązań

optymalnych

Błąd w stosunku do rozwiązania

optymalnego [%]

Z1

Z2

Z3

Z1

Z2

Z3

Z1

Z2

Z3

D = 400

82

80

81

0

0

0

5,1

2,5

2,5

D = 450

64

62

59

0

0

0

1,2

1,0

3,1

D = 500

62

56

45

0

4

3

1,0

0

0

D = 550

36

36

38

0

4

0

6,1

0

9,1

D = 600

16

27

21

3

0

0

0

7,0

9,2

PARAMETRY ALGORYTMU GENETYCZNEGO

• rozmiar populacji: 20

• liczba chromosomów elitarnych: 1

• prawdopodobieństwo inwersji: 0,1

• prawdopodobieństwo mutacji: 0,1

• maksymalna liczba generacji: 10000

• rozmiar chromosomu: 10

WYNIKI DLA ALGORYTMU GENETYCZNEGO

Czas wykonania algorytmu dla 100 symulacji wynosi

przeciętnie 5,6 s (komputer klasy Intel Pentium 4, 2,4 GHz),

czyli nieco szybciej niż działanie symulowanej sieci Hopfielda.

DLA KAŻDEGO ZE ZBIORÓW MIAST

KAŻDA PRÓBA ZAKOŃCZYŁA SIĘ

ZNALEZIENIEM OPTYMALNEJ

DROGI.

WNIOSKI

• Rozwiązywanie problemu TSP przy wykorzystaniu

sieci Hopfielda jest mało efektywne. Nie istnieją

reguły dopasowania parametrów sieci a ich dobór

jest czasochłonny.

• Dużo lepsze rezultaty daje wykorzystanie algorytmów

genetycznych. Przy 100% skuteczności AG (dla 10

miast) wyniki najefektywniejszej sieci Hopfielda nie

są zadowalające (ok. 2% optymalnych rozwiązań).

LITERATURA

Tadeusiewicz Ryszard, Sieci neuronowe. W-wa 1993

Żurada J., BarskiM., Jędruch W., Sztuczne sieci neuronowe. W-wa 1996

Grabska-Chrząstowska J.: Optymalizacjia w sieciach Hopfielda przy konstrukcji sieci skojarzeniowych. Materiały konferencyjne IV Krajowej

Konferencji MSK'03 - Metody i systemy komputerowe, str. 261 - 266, Kraków 2003.

Klimek M., Grabska-Chrząstowska J., Porównanie działania sieci Hopfielda i algorytmów genetycznych dla problemu komiwojażera. Automatyka, Półrocznik, tom8, zeszyt3, str. 459-467, Zeszyty Naukowe AGH, ISNN 1429-3447, Kraków 2004.