Model Hopfielda

36
Inteligencja Obliczeniowa Sieci dynamiczne. Wykład 14 Włodzisław Duch Uniwersytet Mikołaja Kopernika Google: W. Duch

Transcript of Model Hopfielda

Page 1: Model Hopfielda

Inteligencja ObliczeniowaSieci dynamiczne.

Wykład 14

Włodzisław DuchUniwersytet Mikołaja Kopernika

Google: W. Duch

Page 2: Model Hopfielda

2

Co było

• Teoria aproksymacji

• Funkcje radialne

• Sieci RBF

Page 3: Model Hopfielda

3

Co będzie

• Sieci ze sprzężeniami zwrotnymi

• Model Hopfielda

• Modele pamięci asocjacyjnej

Page 4: Model Hopfielda

4

Sieci dynamiczneSieci dynamiczne

W układach biologicznych neurony mają silne sprzężenia zwrotne.Dotychczas tylko model BAM wykorzystywał sprzężenia zwrotne.

Najprostsze modele sieci z rekurencją: • sieci Hopfielda, • sieci uczone regułą Hebba, • sieć Hamminga.

Modele bardziej złożone: • RTRN - Real Time Recurrent Network, przetwarzająca sygnały w czasie rzeczywistym;• sieć Elmana i inne o uproszczonej strukturze rekurencji• RCC - Recurrent Cascade Correlation

Page 5: Model Hopfielda

5

Reguła HebbaReguła Hebba

“Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu, procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek pobudzających B, wzrasta.”

D. O. Hebb, 1949

Page 6: Model Hopfielda

6

Model HopfieldaModel HopfieldaJohn Hopfield (1982, 1984), model pamięci autoasocjacyjnej.

Założenia: • Wszystkie neurony są ze sobą połączone (fully connected

network) z wagami synaps Wij.• Macierz wag połączeń jest symetryczna, Wi,i=0, Wij = Wji.

Symetria jest wygodna z teoretycznego p. widzenia, pozwala wprowadzić f. energii; jest nierealistyczna z biologicznego p. widzenia. Dyskretny stan neuronu - potencjał Vi = ±1 = sgn (I(V))

W późniejszych modelach stany rzeczywiste.

Page 7: Model Hopfielda

7

Model Hopfielda - dynamikaModel Hopfielda - dynamikaWektor potencjałów wejściowych V(0)=Vini , czyli wejście = wyjście.

Dynamika (iteracje) sieć Hopfielda osiąga stany stacjonarne = odpowiedzi sieci (wektory aktywacji elementów) na zadane pytanie Vini (autoasocjacja).

t - czas dyskretny (numer iteracji).Stany stacjonarne = atraktory punktowe.

1 sgn 1 sgni i ij j jj

V t I t W V

1 gdzie sgn lub V t f W V t f

Page 8: Model Hopfielda

8

Minimalizacja energiiMinimalizacja energii

Dla sieci o symetrycznych wagach taka dynamika prowadzi do minimalizacji funkcji typu energii.W teorii układów dynamicznych - funkcji Lapunova, w fizyce statystycznej funkcji Hamiltona, w teorii optymalizacji funkcji celu lub kosztu, w obliczeniach ewolucyjnych funkcji przystosowania ...

1 1|2 2 ij i j

i j

E W V V W V V

W

i ij j i ij

E V W V V I Zmiana energii w czasie iteracji jest 0

Jeśli Ii 0 to Vi nie może zmaleć, więc energia zmaleje;Jeśli Ii < 0 to Vi < 0, energia również zmaleje.

Page 9: Model Hopfielda

9

AtraktoryAtraktory

Dynamika: ruch po hiperpowierzchni energii, zależnej od potencjałów neuronów, aż do osiągnięcia lokalnego minimum na takiej powierzchni. Jeśli Vi dyskretne to ruch po rogach hipersześcianu.

Page 10: Model Hopfielda

10

3 neurony3 neurony

Page 11: Model Hopfielda

11

Stopniowe studzenieStopniowe studzenie

Atraktory punktowe - tylko dla symetrycznych połączeń.Stany stabilne: minima lokalne E(W) odpowiadające pamiętanym wzorcom Vi - pamięć asocjacyjna. Prawdopodobieństwo aktywacji: sigmoidalne.

/

1| , 1 1 eij j i

j

W V T

i ip V t T I V

W

W wysokiej T przypadkowe błądzenie, stopniowe studzenie pozwala unikać płytkich minimów lokalnych.Duża aktywacja i niska temperatura prawie na pewno da Vi=1

Page 12: Model Hopfielda

12

S.A. - wykres ES.A. - wykres E

Page 13: Model Hopfielda

13

S.A. - wykres PS.A. - wykres P

Page 14: Model Hopfielda

14

UczenieUczenie

Warunek stabilności korzystając z reguły Hebba:

1

sgnN

i ij jj

V W V

1~ ; np. ij i j ij i jW V V W V VN

Wystarczy zażądać by:

Dla wielu wzorców korzystamy z reguły Hebba uśredniając:

1

1 p

ij i jW V VN

Page 15: Model Hopfielda

15

Uczenie cd.Uczenie cd.

Warunek stabilności prowadzi do wydzielenia przesłuchu:

1sgn sgn

1 sgn

i ij j i j jj j

i i j jj

h W V V V VN

V V V VN

1T T W V V W V V V V V V

Jeśli korelacja pomiędzy wzorcami jest słaba to zbieżność.Lepsze rezultaty: metoda pseudoinwersji:

Page 16: Model Hopfielda

16

Pojemność modelu HPojemność modelu H

Odwracania macierzy V można uniknąć iteracyjną metodą rzutowania:

TV V VN

W W W

2N możliwych stanów sieci binarnej złożonej z N neuronów.

Zbyt wiele wzorców chaos, zapominanie.

L. poprawnie pamiętanych wzorców: dla p. błędów 0.37% wynosi /N= 0.138

Około 7 neuronów/N-bitowy wzorzec lub 7 połączeń/bit. W praktyce gorzej, ale różnie dla różnych algorytmów!

Liczba dobrze pamiętanych wzorców = f()

Page 17: Model Hopfielda

17

Diagramy fazoweDiagramy fazowe

Dla = pwzorców/N i różnych temperatur

Page 18: Model Hopfielda

18

Sprytna modyfikacjaSprytna modyfikacja

Co zrobić jeśli wzorce b. duże, np. dla obrazów N106 ?Faktoryzacja macierzy wag W na m<N wektorów własnych S

( ) ( )

1

m T Tm mS S

W S S

Zamiast mnożenia wag przez wektory O(N2) wystarczy 2Nxm.

Szybka zbieżność dla dużych rozmiarów.

Jeśli f=I to warunek stabilności oznacza, że V to wektory własne.

( ) ( ) ( 1) ( 1) ( )

( ) ( )

, /

1

m m T m m m

m m T

U S U U

V t f V t

S S 1 S S

S S

S - macierze N x m

Ortogonalizacjanowego wektora

Page 19: Model Hopfielda

19

Realizacja sprzętowaRealizacja sprzętowa

Page 20: Model Hopfielda

20

Równania - sprzętowoRównania - sprzętowo

Prosta realizacja sprzętowa, elektroniczna lub optyczna.W stanie stacjonarnym wejście=wyjście.Równania na sygnały wejściowe:

1 1

1

Ni

ij j i i ij

dU tC R V t R U t I

dt

Ui - napięcie wejściowe i-tego wzmacniaczaVi - napięcie wyjściowe i-tego wzmacniaczaC - pojemność wejściowaIi - zewnętrzny prąd i-tego wzmacniacza

1 1

1

;N

i i i ijj

V t f U t R R

Page 21: Model Hopfielda

21

CAM, pamięć adresowalna kontekstowoCAM, pamięć adresowalna kontekstowo

Sieć Hopfielda może służyć jako pamięć adresowalna kontekstowo.Fragment epizodu pozwala odtworzyć całość.

21{ }2

Ti i

i

E V P V P Dla ortogonalnych prototypów i idealnej zgodności:

Zbiór wzorców {Pi}, i=1..mFunkcja kosztu: korelacja wzorców z osiąganymi minimami:

Energia używając reg. Hebba 2

1

1 1{ }2 2

mTi i

i

E P P P mN

2

1 1

1 1 12 2 2

m mTT T T

i i ii i

E W PP P

V WV V V V

Page 22: Model Hopfielda

22

OptymalizacjaOptymalizacja

Zagadnienia NP-trudne: jak zastosować sieć Hopfielda?Przykład: najkrótsza droga pomiędzy N miastami.

,12 i k i ki k

E n W n n

Funkcja kosztów: min. droga + 1 w wierszu + 1 w kolumnie

Macierz ni i=1,2..N, nr. miasta - kolejność

1

3

6

4

5

2

1 2 3 4 5 6

1 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 00 0 0 1 0 00 0 0 0 1 00 0 1 0 0 0

123456

Kolejność

Miasto

Jak dobrać W?

Page 23: Model Hopfielda

23

Dobór wagDobór wag

Zagadnienia NP-trudne: jak zastosować sieć Hopfielda?Przykład: najkrótsza droga pomiędzy N miastami.

1 1

2

,

12

2

2

2

ik i k ki k

i ii

i ki k

ii

E n d n n n

A n n

B n n

C n N

+ 1 w wierszu

Odległość

N miast

+ 1 w kolumnie

, 1, 1,1 1 1i k ik ik ik ikW d A B C

Page 24: Model Hopfielda

24

Spełnianie ograniczeńSpełnianie ograniczeń

Rozwiązania mogą nie spełniać ograniczeń, obliczanie odbywa się wewnątrz hiperkostki, ma końcu osiągany jest stan poprawny.Metody optymalizacji - operacje dyskretne, zawsze poprawne.

Zagadnienia wymagające spełniania ograniczeń i optymalizacji:

Problem N królowych: umieścić je na szachownicy NxN tak, by się nie szachowały.Problem ustawienia skoczków, problem plecakowy ... Problem rutowania pakietów w sieciach pakietowych.

Dobór funkcji kosztu, metody minimalizacji - intensywnie badane. Metody wyspecjalizowane radzą sobie lepiej ale wyrafinowane wersje metod pola średniego dają doskonałe rezultaty. Porównanie metod SA bez i z modelem Hopfielda?

Page 25: Model Hopfielda

25

Model Hopfielda i percepcjaModel Hopfielda i percepcja

Interpretacja sygnałów dochodzących do mózgu nie jest jednoznaczna.Interpretacja musi spełniać ograniczenia:

KOTTylko jedna litera na danej pozycji.

Obecność danej litery aktywizuje rozpoznanie słowa.

Cecha na danej pozycji aktywizuje rozpoznanie litery.

Page 26: Model Hopfielda

26

3 słowa3 słowa

K.. Ą.. .A. ..T ..P

KAT KĄT KAP

Page 27: Model Hopfielda

27

Faza snuFaza snu

Sen może być okresem, w którym mózg prowadzi optymalizację zużycia swoich zasobów, utrwalając pewne zdarzenia/fakty i usuwając z pamięci pozostałe.

W modelu CAM Hopfielda szybkość ostatnio poznane są szybciej przypominane.

Wzorce odpowiadające fałszywym minimom można wyeliminować pokazując antywzorce, związane z fałszywymi, płytkimi minimami.

Przypadkowe błądzenie wśród zniekształconych wzorców - sen?

Niektóre neurochipy do prawidłowej pracy muszą działać przez pewien czas bez żadnych sygnałów wejściowych - okres kalibracji.

Page 28: Model Hopfielda

28

Zaburzenia pamięciZaburzenia pamięci

Są eksperymentalne dowody na to, że za pamięć biologiczną odpowiedzialne są sieci atraktorowe.Degeneracja pamięci, np. w chorobie Alzheimera, może być związana z utratą słabych synaps. Jak wpłynie taka utrata na pojemność pamięci?Kompensacja - pozostałe synapsy mogą się zaadoptować do nowej sytuacji. Jaka kompensacja jest najlepsza?

11

n oij ij

dkW Wd

d - stopień uszkodzeniak=k(d) funkcja kompensacji

Silne synapsy ulegają dalszemu wzmocnieniu.Samo d nie świadczy jeszcze o stopniu uszkodzenia pamięci.

Page 29: Model Hopfielda

29

KompensacjaKompensacja

Page 30: Model Hopfielda

30

Model amnezjiModel amnezji

Pamięć trwała jest rezultatem stanów atraktorowych minikolumn kory mózgu, zapisana jest więc w synapasch.

Układ neuromodulacji reguluje plastyczność hipokampa i kory.

Pamięć średnioterminowa zapisana jest w sieciach hipokampa.

Page 31: Model Hopfielda

31

Powstawanie trwałej pamięciPowstawanie trwałej pamięci

Page 32: Model Hopfielda

32

Amnezja wstecznaAmnezja wsteczna

Główna przyczyna: utrata łączy do kory.

Objawy: gradienty Ribota czyli im starsze wspomnienia tym lepiej pamiętane.

Page 33: Model Hopfielda

33

Amnezja następczaAmnezja następcza

Główna przyczyna: uszkodzenie systemu neuromodulacji. Wtórnie: utrata łączy z korą.

Objawy:Brak możliwości zapamiętania nowych faktów.

Page 34: Model Hopfielda

34

Amnezja semantycznaGłówna przyczyna: uszkodzenie łączy wewnątrzkorowych. Objawy: Trudności w znajdowaniu słów, rozumieniu, zapamiętanie nowych faktów wymaga ciągłego powtarzania.

Page 35: Model Hopfielda

35

Co dalej?

• Maszyna Boltzmana i sieci stochastyczne• Samoorganizacja• Klasteryzacja• Wizualizacja

• Czyli modele Kohonena.

Page 36: Model Hopfielda

Koniec wykładu 12

Dobranoc !