Projekt: „Europejskie standardy zarządzania szkołami – model hiszpański a model polski”
Model Hopfielda
Transcript of Model Hopfielda
Inteligencja ObliczeniowaSieci dynamiczne.
Wykład 14
Włodzisław DuchUniwersytet Mikołaja Kopernika
Google: W. Duch
2
Co było
• Teoria aproksymacji
• Funkcje radialne
• Sieci RBF
3
Co będzie
• Sieci ze sprzężeniami zwrotnymi
• Model Hopfielda
• Modele pamięci asocjacyjnej
4
Sieci dynamiczneSieci dynamiczne
W układach biologicznych neurony mają silne sprzężenia zwrotne.Dotychczas tylko model BAM wykorzystywał sprzężenia zwrotne.
Najprostsze modele sieci z rekurencją: • sieci Hopfielda, • sieci uczone regułą Hebba, • sieć Hamminga.
Modele bardziej złożone: • RTRN - Real Time Recurrent Network, przetwarzająca sygnały w czasie rzeczywistym;• sieć Elmana i inne o uproszczonej strukturze rekurencji• RCC - Recurrent Cascade Correlation
5
Reguła HebbaReguła Hebba
“Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu, procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek pobudzających B, wzrasta.”
D. O. Hebb, 1949
6
Model HopfieldaModel HopfieldaJohn Hopfield (1982, 1984), model pamięci autoasocjacyjnej.
Założenia: • Wszystkie neurony są ze sobą połączone (fully connected
network) z wagami synaps Wij.• Macierz wag połączeń jest symetryczna, Wi,i=0, Wij = Wji.
Symetria jest wygodna z teoretycznego p. widzenia, pozwala wprowadzić f. energii; jest nierealistyczna z biologicznego p. widzenia. Dyskretny stan neuronu - potencjał Vi = ±1 = sgn (I(V))
W późniejszych modelach stany rzeczywiste.
7
Model Hopfielda - dynamikaModel Hopfielda - dynamikaWektor potencjałów wejściowych V(0)=Vini , czyli wejście = wyjście.
Dynamika (iteracje) sieć Hopfielda osiąga stany stacjonarne = odpowiedzi sieci (wektory aktywacji elementów) na zadane pytanie Vini (autoasocjacja).
t - czas dyskretny (numer iteracji).Stany stacjonarne = atraktory punktowe.
1 sgn 1 sgni i ij j jj
V t I t W V
1 gdzie sgn lub V t f W V t f
8
Minimalizacja energiiMinimalizacja energii
Dla sieci o symetrycznych wagach taka dynamika prowadzi do minimalizacji funkcji typu energii.W teorii układów dynamicznych - funkcji Lapunova, w fizyce statystycznej funkcji Hamiltona, w teorii optymalizacji funkcji celu lub kosztu, w obliczeniach ewolucyjnych funkcji przystosowania ...
1 1|2 2 ij i j
i j
E W V V W V V
W
i ij j i ij
E V W V V I Zmiana energii w czasie iteracji jest 0
Jeśli Ii 0 to Vi nie może zmaleć, więc energia zmaleje;Jeśli Ii < 0 to Vi < 0, energia również zmaleje.
9
AtraktoryAtraktory
Dynamika: ruch po hiperpowierzchni energii, zależnej od potencjałów neuronów, aż do osiągnięcia lokalnego minimum na takiej powierzchni. Jeśli Vi dyskretne to ruch po rogach hipersześcianu.
10
3 neurony3 neurony
11
Stopniowe studzenieStopniowe studzenie
Atraktory punktowe - tylko dla symetrycznych połączeń.Stany stabilne: minima lokalne E(W) odpowiadające pamiętanym wzorcom Vi - pamięć asocjacyjna. Prawdopodobieństwo aktywacji: sigmoidalne.
/
1| , 1 1 eij j i
j
W V T
i ip V t T I V
W
W wysokiej T przypadkowe błądzenie, stopniowe studzenie pozwala unikać płytkich minimów lokalnych.Duża aktywacja i niska temperatura prawie na pewno da Vi=1
12
S.A. - wykres ES.A. - wykres E
13
S.A. - wykres PS.A. - wykres P
14
UczenieUczenie
Warunek stabilności korzystając z reguły Hebba:
1
sgnN
i ij jj
V W V
1~ ; np. ij i j ij i jW V V W V VN
Wystarczy zażądać by:
Dla wielu wzorców korzystamy z reguły Hebba uśredniając:
1
1 p
ij i jW V VN
15
Uczenie cd.Uczenie cd.
Warunek stabilności prowadzi do wydzielenia przesłuchu:
1sgn sgn
1 sgn
i ij j i j jj j
i i j jj
h W V V V VN
V V V VN
1T T W V V W V V V V V V
Jeśli korelacja pomiędzy wzorcami jest słaba to zbieżność.Lepsze rezultaty: metoda pseudoinwersji:
16
Pojemność modelu HPojemność modelu H
Odwracania macierzy V można uniknąć iteracyjną metodą rzutowania:
TV V VN
W W W
2N możliwych stanów sieci binarnej złożonej z N neuronów.
Zbyt wiele wzorców chaos, zapominanie.
L. poprawnie pamiętanych wzorców: dla p. błędów 0.37% wynosi /N= 0.138
Około 7 neuronów/N-bitowy wzorzec lub 7 połączeń/bit. W praktyce gorzej, ale różnie dla różnych algorytmów!
Liczba dobrze pamiętanych wzorców = f()
17
Diagramy fazoweDiagramy fazowe
Dla = pwzorców/N i różnych temperatur
18
Sprytna modyfikacjaSprytna modyfikacja
Co zrobić jeśli wzorce b. duże, np. dla obrazów N106 ?Faktoryzacja macierzy wag W na m<N wektorów własnych S
( ) ( )
1
m T Tm mS S
W S S
Zamiast mnożenia wag przez wektory O(N2) wystarczy 2Nxm.
Szybka zbieżność dla dużych rozmiarów.
Jeśli f=I to warunek stabilności oznacza, że V to wektory własne.
( ) ( ) ( 1) ( 1) ( )
( ) ( )
, /
1
m m T m m m
m m T
U S U U
V t f V t
S S 1 S S
S S
S - macierze N x m
Ortogonalizacjanowego wektora
19
Realizacja sprzętowaRealizacja sprzętowa
20
Równania - sprzętowoRównania - sprzętowo
Prosta realizacja sprzętowa, elektroniczna lub optyczna.W stanie stacjonarnym wejście=wyjście.Równania na sygnały wejściowe:
1 1
1
Ni
ij j i i ij
dU tC R V t R U t I
dt
Ui - napięcie wejściowe i-tego wzmacniaczaVi - napięcie wyjściowe i-tego wzmacniaczaC - pojemność wejściowaIi - zewnętrzny prąd i-tego wzmacniacza
1 1
1
;N
i i i ijj
V t f U t R R
21
CAM, pamięć adresowalna kontekstowoCAM, pamięć adresowalna kontekstowo
Sieć Hopfielda może służyć jako pamięć adresowalna kontekstowo.Fragment epizodu pozwala odtworzyć całość.
21{ }2
Ti i
i
E V P V P Dla ortogonalnych prototypów i idealnej zgodności:
Zbiór wzorców {Pi}, i=1..mFunkcja kosztu: korelacja wzorców z osiąganymi minimami:
Energia używając reg. Hebba 2
1
1 1{ }2 2
mTi i
i
E P P P mN
2
1 1
1 1 12 2 2
m mTT T T
i i ii i
E W PP P
V WV V V V
22
OptymalizacjaOptymalizacja
Zagadnienia NP-trudne: jak zastosować sieć Hopfielda?Przykład: najkrótsza droga pomiędzy N miastami.
,12 i k i ki k
E n W n n
Funkcja kosztów: min. droga + 1 w wierszu + 1 w kolumnie
Macierz ni i=1,2..N, nr. miasta - kolejność
1
3
6
4
5
2
1 2 3 4 5 6
1 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 00 0 0 1 0 00 0 0 0 1 00 0 1 0 0 0
123456
Kolejność
Miasto
Jak dobrać W?
23
Dobór wagDobór wag
Zagadnienia NP-trudne: jak zastosować sieć Hopfielda?Przykład: najkrótsza droga pomiędzy N miastami.
1 1
2
,
12
2
2
2
ik i k ki k
i ii
i ki k
ii
E n d n n n
A n n
B n n
C n N
+ 1 w wierszu
Odległość
N miast
+ 1 w kolumnie
, 1, 1,1 1 1i k ik ik ik ikW d A B C
24
Spełnianie ograniczeńSpełnianie ograniczeń
Rozwiązania mogą nie spełniać ograniczeń, obliczanie odbywa się wewnątrz hiperkostki, ma końcu osiągany jest stan poprawny.Metody optymalizacji - operacje dyskretne, zawsze poprawne.
Zagadnienia wymagające spełniania ograniczeń i optymalizacji:
Problem N królowych: umieścić je na szachownicy NxN tak, by się nie szachowały.Problem ustawienia skoczków, problem plecakowy ... Problem rutowania pakietów w sieciach pakietowych.
Dobór funkcji kosztu, metody minimalizacji - intensywnie badane. Metody wyspecjalizowane radzą sobie lepiej ale wyrafinowane wersje metod pola średniego dają doskonałe rezultaty. Porównanie metod SA bez i z modelem Hopfielda?
25
Model Hopfielda i percepcjaModel Hopfielda i percepcja
Interpretacja sygnałów dochodzących do mózgu nie jest jednoznaczna.Interpretacja musi spełniać ograniczenia:
KOTTylko jedna litera na danej pozycji.
Obecność danej litery aktywizuje rozpoznanie słowa.
Cecha na danej pozycji aktywizuje rozpoznanie litery.
26
3 słowa3 słowa
K.. Ą.. .A. ..T ..P
KAT KĄT KAP
27
Faza snuFaza snu
Sen może być okresem, w którym mózg prowadzi optymalizację zużycia swoich zasobów, utrwalając pewne zdarzenia/fakty i usuwając z pamięci pozostałe.
W modelu CAM Hopfielda szybkość ostatnio poznane są szybciej przypominane.
Wzorce odpowiadające fałszywym minimom można wyeliminować pokazując antywzorce, związane z fałszywymi, płytkimi minimami.
Przypadkowe błądzenie wśród zniekształconych wzorców - sen?
Niektóre neurochipy do prawidłowej pracy muszą działać przez pewien czas bez żadnych sygnałów wejściowych - okres kalibracji.
28
Zaburzenia pamięciZaburzenia pamięci
Są eksperymentalne dowody na to, że za pamięć biologiczną odpowiedzialne są sieci atraktorowe.Degeneracja pamięci, np. w chorobie Alzheimera, może być związana z utratą słabych synaps. Jak wpłynie taka utrata na pojemność pamięci?Kompensacja - pozostałe synapsy mogą się zaadoptować do nowej sytuacji. Jaka kompensacja jest najlepsza?
11
n oij ij
dkW Wd
d - stopień uszkodzeniak=k(d) funkcja kompensacji
Silne synapsy ulegają dalszemu wzmocnieniu.Samo d nie świadczy jeszcze o stopniu uszkodzenia pamięci.
29
KompensacjaKompensacja
30
Model amnezjiModel amnezji
Pamięć trwała jest rezultatem stanów atraktorowych minikolumn kory mózgu, zapisana jest więc w synapasch.
Układ neuromodulacji reguluje plastyczność hipokampa i kory.
Pamięć średnioterminowa zapisana jest w sieciach hipokampa.
31
Powstawanie trwałej pamięciPowstawanie trwałej pamięci
32
Amnezja wstecznaAmnezja wsteczna
Główna przyczyna: utrata łączy do kory.
Objawy: gradienty Ribota czyli im starsze wspomnienia tym lepiej pamiętane.
33
Amnezja następczaAmnezja następcza
Główna przyczyna: uszkodzenie systemu neuromodulacji. Wtórnie: utrata łączy z korą.
Objawy:Brak możliwości zapamiętania nowych faktów.
34
Amnezja semantycznaGłówna przyczyna: uszkodzenie łączy wewnątrzkorowych. Objawy: Trudności w znajdowaniu słów, rozumieniu, zapamiętanie nowych faktów wymaga ciągłego powtarzania.
35
Co dalej?
• Maszyna Boltzmana i sieci stochastyczne• Samoorganizacja• Klasteryzacja• Wizualizacja
• Czyli modele Kohonena.
Koniec wykładu 12
Dobranoc !