Sekwencje Jak modelować relacje i sekwencje słów?

17
Sekwencje Jak modelować relacje i sekwencje słów? Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie W oparciu o wykład Prof. Geoffrey Hinton University of Toronto oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika Inteligentne Systemy Autonomiczne

description

Sekwencje Jak modelować relacje i sekwencje słów?. Inteligentne Systemy Autonomiczne. W oparciu o wykład Prof. Geoffrey Hinton University of Toronto oraz Prof. Włodzisława Ducha Uniwersytet Mikołaja Kopernika. Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie. - PowerPoint PPT Presentation

Transcript of Sekwencje Jak modelować relacje i sekwencje słów?

Page 1: Sekwencje  Jak modelować relacje  i sekwencje słów?

Sekwencje Jak modelować relacje i sekwencje słów?

Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie

W oparciu o wykład Prof. Geoffrey HintonUniversity of Toronto orazProf. Włodzisława DuchaUniwersytet Mikołaja Kopernika

Inteligentne Systemy Autonomiczne

Page 2: Sekwencje  Jak modelować relacje  i sekwencje słów?

Jak przedstawiać wagi połączeń

• Oczywisty sposób to zaznaczyć wartości numeryczne połączeń:– Spróbuj pokazać 25,000

wag w ten sposób!

• Lepiej pokazać wagi jako białe i czarne kwadraty na wejściach neuronów warstw ukrytych– Lepsze wykorzystanie

pikseli – Łatwiej rozpoznać kształty

+3.2 -1.5+0.8

wejście

ukryty 1 2

ukryty 1 ukryty 2

Page 3: Sekwencje  Jak modelować relacje  i sekwencje słów?

Przykład relacji

Christopher = Penelope Andrew = Christine

Margaret = Arthur Victoria = James Jennifer = Charles

Colin Charlotte

Utwórz zbiór stwierdzeń używając 16 relacji:Syn, córka, siostrzeniec, siostrzenica, bratanek, bratanicaOjciec, matka, wujek, ciotka, stryjek, stryjenkaBrat, siostra, maz, zona

Page 4: Sekwencje  Jak modelować relacje  i sekwencje słów?

Inny sposób przedstawienia tej informacji

• (ojcem colina jest james)• (matka colina jest victoria)• (zona jamesa jest victoria) wynika z dwóch poprzednich

(bratem charlotte jest colin)• (bratem victorii jest arthur)• (wujkiem charlotte jest arthur) wynika z dwóch poprzednich

Christopher = Penelope Andrew = Christine

Margaret = Arthur Victoria = James Jennifer = Charles

Colin Charlotte

Możemy te relacje przedstawić w postaci ciągów uporządkowanych czwórek

Page 5: Sekwencje  Jak modelować relacje  i sekwencje słów?

Struktura sieci neuronowej

Lokalny kod osoby 2

Lokalny kod osoby 1

Lokalny kod relacji

Nauczony rozproszony kod osoby 1

Nauczony rozproszony kod relacji

Nauczony rozproszony kod osoby 1

Jednostki które uczą się cech wyjścia na podstawie cech wejścia

wyjście

wejścia

Page 6: Sekwencje  Jak modelować relacje  i sekwencje słów?

Podstawowy problem w rozpoznawaniu mowy

• Nie możemy rozpoznać zgłosek w zaszumionej mowie– Wejście akustyczne jest często wieloznaczne:

• kilka rożnych slow całkiem dobrze pasuje do jednego sygnału akustycznego.

• Ludzie wykorzystują rozumienie znaczenia wyrażenia żeby słyszeć właściwe słowo.– Robimy to podświadomie– Robimy to dobrze

• Oznacza to ze programy rozpoznawania mowy muszą wiedzieć które słowa najprawdopodobniej padną a które nie.– Czy można to robić bez pełnego zrozumienia?

Page 7: Sekwencje  Jak modelować relacje  i sekwencje słów?

• Weź olbrzymia ilość tekstu i policz częstość wszystkich trójek słów. Potem użyj te częstości żeby przewidzieć następne słowo w ciągu a b !

• Do niedawna metoda ta była “state-of-the-art”.– Nie możemy użyć większego kontekstu ponieważ jest

zbyt wiele czwórek– Musimy cofnąć się do dwójek jeśli ilość trójek jest zero.

Standartowa metoda “trójek”

)(

)(

),|(

),|(

123

123

abdcount

abccount

awbwdwp

awbwcwp

Page 8: Sekwencje  Jak modelować relacje  i sekwencje słów?

Dlaczego model trójek jest durny?

• Przypuśćmy że widzieliśmy zdanie

“kot został zgnieciony w ogrodzie w piątek”• Powinno to nam pomóc przewidzieć słowa w zdaniu

“pies został rozpłaszczony na podwórku w poniedziałek”• Model trójek nie rozumie podobieństwa między

– Kot/pies zgnieciony/rozpłaszczony ogród/podwórko piątek/poniedziałek

• Żeby przezwyciężyć to ograniczenie, potrzebujemy użyć cech poprzednich słów żeby przewidzieć cechy następnych słów.– Używając reprezentacje cech i wyuczony model jak

poprzednie cechy przewidują przyszłe, możemy użyć dużo słów i zależności wyuczonych w przeszłości.

Page 9: Sekwencje  Jak modelować relacje  i sekwencje słów?

Siec neuronowa Bengio do przewidywania następnych slow

jednostki Softmax (jedna na każde słowo)

Index słowa dla t-2 Index słowa dla t-1

Wyuczony rozproszony kod słowa t-2

Wyuczony rozproszony kod słowa t-1

Jednostki które uczą się przewidywać słowa wyjściowe

na podstawie cech słów wejściowych

wyjście

wejścia

Look-up table Look-up table

Opuszczone polaczenia warstw

Page 10: Sekwencje  Jak modelować relacje  i sekwencje słów?

Uczenie sekwencji w jednostkach LTM

• Podstawowa jednostka Long Term Memory (LTM)

LTM

From STM

PN

DN

LTMP

STM

A

DB

C

P

From lower level LTM

(a) (b)

Page 11: Sekwencje  Jak modelować relacje  i sekwencje słów?

LTM z naciskiem na pierwsza i ostatnia zgłoskę

• Używa zmodyfikowanych wag połączeń sprzężenia zwrotnego

• Większa tolerancja na częściowe przestawienia

Page 12: Sekwencje  Jak modelować relacje  i sekwencje słów?

LTM z naciskiem na pierwsza i ostatnia zgłoskę

• Śrewinoideczni walynaczy csętzo buwadoli maynszy pobndoe jak "rboot Leonarda", wynokujcąe okrelośne czonnyści, tikae jak zymanakie i oratwienie dwrzi, winatie wdząchocych gśoci itp.

• Udząrzenia tikae bawoduno do zawabainia wdcałów.• Piommo iż nie zanno wdety elecznoktryści, zduwabono

welie medloi poszuranych ergneią wdoy, słią cężiśokci czy engerią zmazygwaanoną w spęryżnach.

Typoglycemia - Wystarczy ze wyraz zawiera konieczne litery a pierwsza i ostatnia litera są na swoich miejscach, czytelnik z niewielkim wysiłkiem może przeczytać tekst.

Page 13: Sekwencje  Jak modelować relacje  i sekwencje słów?

Powstawanie trwałej pamięci

1. Obserwacja wejścia 2. Aktywizacja sygnałów hipokampa

3. Aktywizacja pamięci średnioterminowej 4. Powstanie pamięci trwalej

Page 14: Sekwencje  Jak modelować relacje  i sekwencje słów?

Model amnezji

Układ neuromodulacji reguluje plastyczność hipokampa i kory.

Pamięć średnioterminowa zapisana jest w sieciach hipokampa.

Pamięć trwała jest rezultatem stanów atraktorowych minikolumn kory mózgu, zapisana jest więc w synapsach.

Aktywizacja sygnałów hipokampa

Aktywizacja sygnałów kory

Page 15: Sekwencje  Jak modelować relacje  i sekwencje słów?

Amnezja wsteczna

Główna przyczyna: utrata łączy do kory.

Objawy: gradienty Ribota czyli im starsze wspomnienia tym lepiej pamiętane.

Page 16: Sekwencje  Jak modelować relacje  i sekwencje słów?

Amnezja następcza

Główna przyczyna: uszkodzenie systemu neuromodulacji.

Wtórnie: utrata łączy z korą.

Objawy:Brak możliwości zapamiętania nowych faktów.

Page 17: Sekwencje  Jak modelować relacje  i sekwencje słów?

Amnezja semantyczna

Główna przyczyna: uszkodzenie łączy wewnątrzkorowych. Objawy: Trudności w znajdowaniu słów, rozumieniu, zapamiętanie

nowych faktów, wymaga ciągłego powtarzania.

1. Dużo mniej połączeń asocjacyjnych w korze 2. Aktywizacja sygnałów hipokampa

3. Uczenie poważnie utrudnione 4. Nie powtarzanie powoduje utratę pamięci