Wstęp do kognitywistyki Symulacje, obliczenia i modelowanie: Chiński pokój

Post on 31-Jan-2016

64 views 0 download

description

Marcin Miłkowski. Wstęp do kognitywistyki Symulacje, obliczenia i modelowanie: Chiński pokój. O czym będzie mowa. John Searle i jego Chiński Pokój przeciwko AI Problem ugruntowania symboli Modele obliczeniowe i fizyczne komputery. John Searle przeciwko AI. Mocna sztuczna inteligencja: - PowerPoint PPT Presentation

Transcript of Wstęp do kognitywistyki Symulacje, obliczenia i modelowanie: Chiński pokój

Marcin Miłkowski

O czym będzie mowa

John Searle i jego Chiński Pokój przeciwko AI

Problem ugruntowania symboli Modele obliczeniowe i fizyczne komputery

John Searle przeciwko AI

Mocna sztuczna inteligencja: Komputery mogą myśleć.

Słaba sztucznainteligencja: Komputery mogąsymulować myślenie, tak jak pogodę.

Program rozumienia tekstu R. Schanka Program Schanka był w stanie odpowiadać na proste pytania dotyczące wprowadzonego do komputera tekstu. Dziś też istnieją jeszcze lepsze systemy odpowiadające na pytania.

R. Schank twierdził, że ten program rozumie tekst i odpowiada na pytania.

Chiński pokój

Odpowiedzi na ten eksperyment Odpowiedź systemowa:

Searle nic nie rozumie, ale nic dziwnego, bo pojedyncze neurony też nie.

Odpowiedź z języka angielskiego: Searle może i nie rozumie języka chińskiego, ale musi rozumieć angielski, aby wykonywać instrukcje. Podobnie komputery rozumieją instrukcje sterujące (A. Sloman)

Odpowiedzi na chiński pokój

Odpowiedź robotyczna Podłączmy do komputera kamerę lub inne receptory, dajmy mu efektory. Taki robot będzie rozumiał po chińsku.

Według Searle’a symbole mogłyby być tylko na temat bodźców percepcyjnych i reakcji albo na temat przedmiotów i działań. On ich by jednak nie rozróżnił, co wg niego obala odpowiedź robotyczną.

Odpowiedzi na chiński pokój

Odpowiedź z symulatora mózgu: Zastąpmy karteczki impulsami elektrycznymi, zmniejszmy pokój, aby mieścił się w małej piłce. Jak będzie miał skalę mózgu, to czym właściwie to się będzie różniło od mózgu? (D. Hofstadter i D. Dennett)

Searle: a po co nam w ogóle wtedy AI?

Searle a Leibniz w Monadologii (1714) „Należy wszakże przyznać, że postrzeżenie i

to, co do niego należy, nie da się wytłumaczyć racjami mechanicznymi. To znaczy przez kształty i ruchy. Przypuściwszy zaś, że istnieje maszyna, której budowa pozwala, aby myślała, czuła, miewała postrzeżenia, będzie można pomyśleć ją, z zachowaniem tych samych proporcji, tak powiększoną, aby można do niej wejść jak do młyna. Założywszy to, odnaleźlibyśmy wewnątrz przy zwiedzaniu jej tylko części, które popychają się wzajemnie, nigdy jednak nic, co tłumaczyłoby postrzeżenie. [...] trzeba szukać tego właśnie w substancji prostej, a nie w rzeczy złożonej, czy też w machinie” (par. 17)

Searle a Leibniz

Searle, w przeciwieństwie do Leibniza, twierdzi, że mózgi mają moce biologiczne, dzięki którym rozumieją.

Tych mocy nie mają programy, które są tylko przekształceniami symboli. Nie odpowiadają mechanizmom biologicznym?

Modele obliczeniowe

Dwa poziomy równoważności obliczeniowej (Fodor 1968): Słaba – wyjście obliczenia jest takie samo przy takich samych wyjściach. (Liczy się tylko wytwór poznawczy).

Mocna – nie tylko wyjścia są takie same przy takich samych wejściach, ale i proces jest równoważny. (Liczy się też proces poznawczy!)

Eksperyment Searle’a a jego argumentacja Późniejsza argumentacja Searle’a:1. Program komputerowy jest składniowy.

2. Składnia nie jest wystarczająca dla semantyki.

3. Umysły mają semantykę.

Zatem implementacja programu jest niewystarczająca dla umysłu.

Parodia Chalmersa

1. Przepisy kulinarne są składniowe.

2. Składnia jest niewystarczająca dla kruchości.

3. Ciastka są kruche.Zatem implementacja przepisu

jest niewystarczająca dla ciastka.

Realizacja obliczeń

Programy komputerowe, tak jak maszyny Turinga, są rozumiane jako abstrakty.

Ale komputery to fizyczne mechanizmy, konkretne i dotykalne. Nie są zatem sprowadzalne do składni.

Problem ugruntowania symboli Stevan Harnad: parafraza problemu Searle’a

Jak stworzyć system,w którym symbolebędą ugruntowane, tj.nie będą odnosić siętylko do innych symboli?

Problem ugruntowania symboli Harnad: Sam system komputerowy nie ma symboli sensownych, jeśli nie oddziałuje ze środowiskiem. Nie można nauczyć się chińskiego, jeśli ma się tylko słownik chińsko-chiński.

Trzeba móc wyjść poza same symbole, czyli je ugruntować.

Luc Steels i gadające głowy

Stworzono komunikujące się ze sobą roboty na temat prostych kształtów geometrycznych

Eksperyment jest uproszczony, boroboty komunikują się bez większego ważniejszego powodu, ale Steels uważa, że problem rozwiązał.

Modele obliczeniowe w kognitywistyce Dzisiaj 90% prac teoretycznych w głównych czasopismach z kognitywistyki to prace opisujące modele obliczeniowe.

Większość modeli jest stosunkowo małego zakresu, tj. opisuje pojedyncze zdolności poznawcze.

Nie chodzi o sztuczną inteligencję, tylko o zrozumienie mechanizmów myślenia.

Czy są granice sztucznej inteligencji? Zdaniem Kartezjusza maszyny nigdy nie opanują języka naturalnego.

IBM Watson niedawno wygrał w teleturnieju Jeopardy.

Turing: myśleć to komunikować się sensownie Skąd wiemy, że maszyna myśli? Stąd, że możemy się z nią porozumiewać.

Test Turinga – jeśli komputer go przejdzie, to myśli.

Do tej pory żaden komputer go nie przeszedł, a większość współczesnych prób to żarty lub zabawki.

Test Turinga

Jeśli rozmówca nie rozpozna, czy – komunikując się za pośrednictwem interfejsu maszynowego – komunikuje się z maszyną, czy z człowiekiem, to maszyna jest inteligentna, czyli myśli. Test ma być przeciwko szowinistycznemu przesądowi, że ciało jest istotne.

Krytyka Testu Turinga

Zwierzęta, w tym niegrające w szachy słonie, nie przejdą testu. A myślą.

Podobnie małe dzieci. Przejście test nie jest konieczne do tego, aby być inteligentnym.

Krytyka Testu Turinga

Test może przejść komputer, który wcale nie rozumuje, tylko ma ogromny zbiór zawierający ogromną liczbę konwersacji, „kosmiczny gramofon” gigantycznej wielkości (S. Lem). Przejście Testu nie jest wystarczające, aby być inteligentnym. Wiele osób potrafi być oszukanych przez boty.

Idea testu: nierozróżnialność zachowania Test Turinga jest z ducha behawiorystyczny: liczy się nie struktura wewnętrzna, tylko nierozróżnialność zachowania (słaba równoważność wytworu poznawczego, procesy poznawcze nieważne).

W tym sensie Google Translate też tłumaczy, jeśli jego wytwór jest nierozróżnialny.

Sztuczna inteligencja a kognitywistyka Inżynieryjnej sztucznej inteligencji wystarcza nierozróżnialność zachowania, bo chodzi o szybkie nowe narzędzia. Nawet działające zupełnie inaczej niż człowiek.

Obliczeniowa kognitywistyka potrzebuje więcej: wyjaśnienia, jak oblicza człowiek.

Podsumowanie

Searle skrytykował dosyć buńczuczne twierdzenia, że programy same w sobie są inteligentne.

Ale jego tezy stają się wątpliwe, jak odnieść je do symulatora mózgu. Parodia Chalmersa jest zasłużona.

Podsumowanie

W robotyce poznawczej problem ugruntowania symboli jest bardzo żywy i chętnie dyskutowany.

Test Turinga pozostaje niezdany, a jego zdanie niestety nie musi oznaczać, że wygrała maszyna inteligentna. Boty są wredne.

Dodatkowe lektury

Łupkowski, P. (2010). Test Turinga: perspektywa sędziego. Poznan: Wydawnictwo Naukowe UAM. Dostępna bezpłatnie.

Searle J.R., Umysły, mózgi i programy, [w:] Filozofia umysłu. Fragmenty filozofii analitycznej, red. B. Chwedeńczuk, Fundacja Aletheia - Wydawnictwo Spacja, Warszawa 1995, s. 301–324.