Ćwierć wieku rozwoju sztucznej inteligencji w Polsce

Post on 30-Jan-2016

44 views 0 download

description

Ćwierć wieku rozwoju sztucznej inteligencji w Polsce. Ryszard Tadeusiewicz AGH, Kraków. Przedstawiana historia AI w Polsce lat 80., 90. i 200x będzie wysoce subiektywna. Zapewne historycy nauki inaczej opiszą te dzieje i racja będzie niewątpliwie po ich stronie. - PowerPoint PPT Presentation

Transcript of Ćwierć wieku rozwoju sztucznej inteligencji w Polsce

Ćwierć wieku rozwojusztucznej inteligencji

w Polsce

Ryszard Tadeusiewicz

AGH, Kraków

Przedstawiana historia AI w Polsce lat 80., 90. i 200x

będzie wysoce subiektywna.

Zapewne historycy nauki inaczej opiszą te dziejei racja będzie niewątpliwie po ich stronie.

Tyle tylko, że historycy będą to oglądali od zewnątrz a ich metody będą beznamiętne.

Tymczasem ja oglądałem to wszystko od środkaa mój stosunek do AI jest wysoce emocjonalny!

Druga zasada, jaka będzie przestrzegana, będzie polegała

na unikaniu wymieniania nazwisk badaczy

zaangażowanych w rozwój sztucznej inteligencji.

Chodzi o to, żeby kogoś nie pominąć, bo pamięć bywa

zawodna...

1982

• Sytuacja polityczna była taka, jak wszyscy wiedzą. Nastroje były minorowe. Miało to wpływ (negatywny) na rozwój nauki.

• W AI najbardziej „modne” były zagadnienia rozpoznawania obrazów (ale w sensie „pattern recognition” a nie „image processing”)

• Obowiązywała zasada, że algorytmy trzeba opisywać w sposób wysoce sformalizowany i starać się dowodzić ich własności w sposób analityczny

1983

• Dla podrażnienia super-podejrzliwej władzy

utworzyliśmy na AGH organizację OFSIK• Inicjatorem OFSIKa był prof. Zbigniew

Zwinogrodzki, który siedział długie lata na Syberii i na którym w związku z tym Stan Wojenny nie robił wrażenia

• UB natychmiast zainteresował się OFSIKiem i zarząd OFSIKa (z mówiącym te słowa) został wezwany do złożenia zeznań

Zeznaliśmy i zostało to oficjalnie zaprotokołowane:

To była:

Ogólnopolska

Federacja

Sztucznej

Inteligencji z siedzibą w

Krakowie

Tak to Sztuczna Inteligencja trafiła do polityki...

OFSIK

1984

• Zaczęły pojawiać się pierwsze polskie praktyczne opracowania dotyczące automatycznego rozpoznawania mowy

• Na AGH zbudowano pierwszą wersję wieloprocesorowego systemu CESARO (Cyfrowy Eksperymentalny System Analizy i Rozpoznawania Obrazów) analizującego obrazy z kamery TV przem.

1985

• Powstało kilka dobrych opracowań dotyczących komputerowego przetwarzania języka naturalnego (niestety głównie angielskiego, chociaż w Polsce)

• System CESARO został sprzęgniętyz polskim robotem IRp6 i wykonywano badania nad zastosowaniami wizyjnego sprzężenia zwrotnego

1986

• Nastąpił pierwszy (wielokrotnie potem ponawiany) przypływ entuzjazmu dla metod wnioskowania opartych na teorii zbiorów rozmytych

• Przyjęta została przez CKK pierwsza habilitacja, której głównym motywem były zagadnienia sztucznej inteligencji (automatyczne dowodzenie twierdzeń)

1987

• Rozwijający się rynek gier komputerowych stymulował prace badawcze związane z wykorzystaniem heurystycznych strategii do rozwiązywania różnych problemów

• Zanotowano istotny postęp w obszarze komputerowej analizy języka naturalnego (polskiego)

1988

• Odkryta kilka lat wcześniej teoria zbiorów przybliżonych (Pawlaka) zaczęła zdobywać międzynarodowe uznanie

• W AGH powstał pierwszy komputerowy symulator rodziny pszczelej oparty na podobnych koncepcjach, jak dzisiejsze automaty komórkowe i algorytmy mrowiskowe

1989

• Początek zainteresowania techniką sieci neuronowych

• Powstaje kilka dobrych polskich systemów ekspertowych

• Dzięki PROLOGowi obliczenia symboliczne stają się wygodniejsze i bardziej efektywne

1990

• Szybko narastające zainteresowanie ze strony praktyki systemami ekspertowymi prowadzi do powstania kilku nieudanych konstrukcji. Psuje to opinię AI i jest powodem sceptycznego nastawienia do jej możliwości

• Następuje dalszy rozwój systemów inteligentnego przetwarzania sygnałów (głównie dla diagnostyki medycznej i technicznej)

1991

• Pojawiają się pierwsze polskie prace z zakresu inteligentnego rozpoznawania obrazów dla potrzeb policji (analiza odcisków palców)

• Kilka polskich rozwiązań w zakresie algorytmów rozgrywających zyskuje międzynarodowe uznanie

1992

• Jak się wydaje jest to jedyny rok w ciągu całego ćwierćwiecza, w którym nic szczególnego w polskiej AI nie zaszło!

1993

• Ukazała się pierwsza polska książka na temat sieci neuronowych. Zainteresowanie było tak duże, że w tym samym roku trzeba było wydać drugie wydanie

• Algorytmy uczące się (najczęściej oparte na technice drzew decyzyjnych) znajdują coraz więcej zastosowań

1994

• Pojawiają się kolejne książki i kolejne publikacje na temat sieci neuronowych

• Powstaje Polskie Towarzystwo Sieci Neuronowych

• Sieci neuronowe stają się najpopularniejszą techniką AI

1995

• Zaczyna funkcjonować działająca do dnia dzisiejszego instytucja corocznych konferencji poświęconych sztucznej inteligencji

1996

• Następuje duży wzrost zainteresowania możliwościami, jakie dają algorytmy genetyczne i ewolucyjne podejście do rozwiązywania problemów

• Sieci neuronowe osiągają status dobrze znanej i godnej zaufania metodyki badawczej.

1997

• Technika sztucznej inteligencji zmierza do wypracowania metod hybrydowych: genetyczno-rozmytych, neuronowo-rozmytych, neuronowych z wykorzystaniem podejścia ewolucyjnego itp.

1998

• Popularne stają się prace związane z zastosowaniem technik sztucznej inteligencji w automatyce i robotyce. Szczególnie dużo ciekawych wyników uzyskuje się przy zastosowaniu podejścia rozmytego w sterowaniu różnych maszyn i urządzeń

1999

• Z obawy przed skutkami „pluskwy milenijnej” rozwijane są różne metody, które mają zlikwidować ten problem, przy czym termin „sztuczna inteligencja” jest używany (i nadużywany) jako wytrych.

• Metody sztucznej inteligencji zaczynają z powodzeniem być wykorzystywane do ochrony przeciw-wirusowej

2000

• Coraz większe zainteresowanie metodami sztucznej inteligencji ze strony ekonomii – zwłaszcza sektora bankowego oraz inwestorów giełdowych

• Kompleksowo zautomatyzowane centra produkcyjne coraz częściej zawierają komputer nadrzędny sterowany algorytmami sztucznej inteligencji

2001

• Liczne i ciekawe prace na temat wykorzystania sztucznej inteligencji w diagnostyce i eksploatacji maszyn.

• Upowszechnia się i popularyzuje pojęcie „Business Intelligence” – często stosowane wprawdzie jedynie jako hasło marketingowe, ale wskazujące na kierunki rozwoju systemów dla zastosowań ekonomicznych

2002

• Szereg ciekawych wyników związanych z wykorzystaniem sztucznej inteligencji przy budowie sprzętu powszechnego użytku: nowej aparatury medycznej, artykułów gospodarstwa domowego, wyposażenia pojazdów itp.

2003

• Powstaje koncepcja sieci semantycznych opartych na metodach sztucznej inteligencji, mających na celu ułatwienie orientacji w narastających lawinowo zasobach informacji gromadzonej w Sieci.

• Metody agentowe powodują wzrost zainteresowania sztuczną inteligencją w kontekście hasła „inteligentny agent”

2004

• W miejsce dotychczas używanego terminu „Sztuczna inteligencja” coraz częściej zaczyna się stosować termin soft computing

• Zaproponowana zostaje technika automatycznego rozumienia (np. obrazów) jako uzupełnienie dla przetwarzania, analizy i rozpoznwania

2005

• Techniki sztucznej inteligencji w coraz szerszym zakresie angażowane są do semantycznie zorientowanego poszukiwania potrzebnych informacji w Internecie

2006

• W Poznaniu odbywa się zjazd PTI, na którym podsumowany zostaje dorobek AI w ciągu ostatniego ćwierćwiecza