Metody i aparatura do badania parametrów powierzchni przy ...

58
ROK XXXVI 1/2011(14) TECHNOLOGIE INFORMACYJNE BIOMETRIA, ROBOTYKA, KRYPTOGRAFIA, METROLOGIA

Transcript of Metody i aparatura do badania parametrów powierzchni przy ...

Page 1: Metody i aparatura do badania parametrów powierzchni przy ...

ROK XXXVI1/2011(14)

TECHNOLOGIE INFORMACYJNEBIOMETRIA, ROBOTYKA,

KRYPTOGRAFIA, METROLOGIA

Page 2: Metody i aparatura do badania parametrów powierzchni przy ...

Metody i aparatura do badania parametrów powierzchni przy wykorzystaniu zjawiska rozpraszania światła

dr inż. ROMUALD SYNAK, mgr inż. JAN RYŻKOInstytut Maszyn Matematycznych, Warszawa

Zjawisko rozpraszanie światła jest już od dość dawna wykorzystywane do pomiarów chropowatości i innych parametrów powierzchni, np. reflektancji. Na rozwój metod opartych na tym zjawisku wpłynęły takie ich cechy, jak bezstykowy sposób pomiaru, możliwość pomiaru nawet skrajnie małych wysokości nierówności, mały czas pomiaru. Zalety te sprawiają, że metody rozproszeniowe (nazywane też skaterometrycznymi) znajdują liczne zastosowania w dziedzinach zaliczanych do tzw. wysokiej technologii. W elektronice są wykorzystywane w badaniach i kontroli podłożowych płytek krzemowych, warstw cienkich, dysków magnetycznych, podłoży szklanych i ceramicznych itp. [3, 7, 9, 10], a w optyce w ocenie zwierciadeł, soczewek i innych podzespołów [2, 4, 10]. Również w pomiarach powierzchni bardzo gładkich elementów mechanicznych, np. płytek wzorcowych metody rozproszeniowe mogą być korzystniejsze niż standardowe (warsztatowe) profilometry stykowe ze względu na ich niewystarczającą wtedy rozdzielczość. Bezstykowy sposób pomiaru może też być cenną zaletą, gdy chodzi o kontrolę elementów w czasie ich ruchu.

Metody pomiarowe

Obszerne omówienie różnych metod pomiarowych powierzchni można znaleźć w pracach [4,5]. Przy wykorzystaniu zjawiska rozpraszania najczęściej stosowane są metody reflektometryczne (odbiciowe), integracyjne i różniczkowe [6].

Przy metodach reflektometrycznych do obliczania wysokości nierówności powierzchni wykorzystuje się zależność między odchyleniem standardowym tej wysokości a stosunkiem reflektancji zwierciadlanej Rs do reflektancji całkowitej Ro :

Rs /Ro = exp [ - (

icos4)2] (1)

gdzie Rs jest stosunkiem mocy wiązki odbitej Ps do mocy wiązki padającej Pi, Ro – sumą reflektancji odbitej i dyfuzyjnej Ro=Pd /Pi, i – kątem padania, a - długością fali. Zależność tę można stosować zakładając, że jest znacznie mniejsze, a odstępy między nierównościami znacznie większe od . Stosując tę metodę mierzymy moc wiązki odbitej, a także moc wiązki rozproszonej w jednym, lub kilku kierunkach.

Z metodami reflektometrycznymi związane są ściśle metody integracyjne, przy których mierzymy całkowitą moc promieniowania rozpraszanego we wszystkich kierunkach. W języku angielskim stosuje się tu określenie total integrated scatter (lub scattering) i oznacza się symbolem TIS=Rd /Rs czyli stosunek reflektancji dyfuzyjnej do zwierciadlanej [10]. Wówczas

TISi

cos4

(2)

Dla przeprowadzenia tego pomiaru wykorzystuje się specjalne układy jak półkuliste zwierciadło wklęsłe zwane zwierciadłem Coblentza [3], kulę całkującą (nazywaną też kulą Ulbrichta), której wnętrze pokryte jest materiałem rozpraszającym [10], lub inne rozwiązania jak np. zintegrowaną głowicę pomiarową [12].

1

Page 3: Metody i aparatura do badania parametrów powierzchni przy ...

Z kolei metody różniczkowe, zwane też ARS od angle-resolved-scatter, wymagają pomiaru rozkładu kątowego mocy promienistej światła rozproszonego. Jeśli pomiaru dokonujemy tylko w płaszczyźnie padania światła, to rozkład ten będzie funkcją jednej zmiennej, zwykle kąta rozproszenia d dając tzw. indykatrysę rozproszenia. Jeśli wyznaczymy rozkład przestrzennie, będzie on także funkcją azymutalnego kąta rozproszenia i wówczas uzyskamy rozkłady oznaczone symbolami BRDF (bidirectional reflectance distribution function - dwukierunkowa funkcja rozkładu reflektancji) lub BSDF (bidirectional scatter distribution function – dwukierunkowa funkcja rozkładu rozproszenia). Ta pierwsza została określona [8] jako stosunek mocy zawartej w elementarnym kącie bryłowym do mocy promienistej padającej na jednostkę powierzchni

BRDF = di coscos164

2

QS(fx ,fy) (3)

gdzie d – kąt rozproszenia, Q – bezwymiarowy czynnik zależny od azymutalnego kąta rozproszenia , uwzględniający także polaryzację światła padającego i optyczne właściwości powierzchni, S(fx,fy) – dwuwymiarowa funkcja gęstości widmowej nierówności powierzchni odbijającej, a fx, fy – częstości przestrzenne nierówności.

Opisane metody różniczkowe są stosowane do bardzo małych nierówności powierzchni. Można je również stosować do większych nierówności co jednak wymaga kalibracji urządzeń pomiarowych przy wykorzystaniu odpowiednich wzorców. Rozkład natężenia światła rozproszonego mierzy się często metodą goniometryczną lub za pomocą linijek fotodetektorów, z których sygnały są analizowane za pomocą komputera, a wyniki przedstawiane w postaci indykatrysy rozproszenia.

Oprócz wyżej stosowanych metod stosowane są jeszcze metody wykorzystujące optyczne przekształcenie Fouriera. Tu również określa się rozkład kątowy światła rozproszonego, ale rejestracji dokonuje się tylko w niewielkim zakresie kątów rozproszenia. Przekształcenie Fouriera może być realizowane za pomocą specjalnych soczewek, by odległość obiektu od obszaru Fraunhofera nie była zbyt duża. Zaletą jest tu nieznaczny wpływ ruchu powierzchni na postać i położenie obszaru dyfrakcyjnego.

Aparatura

Obecnie najczęściej stosowane są metody integracyjne i różniczkowe. Dlatego ograniczymy się do pokazania kilku urządzeń pomiarowych działających tymi metodami na przykładach firm z USA: Schmitt Measurement Systems Inc. (SMS) [14] i PerkinElmer [13]. Pierwsza z nich, mająca swą siedzibę w Portland, stan Oregon, ma w swym katalogu całą gamę systemów zarówno uniwersalnych jak i przeznaczonych do określonych zastosowań.

Urządzenia wykorzystujące metody integracyjne

2

Page 4: Metody i aparatura do badania parametrów powierzchni przy ...

Na rys. 1. [14] pokazane jest urządzenie TMS-2000RC, które wykorzystywane jest przez producentów twardych dysków komputerowych do pomiarów chropowatości ich powierzchni. Jako źródło światła stosowany jest tu laser o długości fali 670 nm. Pozwala ono określać średnią wysokość nierówności Ra lub odchylenie standardowe nierówności powierzchni , a także reflektancje: zwierciadla-ną, dyfuzyjną i całkowitą, oraz parametr TIS. Dokonuje 100 pomiarów na sekundę. Dokład-ność przy obrocie wynosi 0,05 stopnia, a przy przesuwie 0,03 mm. Firma SMS twierdzi, że zastosowanie tego urządzenia pozwala na 4-krotne zwiększe-nie wydajności przy produkcji dysków.

Następną grupą przyrządów specjalizowanych są urządzenia TMS 2000W-RC i TMS 3000W-RC przeznaczone do kontroli produkcji płytek krzemowych. Już wcześniej [7, 9] zwracano uwagę na przydatność tego rodzaju urządzeń pomiarowych w tych zastosowaniach. Większość ich parametrów jest zbliżona do tych, jakie podano wyżej dla TMS-2000RC. Drugie z wymienionych urządzeń jest pokazane na rys. 2. [14] Jest interesującym, że przednia strona tych płytek

kontrolowana jest dla znacz-nie mniejszych nierówności powierzchni (średnio około 0,3nm), aniżeli strona tylna – około 9nm.

3

Page 5: Metody i aparatura do badania parametrów powierzchni przy ...

Kule integracyjne (Ulbrich-ta) wykorzystywane są rów-nież w systemach pomiaro-wych firmy Perkin-Elmer [13] wraz z spektrofotometrami LAMBDA 650 i 850 UV/Vis oraz LAMBDA 950 UV/Vis/NIR. Stanowią one bardzo wszechstronne wy-posażenie do precyzyjnych pomiarów reflektancji i trans-mitancji zarówno ciał stałych jak i cieczy i mogą być wykorzystywane do pomia-rów przy kontroli jakości i opracowywania nowych wy-robów (tkanin, barwników, papieru i szkła). Uniwersalne

zestawy pomiarowe tej firmy składają się z szeregu wy-miennych modułów, co poz-wala na szybkie dostosowa-nie zestawu do rodzaju prze-prowadzanych pomiarów, a także wielkości mierzonych próbek. Na przykład kule integracyjne mogą mieć średnicę 60 lub 150 mm. Rys 3 pokazuje taki zestaw pomiarowy.

Przyrządy wykorzystujące metody różniczkowe

Przedstawimy tu dwa urządzenia tego rodzaju, oba oferowane przez Schmitt Measurement Systems, ale znacznie różniące się rodzajem przyrządu. Pierwszy z nich to pokazany na rys. 4. skaterometr CASI (Complete Angle Scatter Instrument –

4

Page 6: Metody i aparatura do badania parametrów powierzchni przy ...

instrument mierzący rozproszenie pod wszystkimi kątami) [14] wykorzystujący promieniowanie laserowe od ultrafioletu (0,325 m) do podczerwieni (10,6 m). Próbka jest mocowana w uchwycie, który może przesuwać się wzdłuż osi x i y , a także obracać się, przy czym kątowa dokładność ustawienia wynosi 0,05 stopnia, a liniowa 0,01 mm.

Kąt padania może zmieniać się od 0 do 85 stopni. Detektor przesuwa się dokoła próbki w płaszczyźnie padania światła mierząc światło rozproszone i odbite. W czasie badania komputer steruje zmianami wzmocnienia, filtrowania i apertury w sposób określony przez użytkownika. Oprogramowanie ułatwia analizę danych rozproszenia. Mierzone są wspomniane funkcje BRDF i BSDF, a także funkcja rozkładu transmitancji BTDF, co pozwala na obliczenie TIS, THR (Total Semispherical Reflectance – całkowitej reflektacji półkulistej), PSD i średnią kwadratową wysokość nierówności. Wyniki mogą być drukowane w żądanej postaci. Zwraca uwagę bardzo wysoka rozdzielczość – 0,001stopnia.

Zupełnie inną klasę przyrządów reprezentuje podręczne urządzenie do pomiaru nierówności powierzchni i rozproszenia noszące nazwę Scan (Rys. 5) [14], które

składa się z jednostki sterującej, wymiennej głowicy pomiarowej i od-dzielnej jednostki zasilającej. Głowicę tę umieszcza się na powierzchni mie-rzonej i inicjuje pomiar przy pomocy przycisku. Każdy pomiar trwa mniej niż 5 sekund. Wynik jest wyświetlany i zapamiętany (pamięć systemu może przechować do 700 wyników). Z poje-dynczego pomiaru użytkownik może określić chropowatość powierzchni (w zakresie 1-100 nm), reflektancję i poziom rozproszonego promieniowa-nia (BRDF) w dowolnych warunkach oświetlenia. Dokładność pomiaru reflektancji wynosi 2%, a rozproszenia – 3%. Przyrząd ten może służyć do różnych zastosowań.

.

.Aparatura opracowana w kraju

Urządzenia działające na zasadzie pomiaru parametru TIS

Prace nad aparaturą do pomiaru chropowatości metodą integracyjną podjęto dość wcześnie m.in. w Centralnym Ośrodku Aparatury Badawczej i Dydaktycznej oraz w Instytucie Konstrukcji Przyrządów Optycznych i Precyzyjnych (obecnie Instytut Mikromechaniki i Fotoniki) Politechniki Warszawskiej. Opracowano zestaw pomiarowy zawierający kulę Ulbrichta o średnicy 28 cm, a jako źródło światła laser He-Ne o mocy wiązki światła 10 mW. Badane próbki materiałów były umieszczane

5

Page 7: Metody i aparatura do badania parametrów powierzchni przy ...

na stoliku przesuwnym sterowanym za pomocą komputera. Zakres pomiarowy średniego kwadratowego odchylenia wysokości nierówności wynosił 0,5 - 10 nm.

Podobny zestaw wykorzystujący analogiczną kulę o podobnym zakresie pomiarowym został zbudowany również w Katedrze Inżynierii Produkcji Politechniki Koszalińskiej (rys. 6)

Rys. 6. Aparatura do pomiaru TIS z kulą integracyjną (Politechnika Koszalińska)Fig. 6. Equipment for measurement TIS parameter with integrating spheres

(Koszalin University of Technology)

Udaną próbę stworzenia nowego typu głowicy pomiarowej TIS podjęto w Instytucie Maszyn Matematycznych w Warszawie [12]. Głowica stanowi samodzielny zespół zawierający nie tylko elementy optyczne, ale również laser półprzewodnikowy i układy elektroniczne. Odznacza się ona małymi rozmiarami, co jest widoczne na poniższym zdjęciu (rys. 7). Może być zamontowana w uchwycie umożliwiającym jej pozycjonowanie (skanowanie) względem powierzchni mierzonej. Razem z modułem sterującym tworzy przyrząd p.n. Skaterometr Laserowy SL 31 o bogatych funkcjach wyboru trybu pomiaru, gromadzenia danych i połączenia z urządzeniami zewnętrznymi [11].

Rys. 7. Skaterometr SL 31 opracowany w Instytucie Maszyn MatematycznychFig. 7. SL-31 scatterometer developed in Institute of Mathematical Machines

6

Page 8: Metody i aparatura do badania parametrów powierzchni przy ...

Przyrząd jest przystosowany głównie do pomiaru nierówności powierzchni od powyżej 1-2 nm do ok. 200 nm. Tak dużą górną granicę pomiarową uzyskano dzięki opracowaniu specjalnej metody kalibrowania wskazań za pomocą wzorców chropowatości. Przyrząd mierzy też reflektancję zwierciadlaną i dyfuzyjną powierzchni.

Nietypowy w stosunku do standardowych rozwiązań przyrząd opracowano również w Instytucie Optyki Stoso-wanej w Warszawie [1]. Urządzenie nazwane Ska-teroskopem łączy w sobie funkcję pomiaru chropo-watości powierzchni z jednoczesną obserwacją stanu jej powierzchni na monitorze ekranowym, u-możliwiającą identyfikację i eliminację wpływu zanie-czyszczeń na pomiar. Przyrząd, pokazany na rys. 8, odznacza się też ory-ginalną, opatentowaną za-sadą pomiaru. Zasadnicza część światła rozproszonego jest skupia-na, a następnie rozdziela-na na część kierowaną do kamery CCD i część

podawaną do fotodetektora, co umożliwia obliczenie wysokości nierówności. Z uwagi na tę zasadę pomiaru przyrząd wymaga kalibracji przy użyciu elementów wzorcowych. Zakres pomiarowy parametru wynosi 0,2 nm – 20 nm.

Urządzenia działające na zasadzie pomiaru rozkładu promieniowania rozproszonego

O możliwościach wykorzystania promie-niowania rozproszonego do oceny chro-powatości powierzchni detali będących w ruchu wskazują rezultaty uzyskane w Katedrze Inżynierii Produkcji Politechniki Koszalińskiej w dziedzinie badania po-wierzchni metali za pomocą metody po-miaru kątowego rozkładu światła rozpro-szonego [5]. Na rys. 9 przedstawiono aparaturę służącą do tego celu.

Rys. 9. Stanowisko do badania powierzchni metali za pomocą pomiaru

rozkładu światła rozproszonego wykonane w Politechnice Koszalińskiej

7

Page 9: Metody i aparatura do badania parametrów powierzchni przy ...

Fig. 9. Stand for investigation of metal surfaces with measurement of scattered light layout

Głowica pomiarowa i powierzchnia mierzona przemieszczają się względem siebie ze stałą niewielką prędkością. Światło padające na powierzchnię jest przez nią rozpraszane i pada na liniał CCD, z którego sygnały są rejestrowane w komputerze i wykorzystane do wyświetlenia na monitorze indykatrysy rozproszenia światła, a także do obliczenia pewnego parametru, który jest skorelowany ze średnim odchyleniem profilu chropowatości powierzchni Ra. Urządzenie umożliwia pomiar Ra w zakresie od 10 nm do 1000 nm. Cenną zaletą urządzenia jest również możliwość wyznaczenie zarysu kształtu i falistości powierzchni.

W kraju podjęto szereg prac nad opracowaniem zestawów służących do wyznaczenia funkcji BRDF, np. w Instytucie Optoelektroniki Wojskowej Akademii Technicznej i Instytucie Fizyki Politechniki Krakowskiej. Układ wykonany w tej ostatniej placówce opiera się na wykorzystaniu stolika goniometrycznego, na osi którego umieszcza się badaną próbkę. Na próbkę kieruje się wiązkę światła lasera półprzewodnikowego po uprzednim przejściu przez filtr przestrzenny. Promieniowanie rozproszone jest mierzone za pomocą fotodetektora krzemowego, a zmiana kąta rozproszenia następuje za pomocą silnika krokowego ze skokiem 0,01 stopnia. Bardziej szczegółowe dane, a także opis innych przyrządów opracowanych w IF PK (m.in. profilometru fourierowskiego podano w pracy [4].

Zakończenie

Metody polegające na wykorzystaniu zjawiska rozpraszania światła umożliwiają bezstykowy i szybki pomiar parametrów powierzchni odznaczających się dużą gładkością. Dzięki temu znajdują szczególnie zastosowanie w technologiach elektronicznych, optycznych i mechanicznych, a także w pracach badawczych dotyczących np. nowych materiałów. Najczęściej są stosowane obecnie dwie metody pomiarowe: integracyjna i różniczkowa. Pierwsza polega na pomiarze całkowitej mocy promieniowania rozproszonego przez fragment powierzchni, na który skierowano wiązkę światła i mocy wiązki odbitej od niej zwierciadlanie. Wysokość nierówności oblicza się na podstawie stosunku tych wielkości, nazywanego parametrem TIS. W drugiej metodzie przedmiotem pomiaru jest rozkład mocy promieniowania rozproszonego (BRDF), przy czym często mierzy się go tylko w wybranym przekroju promieniowania.

Przykłady aparatury skaterometrycznej stosującej wymienione metody podano w artykule. Opisano w nim również wyniki prac krajowych nad taką aparaturą. Można stwierdzić, że duża część z niej odznacza się oryginalnymi rozwiązaniami konstrukcyjnymi.

Artykuł ten został opracowany w ramach projektu sfinansowanego ze środków Narodowego Centrum Badań.

Literatura

[1] Chabros W., Gawlas J., Nano-Skateroskop, II Konferencja Optoelektronika 2003, Komunikaty, Poznań, 110-112, 2003.[2] Choi N., Harvey J., Krywonos A.: New capabilities for predicting image degradation from optical surface metrology data, Proc. of SPIE Vol. 7801, 78010E-1-8.

8

Page 10: Metody i aparatura do badania parametrów powierzchni przy ...

[3] Duparre A.: Light scaterring techniques for the inspection of microcomponents and microstructures (w:) Optical Inspection of Microsystems, W. Osten (ed.), Optical Science and Engineering, vol. 102, 103-139, 2007.[4] Jaglarz J.: Metody optyczne w badaniach powierzchni i powłok rzeczywistych, Wydawnictwo Politechniki Krakowskiej, Seria: Podstawowe Nauki Techniczne, Monografia 348, Kraków 2008.[5] Łukianowicz C.: Podstawy pomiarów nierówności powierzchni metodami rozpraszania, Wydawnictwo Uczelniane Politechniki Koszalińskiej, Koszalin 2001.[6] Łukianowicz C.: Skaterometria powierzchni nierównych, Problemy Metrologii Elektronicznej i Fotonicznej. Oficyna Wydawnicza Politechniki Wrocławskiej, 165-222, 2009.[7] McNeil J.: Scatterometry Applied to Microelectronics Processing, http://photonicssociety.org/newsletters/oct00/scatter.htm.[8] Nicodemus F.: Reflectance nomenclature and directional reflectance and emissivity, Applied Optics, vol. 19, June, 1474-1475, 1970.[9] Scatterometry: Measuring Ever-Smaller Chip Production, ScienceDaily (Mar. 9, 2 010); http://photonicssociety.org/newsletters/oct00/scatter.htm. [10] Stover J.: Optical Scattering. Measurement and Analysis, SPIE Optical Engineering Press, Washington, 1995.[11] Synak R. i inni: Laserowy przyrząd do oceny chropowatości powierzchni na podstawie pomiaru parametru TIS, Techniki Komputerowe IMM, XLI, nr 1, 67- 75, 2006.[12] Synak R., Pawełczak M.: Zintegrowana głowica pomiarowa do badania

chropowatości powierzchni bardzo gładkich, Elektronika, nr 11, 266-271, 2008.

[13] http://www.perkinelmer.com/CMS Resources.[14] http://www.schmitt-ind.com/products-services-measurement-systems.shtml.

9

Page 11: Metody i aparatura do badania parametrów powierzchni przy ...

METODY USUWANIA SZUMU Z OBRAZÓW TWARZYNoise removing methods from face images

Dr inż. Tomasz Andrysiak 1, mgr inż. Lech Naumowski 2

1Instytut Telekomunikacji, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy,e-mail: [email protected]

2Instytut Maszyn Matematycznych, Warszawae-mail: [email protected]

Streszczenie: W artykule przedstawiono propozycje aproksymacyjnej metody usuwania szumu impulsowego z obrazów twarzy. Dla osiągniecia tego celu wykorzystano adaptacyjną dekompozycję obrazu względem wyszukanych i dopasowanych elementów określonego słownika. Praktyczną realizację opisywanej metody oparto na iteracyjnym rozwiązaniu zachłannym MP (ang. Matching Pursuit). Zaimplementowano trzy typy słowników oraz przebadano ich wpływ na jakość odszumianych obrazów. Abstract: In this paper we present the proposal of approximation methods for impulse noise removal from face images. We used adaptive image decomposition with the matched dictionaries. The method is based on iterative Matching Pursuit algorithm. Three different types of algorithms have been implemented and tested.

Słowa kluczowe: Biometria, adaptacyjna dekompozycja obrazów, słowniki funkcji, odszumianie obrazów.Keywords: Biometrics, adaptive decomposition of images, dictionaries of functions, image denoising.

1 WprowadzenieObecnie biometryczne metody identyfikacji i rozpoznawania osób na podstawie obrazów twarzy zyskują coraz większą popularność dzięki dynamicznie rozwijającym się systemom komputerowym oraz techniką obrazowania. Rosnące praktyczne ich znaczenie spowodowane jest głównie poprzez łatwość pozyskiwania oraz brak interakcji systemu z osobą której próbki biometryczne są pobierane. Dlatego też systemy te są szczególnie czułe na warunki akwizycji oraz jakość eksploatowanych urządzeń obrazowania. Istotnymi czynnikami mającymi wpływ na przedmiotową jakość są warunki oświetlenia, zniekształcenia geometryczne systemów akwizycji oraz szumy wprowadzane przez detektory optyczne i kanały transmisyjne.

Szum jest podstawowym czynnikiem utrudniającym dalszą analizę obrazu. Potrafi w sposób znaczący wpłynąć na jego interpretacje i rozpoznanie. Dlatego też ważnym zagadnieniem jest rozwijanie metod pozwalających redukować jego wpływ na przetwarzane obrazy w systemach biometrycznych. Metody realizujące to zadanie najczęściej wykorzystują różnego typu techniki filtracji, analizy w dziedzinie określonej transformaty oraz dekompozycji obrazów.

Reprezentacje sygnału realizowane jako liniowe rozwinięcia

(1)

względem określonego zbioru funkcji dobrze zlokalizowanych względem czasu i/lub częstotliwość nie są w wielu przypadkach wystarczająco precyzyjne i optymalne [4]. W

10

Page 12: Metody i aparatura do badania parametrów powierzchni przy ...

zależności od dokonanego wyboru funkcji współczynniki rozwinięcia reprezentują różne cechy sygnału .

a)

b)Rys. 1. Symboliczny podział płaszczyzny czasowo-częstotliwościowej dla a) rozwinięć

ortogonalnych DCT, b) diadycznych rozwinięć falkowych Haara [2].Fig. 1. Symbolic division of the time-frequency plane for a) orthogonal DCT decomposition,

b) orthogonal dyadic Haar decomposition [2].Jeżeli wielkości elementów strukturalnych analizowanego sygnału różnią się w sposób istotny od stałej skalującej funkcji to współczynniki nie stanowią optymalnej reprezentacji przedmiotowego sygnału (rys 1. a). Dlatego też sygnały z elementami o zmiennych długościach wymagają stosowania funkcji bazowych o różnych skalach (rys 1. b). Rozwiązanie takie posiada także istotne ograniczenie związane z powiązaniem parametru częstotliwości i parametru skali dla określonych funkcji bazowych .

W przypadku skomplikowanych struktur sygnałów nie jesteśmy w stanie określić optymalnych parametrów skali i częstotliwości dla określonych funkcji bazowych . Wówczas naturalnym rozwiązaniem jest wprowadzenie bardziej różnorodnych i liczniejszych a także dostosowanych do charakteru sygnału zbiorów funkcji zwanych słownikami z redundancją [4]. Otrzymujemy wówczas reprezentacje znacznie bardziej uniwersalne i elastyczne (rys. 2).

11

Page 13: Metody i aparatura do badania parametrów powierzchni przy ...

Rys. 2. Funkcje bezpośrednio dostosowane do sygnału [2].Fig. 2. Basis functions adapted directly to the signal [2].

Jednakże dekompozycja sygnału względem słownika wymaga wówczas ciągłego wyszukiwania i dopasowywania odpowiednich jego elementów które najlepiej odzwierciedlają pożądane cech analizowanego sygnału. Dopasowanie to powinno być realizowane w taki sposób aby maksymalizować korelacje pomiędzy wybranym elementem słownika a pozostała częścią przetwarzanego sygnału. Istnieje więc potrzeba określenia miary jakości takiego dopasowania oraz algorytmu zapewniającego znalezienie najlepszej w sensie tej miary reprezentacji sygnału [4].

Przedstawioną idea adaptacyjnej dekompozycji stosowano w analizie czasowo-częstotliwościowej sygnałów akustycznych i biomedycznych [7,8,14]. W dziedzinie przetwarzania obrazów cyfrowych stosowano najczęściej w zadaniach związanych z wydzielaniem cech, kompresją oraz metodach poprawy jakości analizowanych obrazów [1,2,3,9].

2 Adaptacyjna dekompozycja obrazuDekompozycja obrazu prowadząca do adaptacyjnej jego reprezentacji poprzez wybór zbioru atomów słownika sprowadza się do zagadnienia jak najlepszego ich dopasowania względem analizowanego obrazu tj. minimalizacji błędu aproksymacji .

(2)

Reprezentację optymalną możemy określić jako taki podzbiór elementów słownika, którego liniowa kombinacja tłumaczy największy procent energii sygnału wśród wszystkich podzbiorów o tej samej liczebności. Wybór takiej reprezentacji jest obliczeniowo NP-trudny, toteż w praktyce zadowalamy się iteracyjnym rozwiązaniem adaptacyjnym zwanym algorytmem MP [15]. Wynikiem działania tego algorytmu jest projekcja elementów strukturalnych sygnału na wybrane funkcje słownika zwane atomami.

2.1 Algorytm MPW celu realizacji dekompozycji obrazu wyznaczać będziemy liniowe rozwiniecie względem zbioru atomów wybranych ze słownika tak aby były najlepiej dopasowane do elementów strukturalnych analizowanego obrazu .

W każdym kroku algorytmu MP dokonywać będziemy kolejnych dekompozycji obrazu za pomocą rzutów ortogonalnych na elementy słownika . Wówczas w -tym kroku dekompozycji otrzymujemy

, (3)

12

Page 14: Metody i aparatura do badania parametrów powierzchni przy ...

gdzie oznacza iloczyn skalarny a stanowi residuum będące wynikiem dekompozycji w kierunku . Dla residuum zerowego rzędu zachodzi oczywista zależność . Wyboru atomu dokonujemy na podstawie

, (4)

gdzie jest zbiorem indeksów słownika .Dla wybranego za pomocą zależności (4) atomu minimalizujemy residuum w

kolejnym kroku algorytmu MP. Z uwagi na ortogonalności wektorów i zachodzi związek

. (5) Kontynuując proces dekompozycji do -tego poziomu otrzymujemy

. (6)

Podobnie do zależności (5) możemy zapisać

, (7) otrzymując równanie zachowania energii [6]. Liczba iteracji w których dokonujemy dekompozycji residuów zależy od wymaganej dokładności rekonstrukcji obrazu i dana jest zależnością (8) będącą jednocześnie kryterium stopu algorytmu MP

, (8)

gdzie parametr .Szybkości malenia normy residuum zależy od korelacji pomiędzy kolejnymi residuami

obrazu a wybranymi atomami słownika. Jeżeli obraz jest suma składowych o dużej energii będących atomami słownika to współczynniki korelacji obrazu i jego residuów są znaczne. Wówczas ich norma szybko maleje ponieważ składowe o dużej energii są elementami strukturalnymi obrazu dobrze skorelowanymi z wybranymi atomami słownika [4,14].

2.2 Słowniki funkcji bazowych

Dokładna reprezentacja analizowanego obrazu w słowniku większym niż baza wprowadza redundancję. Pożądaną zwięzłość możemy osiągnąć godząc się na niedokładności rekonstrukcji obrazu, ale z wykorzystaniem możliwie niewielkiej ilości funkcji [7].

Słownik DCTZbiór atomów słownika DCT może otrzymać wykorzystują funkcje bazowe transformacji DCT

(9)gdzie

. (10)

13

Page 15: Metody i aparatura do badania parametrów powierzchni przy ...

Rys. 3. Słownik DCT.Fig. 3. DCT dictionary.

Słownik Haara.Zbiór atomów słownika Haara generujemy poprzez operacje przesunięcia i skalowania funkcji [12]:

, (11)

dla , gdzie falkę podstawową Haara określamy jako:

. (12 )

Rys. 4. Słownik Haara.Fig. 4. Haar dictionary.

Słownik Gabora.Zbiór atomów słownika Gabora możemy wygenerować poprzez skalowanie, przesuniecie i modulacje gaussowskiej funkcji okna [11,13]. Definiujemy wówczas zbiór , indeksów atomów , gdzie parametr odpowiedzialny jest za skalowanie, jest przesunięciem, a częstotliwością modulującą [15]. Otrzymujemy wówczas

14

Page 16: Metody i aparatura do badania parametrów powierzchni przy ...

, (13)

gdzie , faza , a stała jest tak dobrana aby .W tabeli 1 przedstawiono wartości parametrów wykorzystywanych w procesie

tworzenia atomów słownika Gabora na podstawie zależności (13).

Tabela 1. Parametry dla atomów Gabora [2].Table 1. Parameters for the Gabor atoms [2].

n1 2 0 02 3 0 03 4 0 04 5 0 05 6 0 06 8 0 07 10 0 08 11 0 09 1 1 π / 210 5 1 π / 211 11 1 π / 212 10 3 013 8 2 014 4 2 015 4 2 π / 416 6 4 π / 4

Na Rys. 5 przedstawiono obraz słownika Gabora modelowanego za pomocą parametrów określonych w tabeli 1.

15

Page 17: Metody i aparatura do badania parametrów powierzchni przy ...

Rys. 5. Słownik Gabora.Fig. 5. Gabor dictionary.

3 Wyniki eksperymentówW przeprowadzonych badaniach analizowano obrazy testowe twarzy zaszumiane szumem gaussowskim o zerowej wartości średniej i zmiennym odchyleniu standardowym . Proces usuwania szumu polegał na selekcji współczynników dekompozycji realizowanej poprzez kryterium stopu algorytmu MP zgodnie z zależnością (8) dla parametru . Wszystkie wykorzystywane słowniki składały się z atomów, a każdy pojedynczy atom był blokiem o rozmiarze elementów. Na rys. 6 przedstawiono oryginalne obrazy testowe wybrane z baz IMM oraz BioID wykorzystywane w celu zilustrowania przykładowych wyników prezentowanej metody usuwania szumów z przetwarzanych obrazów testowych [18, 20].

a) b)

Rys. 6. Obrazy testowe: a) BioID_0437, b) IMM 07-1.Fig. 6. Sample images: a) BioID_0437, b ) IMM 07-1.

Przykładowe obrazy będące efektem opisywanej metody usuwania szumu przedstawiono na rys. 7 i 8. Obrazują one dobrą subiektywną ocenę prezentowanej metody szczególnie dla parametru (rys. 7) choć analizując szczegóły odszumianych obrazów dla (rys. 8) łatwo zauważyć że powstałe zniekształcenia były efektem rekonstrukcji obrazów z mało licznego zbioru atomów.

16

Page 18: Metody i aparatura do badania parametrów powierzchni przy ...

a) b)

c) d)

Rys. 7. Przykładowe rezultaty usuwania szumu dla obrazu BioID_0437: a) obraz zaszumiany σ=30, PSNR=18,58 dB, b) Harr PSNR=32,51 dB, c) DCT PSNR=33,63 dB,

d) Gabor PSNR=34,16 dB.Fig. 7. Example of the denoising results for the image BioID_0437: a) noisy image σ=50,

PSNR=18,58 dB, b) Harr PSNR=32,51 dB, c) DCT PSNR=33,63 dB, d) Gabor PSNR=34,16 dB.

a) b)

c) d)

Rys. 8. Przykładowe rezultaty usuwania szumu do obrazu IMM 07-1: a) obraz zaszumiany σ=50, PSNR=14,15 dB,

b) Haar PSNR=30,83 dB, c) DCT PSNR=30,94 dB, d) Gabor PSNR=31,39 dB.

Fig. 8. Example of the denoising results for the image IMM 07-1: a) noisy image σ=50, PSNR=14,15 dB,

17

Page 19: Metody i aparatura do badania parametrów powierzchni przy ...

b) DCT PSNR=29,81 dB, c) Haar PSNR=30,21 dB, d) Gabor PSNR=31,74 dB.

Porównanie prezentowanej metody z wynikami zawartymi w pracy [16] przedstawiono na rys. 9. Obrazują one fluktuacje jakości opisywanej metody usuwania szumu wokół linii bazowe (wartości osiągnięte dla obrazów testowych na podstawie metody opisanej przez Portilla w [16]) dla tych samych wartości parametru . Analizując te wykresy można stwierdzić, że dodatnie odchylenie PSNR zależne jest od typu wykorzystywanego słownika, zawartości kontekstowej odszumianych obrazów oraz poziomu parametru . Dla wszystkich obrazów testowych najlepsze wyniki PSNR osiągnięto dla słownika Gabora w zakresie parametru co obrazują dodatnie odchylenia PSNR. Najgorsze wyniki PSNR uzyskano dla słownika Haara już dla . Wynikało to prawdopodobnie z charakterystyki zmienności (rys.4) atomów tego słownika.

Przedstawiono wykresy charakteryzujące średnią jakość wyliczoną dla całego zbioru obrazów z baz IMM oraz BioID z wykorzystaniem słowników Haara, DCT i Gabora dla parametru modelującego addytywny szum gaussowski. W celu porównania otrzymanych wyników przyjęto za poziom odniesienia (linia bazowa w zerze) rezultaty osiągnięte z wykorzystaniem metody opisanej w pracy [16] dla tych samych parametrów . Widoczne wahania względem linii bazowej obrazują skuteczność prezentowanej metody usuwania szumów z obrazów testowych.

a)

b)Rys. 9. Porównanie jakości odszumiania obrazów testowych z rezultatami uzyskanymi w

pracy [16].Fig. 9. Comparison between the denoising quality of sample images with the results achieved

in work [16].

18

Page 20: Metody i aparatura do badania parametrów powierzchni przy ...

Opisywaną metodę usuwania szumu wykorzystującą adaptacyjną dekompozycję obrazów zaimplementowano przy użyciu środowiska MATLAB 7.5 z wykorzystaniem biblioteki Image Processing Toolbox.

4 Podsumowanie W artykule zaprezentowano metodę usuwania szumu z obrazów twarzy wykorzystującą nadmiarowe reprezentacje słownikowe obrazów. Opisano adaptacyjną metodę dekompozycji obrazu opartą na zachłannym algorytmie MP (ang. Matching Pursuit), który w każdej iteracji wyszukuje i dopasowuje elementy danego słownika do struktury analizowanego obrazu. Przebadano trzy typy słowników zawierających atomy funkcji: Harra, DCT i Gabora. W wyniku przeprowadzenia eksperymentów stwierdzono, że prezentowana metoda usuwania szumu osiąga najlepsze wyniki dla słownika modelowanego funkcjami Gabora w szerokim zakresie parametru modelowanego addytywnego szumu impulsowego. Potwierdza to przypuszczenia że duża różnorodność atomów w wykorzystywanym słowniku Gabora powoduje ich lepsze dopasowanie do elementów strukturalnych obrazu w procesach adaptacyjnej dekompozycji.

Dalsze prace ukierunkowane są na przebadanie licznego zbioru słowników opisanego różnymi typami funkcji bazowych w celu szukania odpowiedzi na pytanie jak charakter poszczególnych funkcji wpływa na osiągane wyniki odszumiania.

Literatura[1] M. Aharon, M. Elad, and A. Bruckstein, K-SVD: An algorithm for designing

overcomplete dictionaries for sparse representation, IEEE Transactions Signal Processing, 54, 11, pp. 4311–4322, 2006.

[2] M.R. Banham, J.C. Brailean, A selective update approach to matching pursuits video coding, IEEE Transactions on Curcuits and Systems Video Technology, vol. 7, no. 1, pp. 119-129, 1997.

[3] F. Bergeaud, S. Mallat., Matching pursuit of images, In Proc. IEEE International Conference on Image Processing ICIP’95, vol. 1, pages 53–56, 1995.

[4] J.T. Białasiewicz, Falki i aproksymacje, WNT Warszawa 2004.

[5] A. M. Bruckstein, D. L. Donoho, and M. Elad, From sparse solutions of systems of equations to sparse modeling of signals and images, SIAM Review, vol. 51, no. 1, pp. 34–81, 2009.

[6] G. Davis, S. Mallat, M. Avellaneda, Adaptive greedy approximations, Journal of Constructive Approximation, vol. 13, pp.57-98, 1997.

[7] P.J. Durka, Między czasem a częstotliwością: elementy współczesnej analizy sygnałów, 2004. http://brain.fuw.edu.pl/~durka/as/

[8] P.J. Durka, Time-frequency analyses of EEG, dissertation. Institute of Experimental Physic, Warsaw University, 1996.

[9] M. Elad, Sparse and Redundant Representations: From Theory to Applications in Signal and Image Processing, Springer, 2010.

[10] M. Elad,., M. Aharon, Image denoising via sparse and redundant representations over learned dictionaries, IEEE Transactions Image Processing, vol. 54, pp. 3736–3745, 2006.

[11] D. Gabor, Theory of communication, Journal of Institution Electrical Engineering, vol. 93, no. 26, pp. 429–457, 1946.

19

Page 21: Metody i aparatura do badania parametrów powierzchni przy ...

[12] A. Haar, Zur Theorie der orthogonalen Funktionensysteme, Mathematische Annalen, vol. 69, pp. 331-371, 1910

[13] A. Janssen, Gabor representation of generalized functions, Journal of the Mathematical. Analysis. and Applications, vol. 83, no. 2, pp. 377–394, 1981.

[14] Q. Liu, Q. Wang, and L. Wu, Size of the dictionary in matching pursuit algorithm, IEEE Transactions on Signal Processing, vol. 52, no. 12, pp. 3403–3408, 2004.

[15] S. Mallat, Z. Zhang, Matching pursuits with time-frequency dictionaries, IEEE Transactions on Signal Processing, vol. 41, no. 12, pp. 3397–3415, 1993.

[16] J. Portilla, V. Strela, M.J. Wainwright, E.P. Simoncelli, Image denoising using scale mixture of Gaussians in the wavelet domain, IEEE Transactions on Image Processing, vol. 12, no. 11, pp. 1338–1351, 2003.

[17] R. Rubinstein, M. Bruckstein, M. Elad, Dictionaris for Sparse Representation Modeling, Proceedings of the IEEE, vol. 98, pp. 1045-1057, 2010.

[18] Stegmann M., Ersboll B.K., Larsen R., FAME – a flexible appearance modeling environment, IEEE T. on Medical Imaging, vol. 22, no. 10, 1319-1331, 2003.

[19] J. A. Tropp, Greed is good: Algorithmic results for sparse approximation, ICES Report 03-04, The University of Texas at Austin, 2003.

[20]http://www.bioid.com/support/downloads/software/bioid-face-database.html.

20

Page 22: Metody i aparatura do badania parametrów powierzchni przy ...

Mirosława PlucińskaInstytut Maszyn Matematycznych, Warszawa

Jan RyżkoInstytut Maszyn Matematycznych, Warszawa

Techniki biometryczne – stan obecny i perspektywa zastosowańBiometric technologies – current state and application forecast

Słowa kluczowe: techniki biometryczne, zastosowania biometrii, rynek biometryczny

Key words: biometric technologies, application of biometrics, biometric market

Streszczenie

W artykule przedstawiono główne tendencje rozwoju technik biometrycznych i

podano ich procentowy udział w rynku biometrycznym w latach 1999-2009 i

prognozy do roku 2017. Omówiono i pokazano przykłady zastosowań tych technik

w różnorodnym ujęciu.

Abstract

The main trends in development of biometric technologies are described and their

share in the biometric market is quoted. Different applications are given.

Rozpoznanie cech fizjologicznych lub behawioralnych człowieka za pomocą

urządzeń, a następnie porównanie uzyskanych wyników z uprzednio pobranymi wzorcami

tych cech, uwalnia nas od konieczności noszenia pęku kluczy, pliku kart czy pamiętania

szeregu haseł lub kodów. Wysoka dokładność, jaką uzyskuje się obecnie przy stosowaniu

rozwiązań biometrycznych, pozwala na zapobieganie oszustwom, a także pozwala

eliminować papierowe dokumenty transakcji.

Koniec pierwszej dekady tego wieku skłania do przyjrzenia się, jakie przemiany

następowały w tej dziedzinie w ostatnich latach [1], a także jakie perspektywy dalszego

rozwoju biometrii rysują firmy analizujące ten rynek i oferujące raporty na ten temat.

Techniki

Procentowy udział najczęściej używanych technik w rynku biometrycznym

przedstawia Tabela 1.

21

Page 23: Metody i aparatura do badania parametrów powierzchni przy ...

Tabela 1. Procentowy udział technik biometrycznych – lata 1999-2017

Table 1. Share of technologies in biometric market, 1999-2017 [%]

Technika \ rok 1999 2003 2009 2007-12(prognoza) 2015 2017

źródło BTT IBG AMI (prognoza)

IBG

AFIS 4,4 43,0 38,3 33,6-27,8 16,0palce 34,7 28,0 28,4 25,3-22,1 15,0twarz 7,1 7,0 11,4 12,9-13,9 15,0middleware 7,0 8,0 5,4-10,0tęczówka 3,7 5,0 5,1 5,1-7,4 16,0siatkówka 0,6geometria dłoni 31,0 6,0 1,8 4,7-2,9 1,0

głos 15,8 3,0 3.0 3,2-3 13,0AMI 2.0 5,0IBG podpis 2,7 1,0 10,0AMI 0,7 1,6

IBG multibiometria 2,9-5,2

żyły 2,9 3,0-3,8AMI 3,0 6,0IBG inne 1,6 4,0 4,0

Dane te uzyskano z miesięcznika Biometric Technology Today (BTT) [2], publikacji

International Biometric Group (IBG) [3, 4] i Acuity Market Intelligence (AMI) [5]. Z

powyższej tabeli widać, że dominującą techniką jest rozpoznawanie linii papilarnych, przy

czym większość rozwiązań opartych na tej technice stanowią systemy automatycznej

identyfikacji AFIS (Automated Fingerprint Identification System). Co więcej, przewidywania

o zmniejszaniu się udziału tej techniki w rynku biometrycznym w roku 2009 nie sprawdziły

się i prawdopodobnie prognozy dla lat 2015-17 również trzeba będzie skorygować. Wśród

firm zajmujących się techniką rozpoznawania linii papilarnych należałoby wyróżnić firmę

Cross Match Technologies, czołowego producenta sprzętu i Bio-key Technologies jako

najważniejszego twórcę oprogramowania. Głównym producentem sensorów linii papilarnych

jest firma AuthenTec, która dostarczyła na rynek już ponad 50 milionów tych podzespołów.

Udział technik rozpoznawania twarzy i tęczówki oka rósł, choć nieco wolniej od

przewidywań. Ta ostatnia technika uchodzi za bardzo perspektywiczną, choć drogą.

Natomiast udział dość popularnej wcześniej techniki geometrii dłoni malał szybciej od

przewidywań. Przyczyną tego są duże rozmiary i cena sprzętu. Z kolei udział podpisu

biometrycznego i głosu był nieco większy na początku dekady. W przyszłości przewiduje się

ponowny wzrost ich udziału. Ta ostatnia technika, dotycząca cechy behawioralnej jest

szczególnie interesująca w zastosowaniach bankowych i telekomunikacyjnych, ponieważ nie

22

Page 24: Metody i aparatura do badania parametrów powierzchni przy ...

wymaga dodatkowego sprzętu, a ponadto może spełniać swe funkcje zdalnie. Najnowszą jest

technika rozpoznawania układu żył (palców lub dłoni) [6], najbardziej popularna w Japonii i

Korei. Oceniana jest ona jako najbardziej dokładna [7]. Rozpoznania układu żył w dłoni

można dokonywać nawet przy ruchu ręki – pomiar trwa tylko 1 ms [8]. Oprogramowanie,

oznaczone angielską nazwą middleware, traktowane jest jako oddzielna kategoria na równi z

technikami i również ma tendencje wzrostowe. Stosowanie kilku technik biometrycznych

jednocześnie nazywane jest multibiometrią i takie rozwiązanie uważa się za perspektywiczne,

choć statystyki obecnie nie podają jakiegoś znacznego jej udziału. Wśród technik

oznaczonych Inne można wymienić: sposób uderzania w klawisze, kształt ucha, zapach ciała,

DNA, rytm serca, aktywność mózgu.

Zastosowania

Zastosowań biometrii jest tak wiele, że ograniczono się do podania ich głównych

kategorii, stosowanych w publikacjach. Tabele 2 i 3 przedstawiają procentowy udział

zastosowań w tzw. podziale poziomym.

Tabela 2. Procentowy udział zastosowań wg International Biometric Group

Table 2. Percentage share of applications according to IBG publications

Rodzaj zastosowania 1999 2009 Progn. 2007-12Identyfikacja cywilna 39,3 34,2-40,5 Identyfikacja kryminalna 19,2 24,6 23,6-17,8Kontrola dostępu i rejestracja czasu pracy 38,4 17,7 21,1-15,8 Dostęp do urządzeń/systemów 13,8 14,8-15,2 Identyfikacja konsumentów 3,6 4,1-6,8 Nadzór 2,0 2,2-4,0

W roku 2009 udział trzech ostatnich pozycji Tabeli 2 był niższy od prognozowanych na lata

2007-12, a identyfikacji kryminalnych – większy.

Tabela 3. Procentowy udział zastosowań wg Acuity Market Intelligence

Table 3. Percentage share of applications according to AMI publications

Rodzaj zastosowania 2009 Progn. 2017Dostęp fizyczny – –Dostęp logiczny – –Usługi identyfikacyjne 65,0 47,0Nadzór i monitoring 1,0 8,0

23

Page 25: Metody i aparatura do badania parametrów powierzchni przy ...

Natomiast w Tabeli 3 zaskakująca jest prognoza aż 8-krotnego wzrostu nadzoru w

roku 2017. W roku 1999 dominowała kontrola dostępu i rejestracja czasu pracy oraz

identyfikacja kryminalna.

Dramatyczne wydarzenia 11 września 2001 roku spowodowały wzrost

zainteresowania antyterroryzmem oraz ochroną granic i kontrolą imigrantów. Z tego względu

również gwałtownie wzrosło zainteresowanie rozwiązaniami biometrycznymi, zwłaszcza w

systemach wizowych. Pod koniec 2006 roku 37 krajów rozpoczęło wydawanie paszportów

biometrycznych, nazywanych e-paszportami. W końcu 2009 roku było ich już 65 [1]..Polska

uczyniła to 28 sierpnia 2006 jako 28 kraj [9]. Obecnie jest już dostępny raport o

zastosowaniach biometrii w dokumentach podróży [10].

Zastosowania nazwane w terminologii IBG rynkami pionowymi określane są

całkowicie odmiennie w przypadku IBG i AMI. Pokazują to tabele 4 i 5.

Tabela 4. Procentowy udział głównych rynków pionowych wg IBG

Table 4. Percentage share of main vertical markets according to IBG

Rodzaj rynku 1999 2006 Progn. 2007-12Rządowe 30,2 32,5 – 28,8

Przestrzeganie prawa 19,2 25,4 23,0 – 18,4

Transport 7,0 7,3 – 9,8

Samorządowe 6,5 6,9 – 6,0

Najnowsza technika i telekomunikacja 2,8 5,7 5,2 – 6,8

Wojsko 4,6 4,8 – 3,2

Sprzedaż detaliczna 4,4 4,3 – 7,4

Przemysł 3,9 4,1 – 4,7

Usługi finansowe 17,0 3,5 3,3 – 4,3

Opieka zdrowotna 9,6 3,1 2,8 – 3,8

Rozrywki i hotele 2,0 1,9 – 2,9

Tabela 5. Procentowy udział sektorów i działów oraz tempo ich wzrostu wg AMI

Table 5. Percentage share of global market sectors and areas and CAGR according to AMI

24

Page 26: Metody i aparatura do badania parametrów powierzchni przy ...

sektor 2009 Progn. 2017 średni wzrost roczny

Publiczny

e-granice 10e-identyfikacja 12e-rząd 14,23 42cały sektor 59,16 44,87 16

Komercyjny

bezpieczeństwo przedsiębiorstw 12transakcje informacyjne 12,21 50transakcje finansowe 18,22 37cały sektor 40,84 55,13 24

Z Tabeli 4 wynika, że dominują zastosowania rządowe, a więc dokumenty tożsamości

(łącznie z dokumentami podróży i prawami jazdy), ochrona granic i zarządzanie. Dane dla

roku 1999 nie są porównywalne z tymi dla lat późniejszych, bo dotyczą innego podziału, ale

prawdziwe są ich wzajemne relacje. Warto też zwrócić uwagę na usługi finansowe, których

udział w omawianym okresie nie był wysoki, ale obecnie przewiduje się jego wzrost w

związku z walką z oszustwami bankowymi. Natomiast podział pokazany w Tabeli 5 [5]

zawiera sektor publiczny i komercyjny wraz z wymienionymi tam działami. Transakcje

finansowe umieszczone są tu w sektorze komercyjnym i w 2017 roku mają stanowić ponad

18% całego rynku biometrycznego, przy 37 % wzroście rocznym.

Rynek

Prognozy rozwoju rynku biometrycznego przewidywane w kolejnych raportach cytowanych

już firm analitycznych pokazane są na rys. 1 [3-5].

0

2000

4000

6000

8000

10000

12000

2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017

lata

mln

USD

IBG 2007

IBG 2009

AMI 2007

AMI 2009

25

Page 27: Metody i aparatura do badania parametrów powierzchni przy ...

Rys. 1. Prognozy przychodów rynku biometrycznego z lat 2007 i 2009

Fig. 1 Revenue of global biometric market of 2007 and 2009

Widoczny jest tu wyraźny wpływ kryzysu finansowego z roku 2008, gdyż prognoza

IBG z roku 2009 dla tego roku była o ponad 25% niższa od tej z roku 2007. W przypadku

AMI różnica ta jest mniejsza, ale średni roczny przyrost dla prognozowanych okresów

wynosił 30,4% dla prognozy z 2007 roku, a tylko 19,7% dla prognozy z roku 2009. Skutkiem

kryzysu było też bankructwo firmy Pay-by-Touch i upadek programu CLEAR do

rejestrowania pasażerów w podróżach lotniczych, a także rezygnacja z brytyjskiego

programu praw jazdy w technice rozpoznawania twarzy [11]. Jednakże cały rynek

biometryczny okazał się dosyć odporny na kryzys dzięki dużemu udziałowi zastosowań

rządowych. Wiele firm uzyskało z tego źródła nowe fundusze.

Na rynku tym dokonała się znaczna konsolidacja. Z firm takich jak Identix, Visionics,

Viisage i innych powstała L-1 Identity Solutions z przychodem ponad 650 mln dolarów w

2009 roku. Proces ten prawdopodobnie będzie kontynuowany [1].

Obecnie należy docenić sukcesy biometrii stosowanej w kontroli granic i w walce z

terroryzmem. Biometria może być wykorzystana również do szerszych rozwiązań,

ułatwiających życie milionom ludzi. Świadczy o tym pomysł nadania wszystkim

mieszkańcom Indii numerów identyfikacyjnych [12], z którymi związane będą informacje

demograficzne i biometryczne o osobach im przypisanych, a także meksykański projekt bazy

danych wykorzystującej trzy techniki biometryczne – linie papilarne, rysy twarzy i tęczówkę

oka [13]. Dodatkowym atutem biometrii jest wysokie zaufanie do niej użytkowników,

potwierdzone badaniami przeprowadzonymi przez firmę Unisys [14].

Literatura:

1. The end of the decade, Biometric Technology Today, January 2010, 2. 1999 Market Review, Biometric Technology Today (BTT) December 1999/January

2000, str. 83. http://www.biometricgroup.com/reports/public/market_report.php , listopad 20074. http://www.biometricgroup.com/reports/public/market_report.php , listopad 20085. http://acuity-mi.com/Future_of_Biometrics.html 6. Rozbicki L., Szacki K., Wzór naczyń krwionośnych dłoni jako osobiste dane

identyfikujące, Problemy Biometrii, IMM 2009, str. 297. Agre J.:Biometric in emerging sectors, Biometrics 2008, session: Consumer-facing

biometrics8. High-Speed Image Capture for Palm Vein, Biometric Digest (BD), April 2009, str. 2

26

Page 28: Metody i aparatura do badania parametrów powierzchni przy ...

9. e-Passport status: 65+ countries now issuing, BTT January 2009, str.310. http://acuity-mi.com/Global%20ePassport%20&%20eVisa%20Industry

%20Report.html11. UK DVLA scraps biometric pilot…, BTT November/December 2008, str. 112. India’s massive biometric enrolment project comes a step closer. BTT July/August

2009, str. 113. Mexico to implement ‘game-changing’ tri-modal biometric ID project, BTT February

2010, str. 114. U.S. Consumers Trust Biometrics, Biometric Digest, December 2008, str.3

27

Page 29: Metody i aparatura do badania parametrów powierzchni przy ...

dr inż. Jolanta Brzostek-Pawłowska

Zmiany w modelach i technologiach informacyjnych w dobie Web 2.0 i Web 3.0

Changes in the models and information technologies in the era of Web 2.0 and Web 3.0

Wprowadzenie Zapoczątkowana przed kilku laty pojawieniem się pierwszych portali społecznościowych i udostępnianych na nich aplikacji, dziś zwanych aplikacjami społecznymi lub technologiami Web 2.0, rewolucja informacyjna w krótkim czasie zmieniła model informacyjny Internetu z modelu statycznych stron WWW niosących informacje na model interaktywnego udziału użytkowników tworzących strumienie informacji w czasie rzeczywistym. Web czasu rzeczywistego jest nową formą komunikacji zwiększającej o rząd szybkość informacji. Technologie Web 2.0 i szybkość komunikacji wpłynęły na zmiany w modelach informacyjnych realizowanych przez systemy, ponieważ zmieniły się postawy, potrzeby i oczekiwania użytkowników. Zjawisko społecznej wiedzy spowodowało inne podejście do zarządzania wiedzą – jej gromadzenia i dystrybucji. Dziś informacja adekwatna do potrzeby musi natychmiast dotrzeć tam, gdzie znajduje się użytkownik, przede wszystkim na stanowisko pracy, stacjonarne lub mobilne, by zwiększyć wydajność pracownika. By informacja była najbardziej wartościowa i najlepiej dostosowana do kontekstu, w jakim pojawiła się jej potrzeba, to z jednej strony mechanizmy wyszukiwania muszą obejmować jak najwięcej źródeł informacji, z drugiej strony informacje muszą być trafnie, wieloaspektowo opisane. Coraz doskonalsze technologie Web 3.0 mają za zadanie dostarczać wiedzę inteligentnie, czerpiąc ją również ze źródeł społecznych. Inteligentna dystrybucja wiedzy bazuje m.in. na szczegółowym opisie semantycznym gromadzonych informacji, jak również na wnikliwej analizie danych otrzymywanych od użytkownika, czemu służą tzw. semantyka Web 3.0, jak i mechanizmy sztucznej inteligencji. W artykule przedstawiony zostanie wpływ Web 2.0 na zmianę postaw i potrzeb użytkowników, na zmianę modeli biznesowych i systemów informacyjnych oraz przedstawione zostaną główne kierunki rozwoju technologii Web 3.0, wychodzących tym zmianom naprzeciw.

Charakterystyka Web 2.0Web 2.0, zwana też siecią drugiej generacji, charakteryzująca się interaktywnością stron (i użytkowników), rozpoczęła się od serwisów internetowych, udostępniających aplikacje społeczne (społecznościowe) umożliwiające użytkownikom przekazywanie i wymianę treści w postaci artykułów, opinii, komentarzy, porad, ocen i bycie tym samym ich współtwórcą. Serwisy społecznościowe umożliwiają użytkownikom nawiązywanie kontaktów i utrzymywanie łączności w czasie rzeczywistym, gromadzenie i wymianę zasobów (prezentacje, fotografie, wideo, audio), dają też narzędzia porządkowania i współdzielenia zasobów sieciowych. (zakładkowania, kategoryzacji, opisu, eksportu). Komunikacja i współpraca między użytkownikami może odbywać się tekstowo, głosem, obrazem wraz z głosem lub w środowiskach wirtualnej rzeczywistości atrakcyjnych ze względu na immersyjność, dostępnych komercyjnie (np. SecondLife) lub jako open source (np. OpenSimulator).

Technologie Web 2.0Tabela 1 przedstawia krótkie charakterystyki najbardziej popularnych technologii Web 2.0 wraz z przykładami.

28

Page 30: Metody i aparatura do badania parametrów powierzchni przy ...

Tabela 1 Technologie Web 2.0Lp. Typ technologii Web 2.0 Opis Przykłady

15

.

Social Networks/

Serwisy społecznościowe

Serwisy społecznościowe stwarzają możliwość autoprezentacji, wypowiadania się i umieszczania multimediów, zapraszania do kręgu znajomych, tworzenia grup zainteresowania i zapraszania do nich, przesyłania wiadomości i czatowania. Udostępniają interfejs programowy (API) do tworzenia aplikacji/nakładek m.in. w celu połączeń funkcji, użytkowników i/lub zasobów danego serwisu ze światem zewnętrznym (stronami i serwisami WWW).Serwisy społecznościowe, tworzące sieci społeczne kontaktów, mają na ogół swój charakteryzujący je profil i preferowane grupy docelowe użytkowników. Przykładowo serwisy LinkedIn i polski GoldenLine nastawione są na dorosłych użytkowników chcących rozwijać swoją karierę zawodową i kontakty biznesowe, zaś Facebook i NK-NaszaKlasa głównie wspierają kontakty towarzyskie akademickie i post-szkolne. Istnieją serwisy generyczne do tworzenia własnych portali społecznościowych (przykładem jest NING).

Facebook www.facebook.com,

LinkedIn www.linkedin.com ,GoldenLine www.goldenline.plNK-NaszaKlasa http://nk.pl MySpace www.myspace.com NING www.ning.com

16

. wiki

Samodzielne serwisy lub aplikacje internetowe umożliwiające tworzenie, współopracowywanie, recenzowanie strukturyzowanych artykułów, wzbogaconych o odwołania (linki) i obrazy. Artykuły odnoszą się do hasła, które definiują, wyjaśniają, opisują itp. Nie mogą zawierać promocji ani kryptopromocji. Istnieją też serwisy generyczne do budowania własnych baz wiedzy, w tym firmowych i lub produktowych, na mechanizmach Wiki (przykład PBWorks).

Wikipedia www.wikipedia.org Twiki http://twiki.org/ PBwiki (PBWorks) http://pbworks.com

17

.blogi Blogi to serwisy umożliwiające prowadzenie

dzienników (blogów) właścicielowi bloga w postaci chronologicznych wpisów, które przez osoby postronne mogą być komentowane lub opiniowane jako odpowiedzi do danego wpisu. Każdy właściciel zarządza swoim blogiem, również jego interfejsem graficznym. Wpisy mogą oprócz tekstu zawierać multimedia. Blogi przyjmują różne formy np.:

r. „zwykłe” blogi z tekstowym wpisem nieograniczonej długości lub ograniczonym np. blogi na Facebooku ograniczone są do 420 znaków;

s. mikroblogi – wpisy jednozdaniowe, mogą być też wzbogacane o linki i multimedia;

t. moblog – krótkie wpisy wysyłane z urządzeń mobilnych, popularna formą moblogów są fotoblogi i wideoblogi (z MMSów);

u. flog – blogi pseudoosobiste, opłacane

Blogger www.blogger.com blogs.com www.blogs.comTypePad www.typepad.com Twitter http://twitter.com/ Mablo www.mablo.pl BlogRadiohttp://www.podblogr.comb

29

Page 31: Metody i aparatura do badania parametrów powierzchni przy ...

przez firmę dla promocji produktów/usług;

v. audioblogi – wpisy są dźwiękowe, odpowiedzi również, mogą być prowadzone w czasie rzeczywistym przypominające audycje radiowe z udziałem aktywnym słuchaczy (prowadzącym jest bloger, uczestnikami osoby chcące zareagować na usłyszaną treść wpisu).

Blogi mogą być ze sobą powiązane, autorzy jednych blogów, komentują blogi innych, dając linki do swoich blogów, powstaje w ten sposób blogosfera z powiązanymi blogami.Blogi mogą być dystrybuowane kanałami audio (audioblogi) lub RSS.

23

. sharing/współdzielenie

Serwisy umożliwiające współdzielenie się zasobami (wstawianie własnych zasobów, pobieranie dostępnych, oglądanie/czytanie/słuchanie, komentowanie, ocenianie). Istnieją portale ze zdjęciami, nagraniami video lub audio, prezentacjami PowerPointa (lub w innym formacie), artykułami lub z zasobami mieszanymi. Serwisy kategoryzują zasoby. Są sprofilowane pod określoną grupę odbiorców lub temat (np. motoryzacyjne) lub ogólne.

Flickr www.flickr.com SlideShare www.slideshare.net Wrzuta.pl www.wrzuta.pl Patrz.pl http://patrz.p YouTube www.youtube.com

24

. bookmarking/zakładki

Aplikacje (np.Google Bookmarks) lub serwisy internetowe (Delicious - del.icio.us) dające możliwość przechowywania linków (zakładek) do stron wartych dla użytkownika zapamiętania i ewentualnie podzielernia się z innymi, jak również usuwania. W zależności od funkcji aplikacji/serwisu zakładki mogą stanowić zasób prywatny ewentualnie udostępniany przez użytkownika lub zasób prywatny publikowany na serwisie. Każda zakładka jest opisana, opatrzona może być słowami kluczowymi lub tagami lub/i kategorią/ami z przyjętej (zamkniętej) lub współtworzonej (otwartej) taksonomii istniejącej w aplikacji/serwisie. Jest to mechanizm tworzenia własnej bazy wiedzy i współdzielenia się wiedzą.

Google Bookmarks www.google.com/bookmarks Delicious - del.icio.us www.delicious.com Linkologia www.linkologia.pl

25

. events/zdarzenia

Serwisy przyjmujące, zarządzające i udostępniające informacje zgłaszane o wydarzeniach i miejscach. Zgłaszanemu wydarzeniu użytkownik przypisuje tagi i kategorie z istniejących taksonomii, służące wyszukiwaniu zdarzeń. Można zapisywać się na powiadomienia o zdarzeniach , można też promować własne wydarzenie i informacje o nim poprzez sieci społeczne , w których użytkownik uczestniczy, jak również poprzez płatne usługi m.in. Adds In dostępne w tego typu serwisach.

Zvents http://www.zvents.com eventful http://eventful.com EventFull.com http://eventfull.com

26

.

collaboration/ praca grupowa online, w

Serwisy udostępniające narzędzia zdalnej komunikacji, w tym komunikacji audio (np. czaty, telaudiokonferencje), tworzenia, zarządzania i wymiany dokumentów,

Zimbra Collaboration Suite www.zimbra.com Google www.google.com SecondLife

30

Page 32: Metody i aparatura do badania parametrów powierzchni przy ...

chmurze

kalendarzy, organizatorów i narzędzia o innych funkcjach ułatwiające pracę zdalnych zespołów użytkowników. Również serwisy ze środowiskami wirtualnej rzeczywistości mogą wspomagać pracę grupową m.in. wizualizując prace nad projektami, mogą też pełnić rolę taniej namiastki systemu videokonferencyjnego.

http://secondlife.com

27

. audio

Serwisy audio umożliwiają propagowanie informacji

bb. asynchronicznie w podcastach jako tematy w radiu internetowym lub jako audiowpisy blogów, na które można się zarejestrować,

cc. synchronicznie jako audycje radiowe, przykładowo w postaci audio-blogów, z zarejestrowanymi aktywnymi słuchaczami mogącymi online kierować do blogera audio-wypowiedzi ze swoich telefonów lub Skype’a, lubjako audiokonferencje, pomocne w zdalnej pracy grupowej.

BlogTalkRadio www.blogtalkradio.com Sirius Satellite Radio http://www.sirius.com Pandora Internet Radio www.pandora.com

30

. wideo

Wideo jest coraz popularniejszą technologią informacyjną , stosowaną w formie wideo podcastów (klipów) dostępnych na

życzenie, ładowanych w plikach na stronę klienta lub przesyłanych strumieniowo za pośrednictwem serwerów strumieniowych; coraz popularniejsze stają się wideo podcasty interaktywne („clickable”); również wideo podcasty mają zastosowanie w wideoblogach,

webminarów umożliwiających strumieniowe rozsyłanie w czasie rzeczywistym lub z niewielkim opóźnieniem prezentacji, zawartości ekranu, przeprowadzanie testów i ankietowania, czatowania

wideokonferencji internetowych , z możliwością wymiany dokumentów (praca grupowa),

transmisja na żywo z wydarzeń, również do środowiska wirtualnej rzeczywistości.

Istnieją internetowe serwisy zarządzające podcastami, serwisy świadczące usługi webminarowe/wideokonferencyjne, istnieje oprogramowanie komercyjne i open source do web castingów i wideokonferencji. Są wyszukiwarki internetowe wideo np. Google Video.

DimDim (wideo konerencje internetowe, webminary)http://www.dimdim.com

31

.fora dyskusyjne Fora służą prowadzeniu w trybie

asynchronicznym dyskusji wielu użytkowników na dany temat (wątek) zainicjowany wpisem, na który następnie przychodzą odpowiedzi poprzez wpisy przyporządkowane temu tematowi (tzn. hierarchicznie). Fora mogą być otwarte

Portal-forum matematyczne Matematyka.pl http://www.matematyka.pl

31

Page 33: Metody i aparatura do badania parametrów powierzchni przy ...

(anonimowe) lub wymagające rejestracji, mogą być ukierunkowane tematycznie lub ogólne. Najczęściej stanowią dostępną aplikację na portalach, mogą być samodzielnymi portalami, mogą też być aplikacjami włączanymi do wewnętrznych informatycznych systemów firmowych. Są moderowane przez wyróżnionego uczestnika forum.

32

. czaty

Czaty służą prowadzeniu, w trybie synchronicznym, rozmowy prywatnej dwóch uczestników, lub wielu uczestników w tzw. pokoju (tematycznym). Są serwisy czatowe jak Gadu-Gadu lub aplikacje wbudowane w serwisy internetowe lub w systemy informatyczne firmowe.

http://www.gadu-gadu.pl

33

.kanały komunikacyjne RSS/email/SMS

Kanały RSS, email, SMS w Web 2.0 służą do zwiększania zasięg dystrybucji treści tworzonych społecznie. Przykładowo: treść blogów w postaci audio podcastów

może być prenumerowana i dystrybuowana przez kanał RSS (dokładnie protokołem ATOM nowocześniejszym niż RSS), który w pierwotnym celu służył i służy do dystrybucji treści ze stron WWW;

emailem można przesłać treści ze świata wirtualnego (w którym np. trwa praca grupowa) do świata rzeczywistego (i odwrotnie);

informacja wysłana SMS’em może być umieszczona jako wpis na mikroblogu lub moblogu.

Serwisy Web 2.0 wykorzystują te kanały, np. serwis z informacjami o zdarzeniach może informacje o nich przesyłać przez RSS, jeśli użytkownik chce z kanału RSS skorzystać.Są serwisy wspomagające korzystanie z tych kanałów i uefektywniające prace z nimi, np. serwisy i aplikacje typu bacn (bacon) zarządzają emailami mniej wartościowymi, zamówionymi przez użytkownika, więc nie będącymi spamami, ale które nie muszą na bieżąco pochłaniać uwagi użytkownika i go dekoncentrować, takimi wiadomościami są np. zaprenumerowane newslettery, powiadomienia z serwisów społecznościowych. Przykładowo serwis BaconAid gromadzi i porządkuje emaile z powiadomieniami o aktywnościach lub zdarzeniach w serwisach, w których użytkownik jest zarejestrowany.

BaconAid www.baconaid.com

Technologie Web 2.0 generują strumienie informacji w czasie rzeczywistym, które podlegają konwersji tzn. informacje zgromadzone jedną technologią są lub mogą być dystrybuowane innymi technologiami. Treści wpisów na blogach mogą być dystrybuowane przez RSS lub technologie audio, inne przykłady zostały podane w Tabeli 1. Zwiększa się w ten sposób dostępność, zakres i szybkość informacji.

32

Page 34: Metody i aparatura do badania parametrów powierzchni przy ...

Cechy i wpływ Web 2.0Łatwość w komunikowaniu się, tworzeniu, współpracy i dzieleniu się treścią, jaką użytkownikom stwarzają technologie Web 2., jak również ich dostępność i niskie koszty używania obniżają bariery dla dostarczania, współdzielenia i rozpowszechniania treści.Coraz większe wykorzystanie społecznych aplikacji (np. 150 mln/dzień użytkowników Facebooka), w celu dzielenia się informacją, udzielania pomocy, znajdowania osób „sobie” podobnych, wzajemnego uczenia się i przekazywania wiedzy wymusza i powoduje zmiany postaw, organizacji pracy i procesów biznesowych, jak również zmiany w funkcjach i możliwościach systemów informacyjnych.

Obraz statystyczny - trendy używalności Web 2.0 przez pracowników i stosunek organizacji do Web 2.0

Ostatni raport, z końca 2010 r., gildy The Elearning Guild [1], dotyczący wykorzystania technologii 2.0. podaje dane z badań, którymi zostało objętych 1000 organizacji (przedsiębiorstwa, wyższe uczelnie, organizacje pozarządowe, administracja publiczna) z całego świata. Raport przedstawia poziom i trendy zainteresowania Web 2.0 pracowników i pracodawców w okresie trzech lat 2008-2010. Przedstawia również plany pracowników i organizacji na 2011 r. wykorzystania technologii 2.0.Największą popularnością wśród pracowników cieszy się czytanie blogów (codzienne – 71,1%), czytanie Wiki (codzienne - 70,9 %), korzystanie z Facebooka i LinkedIn (codziennie – odpowiednio 54,7% i 54,3%), mniejszym uznaniem cieszy się Twitter (26,8%), a najmniejsze zainteresowanie pracownicy wykazują tworzeniem podcastów (nigdy - 72,4% ) i pisaniem artykułów do wiki (nigdy – 66,9%). Jeśli chodzi o trendy używalności, to po zmniejszeniu zainteresowania Web 2.0 (z wyjątkiem Facebooka i Twittera) w okresie załamania gospodarczego, widoczna jest tendencja wzrostowa, z wyjątkiem spadku popularności zakładkowania (bookmarkingu). Warto zauważyć, że najsilniejszy wzrost popularności wykazuje Facebook, a zaraz za nim obrót fotografiami i tworzenie podcastów. W tym ostatnim wypadku można sądzić, że coraz bardziej upowszechniają się technologie tworzenia podcastów i wzrosły umiejętności odbiorców w tym zakresie, oprócz tego, że coraz bardziej preferowanym środkiem przekazu informacji jest obraz i audio (Rys. 1a i Rys. 1b).

33

Page 35: Metody i aparatura do badania parametrów powierzchni przy ...

Rysunek 1 a. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 1) Źródło: [1]

34

Najpopularniejsze czytanie wiki i blogów, gorzej z ich tworzeniem.

Największy trend wzrostowy – foto oraz Facebook (Rys. 1 b).

Page 36: Metody i aparatura do badania parametrów powierzchni przy ...

Rysunek 1 b. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 2)Źródło: [1]

Jeśli chodzi o postrzeganie Web 2.0 przez pracodawców, to wg pracowników organizacje wykazują coraz mniejszą obojętność w stosunku do korzystania przez pracowników z Web 2.0, zaś pracownicy coraz większą ochotę. Organizacje dostrzegają wiążące się z Web 2.0 kłopoty i problemy do rozwiązania, zwiększające się wraz z coraz większą popularnością Web 2.0 wśród pracowników. Opinia pracodawców o Web 2.0, ujawniona w ww. badaniach, wskazuje, że największa grupa organizacji (30,9%) stosuje pewne ograniczenia w dostępie do zewnętrznych technologii 2.0 (Rys. 2), np. wybiórczą kontrolę treści przed ich umieszczeniem na zewnątrz, najmniej liczną grupą (9,6%), i stale malejącą, są organizacje, które dają nieograniczony dostęp do 2.0. Wzrasta też liczba organizacji (w ciągu roku o ok. 4% do 19,9% w 2010 r.), które nie planują żadnych zastosowań 2.0, co może wynikać z lęku przed skutkami ich zastosowań. Z technologii 2.0, których wykorzystywanie przez pracowników (z firmy lub z domu) w największym stopniu są akceptowane przez organizacje należy wymienić: Wikipedię (90,9%), serwis społecznościowy LinkedIn (76,6%), pocztę elektroniczną Google gMail (71,8%) i aplikację iGoogle (70,4%) do prowadzenia osobistych stron WWW. Wyjaśnienia wymaga wysokie poparcie stosowania LinkedIn przy dużo

35

Najmniej popularne tworzenie podcastów, ale silnie wzrasta.

Page 37: Metody i aparatura do badania parametrów powierzchni przy ...

niższym Facebooka (67,0%). Wynika to z charakteru LikedIn ukierunkowanego na rozwój zawodowy i biznesowy. LinkedIn jest o wiele doskonalszym wcieleniem polskiego GoldenLine, a to m.in. dlatego, że zostanie członkiem LinkedIn wymaga referencji, co ma wpływ na wysoką jakość komunikacji i poziom informacji będącej w obrocie.Największe protesty budzi wykorzystywanie przez pracowników Facebooka (29,9%) i YouTube (26,4%), może dlatego, że są przez pracowników najintensywniej wykorzystywane, zaś pracodawcy w większości, bez względu na sektor do jakiego należą, nie widzą z tego korzyści biznesowych (Rys. 2).

Rysunek 2. Stosunek organizacji do technologii Web 2.0Źródło: [1]

Obraz statystyczny - plany organizacji dotyczące Web 2.0Przy istniejących obawach organizacji co do negatywnych skutków wynikających ze stosowania przez pracowników technologii 2.0 i przy słabym dostrzeganiu aspektu biznesowego, ok. 70% organizacji deklaruje jednak uwzględnienie tych technologii w planowanych przedsięwzięciach, pozostając przy obawach zawartych w pytaniach (bez odpowiedzi):

b) Jak chronić własność intelektualną treści wygenerowanych przez pracowników ?

c) Kto jest właścicielem treści powstałych ze współpracy grupy ?, d) Jak zachować wiarygodność i bezpieczeństwo współdzielonych treści ?

Korzyści z Web 2.0 widziane przez organizacje wynikające z luźnych wypowiedzi zawartych w ankietach badawczych [1] są następujące:

świetna metoda dzielenia się pomysłami na wskroś struktury organizacyjnej i pełnionych funkcji;

zwiększanie efektywności pracy; zwiększenie i poprawa współpracy;

36

Najwięcej uczelnie limitują dostęp

Słabo u wszystkich z planami biznesowymi w stosunku do Web 2.0

Najwięcej NGO przymierza się, podpatrując

Page 38: Metody i aparatura do badania parametrów powierzchni przy ...

lepsza komunikacja między pracownikami; zwiększona kreatywność i rozwiązywalność problemów; zmniejszenie dezinformacji; poprawa przepływu informacji wewnątrz organizacji, w tym między oddalonymi

geograficznie oddziałami.

Ten pozytywny obraz ulega deformacji po analizie danych zebranych z kwestionariuszy ankietowych, z których wynika, że np. 62,1% organizacji nie widzi związku między Web 2.0 a redukcją kosztów, ani związku (56,1%) z poprawą wydajności pracy czy uczenia się (Rys.3).

Rysunek 3. Pożytki z Web 2.0 widziane przez organizacjeŹródło: [1]

Problemem więc pozostaje, jak włączyć Web 2.0 do przedsiębiorstwa w sytuacji, gdy … im więcej przyjaciół na Twitterze, tym mniejsza produktywność ? Czyli jak dokonać transformacji formalnej i nieformalnej wiedzy pracownika w aktywa materialne ?

Zmiany modeli przyswajania wiedzy pod wpływem Web 2.0Pod wpływem Web 2.0 zmieniły się postawy i tendencje społeczne, które można wyrazić przez model „user”-centryczny i model niehierarchiczny pozyskiwania i przyswajania wiedzy. Model „user”-centryczny bardzo dobrze wyraża kilka zdań (angielskich), które przytacza w wywiadzie [2] Anya Kamenetz dla opisania postawy młodego pokolenia:

„….to have control over how I learn, what I learn, and where I learn.I'm not just a consumer, I'm a co-creator and collaborator.

I can share/mashup/remix knowledge.”Odbiorca wiedzy jest również jest współautorem, decydującym kiedy, gdzie i w jaki sposób ją zdobywa, przekształca i przyswaja.

37

Page 39: Metody i aparatura do badania parametrów powierzchni przy ...

Model niehierarchiczny zdobywania wiedzy wynika ze spłaszczania hierarchii organizacyjnej, przykładem mogą być społeczne grupy bez wyraźnego przywództwa osiągające cel, albo poziome, w poprzek hierarchii organizacyjnej zespoły zadaniowe. Zanika różnica między pracą a procesem uczenia się, wobec ogromnej dynamiki zmian potrzeb, wymagań, technologii. Stanowisko pracy, gdzie potrzebny jest online dostęp do wiedzy dla efektywnej realizacji zadań, jest jednocześnie stanowiskiem ciągłego uczenia się i podnoszenia kompetencji. Nieformalna nauka to 75%-80% procesu uczenia się, zarówno w pracy, jak i w szkole, w tym dużą rolę odgrywa uczenie się społeczne, zespołowe i korzystanie z wiedzy budowanej społecznie (nazywanej czasami w publikacjach mądrością tłumu lub inteligencją społeczną). Te tendencje społeczne dobrze wyraża nazwa popularnego systemu open source zarządzania treścią Joomla ! (Razem !).W tym odchodzeniu od autorytarnego przekazywania wiedzy, zmienia się też rola osób przekazujących wiedzę – z mędrca-nauczyciela w lidera, facylitatora. Model „sage on the stage” (prawd z ambony) staje się mniej potrzebny i mniej popularny.

Oprócz centryczności użytkownika i spłaszczenia hierarchii organizacyjnej tworzenia i przyswajania wiedzy, zauważalną tendencją jest „grywalizacja” (ang. edutainment) czyli oczekiwanie i dążenie do jak najatrakcyjniejszej formy przekazywania i przyswajania informacji przez gry i symulacje, cieszące się ogromną popularnością. „Grywalizacja” jest częścią immersyjności systemów informacyjnych, co będzie omówione w dalszej części artykułu.

Trendy potrzeb informacyjnychPracownik potrzebuje wiedzy na stanowisku pracy - tu i teraz, dokładnie takiej, jakiej potrzebuje. Zamiast dużych porcji szkoleń/wiedzy potrzebne są granulki wiedzy na stanowisku pracy, z których pracownik buduje sobie potrzebną wiedzę (agregacja wiedzy).Pracownik ustala ścieżki szkolenia (zdobywania wiedzy) zgodnie z potrzebami. Ścieżka edukacyjna zastępowana jest obecnie przez środowisko edukacyjne albo informacyjne, jakie pracownik sobie tworzy i jakie mu tworzy organizacja. Następuje indywidualizacja procesu dostarczania wiedzy (zgodnie z modelem centrycznym). Zwiększa się immersyjność przekazu wiedzy poprzez interaktywny udział użytkownika (gry, symulacje, ćwiczenia, sprawdziany), przyswajanie wiedzy przez „dotknięcie” np. konstrukcja projektu w wirtualnej rzeczywistości lub uliczne gry edukacyjne za pomocą urządzeń mobilnych z GPS i zastosowaniem w nich technologii rozszerzonej rzeczywistości. Imersyjność procesu informacyjnego (edukacyjnego), polegająca na aktywnym wprowadzaniu użytkownika w wirtualnych świat i prowokowaniu w nim użytkownika do aktywnych zachowań, w głównej mierze opiera się na zastosowaniu multimediów, animowanego obrazu 2D i 3D, możliwości lokalizacji geograficznej użytkownika, rozpoznawaniu otoczenia, rozpoznawaniu obrazu i gestów, uzyskiwania w czasie rzeczywistym od mobilnego użytkownika informacji, jak również zdobywania w czasie rzeczywistym informacji o nim i dokładnie dla niego. Więcej informacji o zastosowaniach wirtualnej i rozszerzonej rzeczywistości w procesach informacyjnych i edukacyjnych oraz o imersyjności systemów informacyjnych zawartych jest w pracy [3].

Co oferuje Web 3.0 ?Web 2.0 spowodował z jednej strony duże uspołecznienie w komunikacji oraz tworzeniu treści i wiedzy, z drugiej strony nastąpiło zwiększenie egocentryzmu użytkowników i potrzeby indywidualizacji kontaktów i procesów informacyjnych. Potrzeba indywidualizacji wynika również z powodu natłoku informacji i konieczności wsparcia użytkownika w poszukiwaniu i dostępie do właściwej informacji. W wyniku kilkuletnich doświadczeń z Web 2.0 powstały i powstają ogromne zasoby treści - potencjalne źródła wiedzy dla

38

Page 40: Metody i aparatura do badania parametrów powierzchni przy ...

użytkowników. Istnieje potrzeba szybkiej dystrybucji tej wiedzy, dokładnie wg potrzeb, czyli skutecznie i efektywnie. Trwa rozwój technologii Web - od Web 2.0 do Web 3.0. Modelowi „user”-centrycznemu towarzyszy rozwój modelu decentralizacji i adaptacyjności wirtualnej platformy dostarczającej danych i funkcji. Biorą się one „z chmury”, z oprogramowania SaaS, z przeglądarek WWW, z komputerów stacjonarnych i urządzeń mobilnych, z zasobów społecznych i prywatnych, dzięki otwartym interfejsom API, standardowym protokołom WWW, formatom danych z dobrze opisaną ich semantyką. Dane są zabezpieczane otwartymi protokołami bezpieczeństwa i standardami. Web 3.0 „popycha” przedsiębiorstwa od działań opartych na zamkniętych, systemach strzegących własności w kierunku większej otwartości działania, charakteryzującego się dzieleniem się zasobami i ich współużywalnością oraz współpracą.

MashupIdeą Web 3.0 jest automatycznie dostarczać i zarządzać informacją jak najlepiej dostosowaną do potrzeb użytkownika. Web 3.0 to, w skrócie, automatyczne, rozumne, inteligentne i szybkie dostarczanie treści. Web 3.0 to sposób kreacji nowej wiedzy z istniejących zasobów Internetu za pomocą inteligentnego oprogramowania komputerowego.To co dziś charakteryzuje Web 2.0 i Web 3.0 to: wirtualna agregacja danych i funkcji z wielu źródeł (mashups), przetwarzanie w chmurze - model SaaS oprogramowania (cloud computing), informacje z sieci społecznych (lifestreaming), informacje w czasie rzeczywistym (real-time Web), informacyjna efektywność stron WWW (technologia programistyczna Ajax), rozumienie semantyczne informacji w/z Internetu (semantic Web).Powyższe technologie i zjawiska objęte są terminem „mashstream” (agregowany strumień z wielu źródeł). Web 3.0 często jest kojarzony z mashup, który bazuje na otwartych, współużywalnych zasobach danych i funkcji w technologiach internetowych. Web 3.0 i mashup w przedsiębiorstwie powoduje ewolucję w modelach biznesowych. Wymagają one odpowiedniej infrastruktury. By ją utworzyć i utrzymać, potrzebne są technologie, interfejsy, narzędzia oraz serwery. Przykładowymi:

technologiami są HTML/XHTML, XML, AJAX, REST, RDF, RSS/Atom, Widgets/Gadgets;

otwartymi protokołami umożliwiającymi sięgnięcie do danych społecznych i funkcji są YouTube API, YouTube Player, YooTube Widgets;

narzędziami zwanymi edytorami mashupu są Google App Engine (środowisko do tworzenia aplikacji mashup opartych o infrastrukturę Google), lub Yahoo!Pipes (edytor do agregowania, wg zdefiniowanego kryterium, danych z różnych źródeł Web jako nową, nazwaną porcję wiedzy).

Istotę mashupu bardzo dobrze ilustruje obrazek (Rys.4) wyłaniającego się kształtu gruszki z kilku różnorodnych warstw – plasterków owoców, umieszczonego na okładce książki J.J. Hanson’a „Mashups”. Proces tworzenia (edycji) mashupu, przykładowo - przy pomocy Yahoo! Pipes, przedstawia Rys 5., a Rys. 6. ilustruje proces agregowania nowej wiedzy z zasobów z różnych źródeł.

39

Page 41: Metody i aparatura do badania parametrów powierzchni przy ...

Rysunek 4 Ilustracja idei mashup’uŹródło: pierwsza strona okładki [4]

Rysunek 5. Przykład edycji mashupu w Yahoo! PipesŹródło: własne

Nowa porcja wiedzy jest tworzona pod indywidualną potrzebę użytkownika. Tworzona jest z wielu źródeł, społecznych i prywatnych, z najbardziej wartościowych elementów informacyjnych (wg społecznych ocen), uporządkowanych wg ważności (stopnia dopasowania), z najbardziej relewantnych w stosunku do zapytania (zgłoszonej potrzeby). Wyszukiwanie elementów odbywa się zgodnie z ich semantycznymi opisami wg przyjętych ontologii. Opisy elementów zawarte są albo w treści elementów albo w oddzielnych plikach towarzyszących elementom. Powstający

40

Page 42: Metody i aparatura do badania parametrów powierzchni przy ...

nowy „artykuł” (nowa porcja wiedzy) może być opatrzony własnymi opisami (komentarze, opinie, oceny) użytkownika i zapamiętany. Proces tworzenia wiedzy „mashupowej” ilustruje Rys. 6.

Dla wybranego tematu pobierane są lub przekazywane najbardziej wartościowe treści z publicznych i prywatnych zasobów.

By utworzyć bazę wiedzy powstałą z mashup’u, treści muszą byćzestrukturalizowane, uporządkowane i muszą mieć przypisany kontekst.

Odbiorca wiedzy uzyskanej przez mashup może ją uzupełniać swoimi komentarzami, opiniami i uwagami.

Odpowiedzialni za mashup(twórcy) muszą treściom zapewnić kontekst, używając do tego np. konspektów, map treści, listy referencyjnej, osi czasu, syllabusa

Rysunek 6 Ilustracja „knowledge mashup”Źródło: własne

Semantyka Web 3.0W Web 3.0 rozwijają się technologie semantyczne i semantyczne wyszukiwanie treści. Te technologie są stosowane w mashupie. Semantyka w sensie Web 3.0, różni się od semantyki języków naturalnych. Jest prostsza. Zasób jest semantycznie opisywany, by wg tego opisu mógłby być wyszukany. Semantyczne metadane, opisujące zasób, mogą znajdować się wewnątrz zasobu (np. wewnątrz strony html) lub w zewnętrznym pliku, na który jest wskazanie w zasobie. Metadane tworzone są w języku XML-podobnym RDF1 wg słowników ontologicznych (ontologii). Treść pliku .rdf jest zapisem (opisem) treści zasobu językiem danej ontologii (z użyciem elementów ze słownika ontologicznego) w formacie narzuconym przez język RDF. Ontologie można określić jako słowniki hierarchiczne - taksonomie, z dodanymi relacjami między elementami ontologii lub między ontologiami, co lepiej i szczegółowiej pozwala opisać zasób. Można zrobić odniesienie ontologii do zasad programowania obiektowego i relacji między klasami, klasami i obiektami i ich właściwościami. Ontologie są dziedzinowe np.: SIOC2 – do opisu dyskusji w forach, blogach, emailach; FOAF3 – do opisu osób – uczestników Web 2.0; Good Relations – do opisu w e-handlu produktów, cen, firm; SKOS4 – do opisu systemów organizacji wiedzy, jak semantycznych specyfikacji słowników, taksonomii, tezaurusów. Językiem opisu

1 RDF – Resource Description Framework2 SIOC - Semantically-Interlinked Online Communities3 FOAF - The Friend of a Friend4 SKOS - Simple Knowledge Organization System

41

Page 43: Metody i aparatura do badania parametrów powierzchni przy ...

ontologii jest język OWL5. Zasób może być opisany w więcej niż jednej ontologii, równolegle z „tradycyjnymi” opisami metatagami HTML. Ponieważ procesy opisywania zasobów metadanymi są czasochłonne i wymagają kompetencji, co jest przyczyną dość powolnego rozwoju sieci semantycznych, dostępne są narzędzia wspomagające tworzenie ontologii i tworzenie opisów (plików .rdf) wg ontologii, zwane edytorami i generatorami RDF. Nowszą technologią opisu semantyki zasobów są mikroformaty (tagi) związane ze standardem HTML5. Nie są jeszcze tak popularne jak .rdf i nie wszystkie wersje przeglądarek WWW akceptują HTML5. Zasoby są indeksowane na podstawie opisów semantycznych. Z indeksów semantycznych korzystają semantyczne wyszukiwarki, takie jak Swoogle, Sindice, FalconS. Istnieją oczekiwania, by Google objął indeksacją pliki .rdf i wtedy szybciej by się upowszechniła semantyka Web 3.0 i korzyści z tego płynące. Rysunek 7 przedstawia zarys sieci semantycznej i semantycznego wyszukiwania.

wwwhtml

html.rdf

.owl

.rdf

Plik z ontologią XPlik .rdfz opisem semantycznym

Wyszukiwarka semantyczna

.rdf

..owl

1. Ontologie (słowniki taksonomiczne z relacjami w standardzie OWL - Web Ontology Language).

2. Metadane semantyczne (pliki .rdf w standardzie RDF - Resource Description Framework z opisami wg przyjętej ontologii)

3. Indeksowanie pliku .rdf

4. Wyszukiwanie semantyczne: relewantne dokumenty, uporządkowane wg ważności i podobieństwa

Siećsemantyczna

Google ?

Plik z ontologią Y

Rysunek 7. Schemat wyszukiwania w sieci semantycznejŹródło: własne

Gdy zasoby nie są stronami html, a znajdują się w repozytoriach, dochodzi potrzeba komunikacji miedzy wyszukiwarką semantyczną a repozytorium. Jest kilka standardów języków (protokołów) komunikacji z repozytoriami takie jak OAI-PMH6, XMI7 (dla metadanych w standardzie MOF8), IMS DRI9, CORDRA10. Najczęściej wyszukiwarki „dogadują się” z repozytoriami w języku OAI-PMH. W repozytoriach zasoby są opisane w różnych standardach metadanych, w różnych ontologiach. Przykładem lżejszej ontologii, niespecjalizowanej i nierozbudowanej jest popularna ontologia Dublin Core do opisywania różnych zasobów, np. w bibliotekach

5 OWL – Web Ontology Language6 OAI-PMH - Open Archives Initiative Protocol for Metadata Harvesting7 XMI - Metadata Interchange8 MOF - Meta-Object Facility9 IMS DRI - IMS Digital Repositories interoperability10 CORDRA - Content Object Repository Discovery and Registration

42

Page 44: Metody i aparatura do badania parametrów powierzchni przy ...

cyfrowych. Innymi standardami metadanych są np.: IEEE LOM11 i IMS LOM - do opisu kontentu edukacyjnego; S1000 - do opisu dokumentacji technicznej, zwłaszcza sprzętu; DocBook - do opisu dokumentacji technicznej oprogramowania. Rozbudowane wyszukiwarki akceptują wiele standardów opisu. Zwłaszcza, że współpracują z repozytoriami metadanych, tzw. harvesterami, które gromadzą metadane o zasobach w różnych standardach znajdujących się z repozytoriach zasobów. „Harvestery” są pośrednikami między wyszukiwarkami i repozytoriami z zasobami.

Strukturyzacja zasobów informacyjnychIm większa strukturyzacja zasobu informacyjnego, tym możliwy jest precyzyjniejszy jego opis i większe prawdopodobieństwo wyszukania nie tylko całego zasobu, ale również jego części. Każdy element struktury zasobu, wyodrębniony przez autora/ów, jak i cały zasób, może być opisany wg przyjętego standardu, najbardziej pasującego semantycznie. Przykładowo wyszukiwarka kontaktów Friend Find Facebooka korzysta z metadanych opartych o ontologię, wcześniej wymienioną, FOAF. Narzucona przez ontologię struktura metadanych obrazowana jest w formularzach elektronicznych, które użytkownik wypełnia np. w formularzu swojego profilu, i wg tych danych może być wyszukiwany. Bloger ma możliwość otagowania blogu lub wpisu, czytelnik blogu dodać mu swojego „lajka” („lubię to”). Treść wpisu może być wyszukana wg słów kluczowych w procesie mashupu (np. przez agregatory blogów takich jak Google Blocksearch) i uporządkowana wg wartości nadanej społecznie poprzez liczbę „lajków”. Na tle zestrukturalizowanych zasobów w serwisach społecznościowych i w blogach, zasoby Wikipedii są opisane skromnie – artykuł ma autora, tytuł, kategorię, datę zmiany, słowa kluczowe. Dlatego jednym z ciekawszych projektów jest znany DBpedia Project [6] mający na celu lepsze wykorzystanie ogromnych zasobów Wikipedii, poprzez ich większe zestrukturalizowanie i opisanie wg odpowiednich ontologii, by artykuły i ich części mogły być wykorzystane poza systemem Wikipedii np. w przeglądarkach otoczenia [5]. W końcu 2010 r. DBpedia dysponowała 1,67 miliona (z istniejących pond 3,5 mln) sklasyfikowanych semantycznie elementów informacyjnych wg spójnych ontologii. Opisane elementy dotyczą m.in. 364 000 osób, 462 000 miejsc, 99 000 albumów muzycznych, 54 000 filmów. O strukturyzacji zasobów i opisie semantycznym, np. dokumentacji, podręczników, warto pamiętać przy ich tworzeniu, zapisując ich treść zgodnie z przyjętym standardem/ontologią i/lub tworząc w tym standardzie (lub w kilku) plik (pliki) z metadanymi. Tak przygotowane zasoby będą mogły uczestniczyć w procesach wyszukiwania semantycznego dostarczając adekwatną do potrzeby granulkę wiedzy użytkownikom np. o produkcie lub technologii w czasie nauki i/lub pracy.

(Mega)tendencje technologiczne i przykłady nowoczesnych systemów informacyjnychStały wzrost szybkości transmisji danych i obniżające się jej jednostkowe koszty powodują wzrost usieciowienia. Za tym idzie wzrost zakresu i możliwości wirtualizacji – dalszego rozwoju modelu SaaS i przetwarzania w chmurze. Popularnym kierunkiem rozwoju systemów jest korzystanie z zasobów „z chmury”, funkcjonalnych i informacyjnych - z zasobów serwisów społecznościowych, z Google Apps, w wyniku otwartych interfejsów programistycznych API. Nowe systemy projektowane są często jako „nakładki” na Google. Wirtualizacja zaczyna obejmować również działania ludzkie, które w rzeczywistości nie

11 LOM – Learning Object Metadata

43

Page 45: Metody i aparatura do badania parametrów powierzchni przy ...

mogą być realizowane, ponieważ coraz większe kłopoty z pracą i coraz więcej posiadanego czasu wolnego kieruje uwagę ludzi do wirtualnych środowisk, gdzie mogą się realizować zawodowo (np. być aktorami, nauczycielami) lub społecznie (np. w grupach dyskusyjnych). Tempo i ciągłe zmiany technologii, wymagań i wynikających stąd potrzeb, zwłaszcza w miejscu pracy, powoduje zwiększające się zapotrzebowanie na informacje/wiedzę „on line” „na żądanie”, „adaptatywną”, „just-in-time”. Zwiększająca się automatyzacja, wsparta inteligencją systemów, zastępuje w coraz większym stopniu nie tylko pracę rąk, ale umysłów. Zwiększa się otwartość na współpracę, wynikająca z oddolnych społecznych działań Web 2.0. Aplikacje społeczne, takie jak fora, blogi, czaty wprowadzane są do rozwiązań biznesowych: do informacyjnych systemów korporacyjnych, systemów zarządzania korporacyjną bazą wiedzy, do systemów edukacyjnych, do e-kursów. Korporacyjne zasoby wiedzy uzupełniane są wiedzą czerpaną z zasobów społecznych zewnętrznych i wewnętrznych. Coraz powszechniejszym modelem udostępniania funkcji jest open source (na licencjach płatnych i nieodpłatnych) i usługi wspomagające odbiorców open source w utrzymywaniu tych rozwiązań. W związku z dynamicznie rozwijającymi się potrzebami wiedzy/informacji, na żądanie, dostarczanej do miejsca, w którym znajduje się odbiorca, systemy informacyjne ulegają funkcjonalnym rozszerzeniom i przekształceniom, np. edukacyjne systemy typu LMS12

przekształcają się w systemy zarządzania wiedzą KMS13 m.in. w wyniku współpracy z zewnętrznymi repozytoriami zasobów informacyjnych, serwis Facebook we współpracy z Google Analytics może pełnić rolę platformy edukacyjnej LMS m.in dzięki otwartemu interfejsowi API i otwartemu interfejsowi API Google Analytics, środowiska wirtualne MUVE14, np. SecondLife, mogą pełnić rolę systemów pracy grupowej, bądź systemów edukacyjnych.Silnie rozwija się immersyjność systemów informacyjnych, zwłaszcza w zastosowaniach edukacyjnych i wsparciu informacyjnym na stanowisku pracy. Imersyjne rozwiązania, umożliwiające interaktywność użytkowników i dostosowanie przekazywanej wiedzy do bieżącej potrzeby, wykorzystują technologie wirtualnej rzeczywistości, rozszerzonej rzeczywistości, rozpoznawania gestów, obrazu i lokalizacji użytkownika. Przykładami nowoczesnych systemów informacyjnych, na których budowie i funkcjonowaniu odcisnęły ślad technologie Web 2.0 i Web 3.0, są:

system zarządzania korporacyjną wiedzą Absolutely! (AHG Inc.) [7], który współpracuje z Google Apps korzystając z zasobów „z chmury” oraz ma wbudowane aplikacje społeczne służące do rozwijania przez pracowników wewnętrznej bazy wiedzy;

system InGenius (SkillSoft PLC) [8] zarządzania wiedzą firmową stanowiący przykład rozwinięcia systemu e-learningowego LMS w kierunku KMS i włączenia technologii społecznych Web 2.0, również zewnętrznych – Facebook i Twitter;

DBMobile [6] – mobilny system informujący o bieżącym otoczeniu użytkownika (osobach, obiektach, miejscach) za pomocą obiektów wirtualnej rzeczywistości zawierających informacje z DBpedii - zestrukturalizowanych semantycznie zasobów Wikipedii (produkt projektu DBpedia);

SZOK (KIGEiT, Polska) [9] system w modelu SaaS, w fazie opracowywania, zarządzania dokumentami, będący nakładką na Google Apps.

Zakończenie

12 LMS – Learning Management System13 KMS – Knowledge Management System14 MUVE – Multiuser Virtual Environment

44

Page 46: Metody i aparatura do badania parametrów powierzchni przy ...

Media społeczne będą nadal się rozwijać jako źródła treści i weryfikacji treści. Wzrośnie liczba tych, co będą wiedzieli, jak dla własnych potrzeb zagospodarować te media. Wiedza społeczna („mądrość tłumu”) będzie główną strategią pozyskiwania wiedzy, zwłaszcza przez osobników mocno usieciowionych (w sieciach społecznych). Społeczne pozyskiwanie wiedzy stanie się nowym modelem w zarządzaniu wiedzą. Będzie rosło znaczenie współpracy społecznej dla podnoszenia wiedzy i jako wsparcie na stanowisku pracy (performance support), w tym z zastosowaniem rzeczywistości rozszerzonej. Połączenie technologii mobilnych i społecznych będzie katalizatorem nowych, silniejszych strategii uczenia się i wspierania na stanowisku pracy. Adopcja technologii mobilnych w procesach uczenia się i pomocy w pracy będzie zmieniać systemy wspomagające edukację LMS, LCSM15, KMS i EPSS16 m.in. w kierunku większej współpracy w udostępnianiu swoich repozytoriów kontentu, jak i wykorzystywania zasobów społecznych. Potrzeba zwiększonej interoperacyjności systemów będzie wymagała zwiększonych wysiłków twórców systemów w zakresie standaryzacji zapisów i semantycznych opisów kontentu, jak również jego większej strukturyzacji, niezbędnej dla mobilnych urządzeń i zwiększającej skuteczność wyszukiwania.

Literaturab) Shank P.: Learning 2.0, the Elearning Guild Research, 2010 c) Kamenetz A.: How Startl Is Hacking Education From the Outside In,

www.fastcompany.com/article/startl-hacking-education , 2010d) Brzostek-Pawłowska J.: Imersyjna edukacja: zastosowania wirtualnej rzeczywistości w

elektronicznych kursach, Prace Naukowo-Badawcze Instytut Maszyn Matematycznych, nr 2/2009 (12)

e) Hanson J.J.: Mashups: strategies for the modern enterprise, Addison-Wesley, 2009f) Brzostek-Pawłowska J.: Między Web 2.0 i 3.0: Mobilne systemy informacyjne z

rozszerzoną rzeczywistością, Elektronika, nr 11/2010

Netografiag) http://dbpedia.org h) www.ahg.com i) http://www.skillsoft.com/products/inGenius/default.asp j) http://www.kigeit.org.pl/informacje/szok/iSZOK_ogolne.htm

15 LCMS – Learning Content Management System16 EPSS - Electronic Performance Support Systems

45

Page 47: Metody i aparatura do badania parametrów powierzchni przy ...

Zastosowanie map semantycznych w symulacji robota mobilnegoApplication of semantic maps for mobile robot simulation

Dr inż. Janusz Będkowski, prof. dr hab. inż. Andrzej MasłowskiInstytut Maszyn Matematycznych

StreszczenieW artykule przedstawiono algorytm budowy mapy semantycznej wykorzystanej w

tworzeniu modelu otoczenia robota mobilnego na potrzeby symulacji. Dane gromadzone są za pomocą robota mobilnego wyposażonego w laserowy system pomiarowy 3D. Wirtualna scena zbudowana z kilku semantycznych elementów powiązanych zdefiniowanymi zależnościami jest rdzeniem zaproponowanego „silnika semantycznej symulacji”. Budowa map semantycznych jest ciągle wyzwaniem ze względu na złożoność tego problemu. Istnieje wiele rozwiązań robotycznych wykorzystujących mapy semantyczne zawierające liczne elementy, na bazie której możliwe jest zaawansowane sterowanie robotem mobilnym wykorzystujące podejmowanie decyzji na wysokim poziomie abstrakcji. W pracy przedstawiona jest nowa realizacja mapy semantycznej służąca do automatycznego tworzenia fizycznego modelu zintegrowanego z symulacją robota mobilnego. Mapa semantyczna jest tworzona na podstawie danych 3D zebranych przez robota mobilnego pracującego w środowisku INDOOR. Dane są następnie przetransformowane wykorzystując mapę semantyczną do modelu fizycznego NVIDIA PhysX. Model fizyki jest wykorzystany do symulacji robota inspekcyjno interwencyjnego wykorzystującej wykrywanie kolizji oraz symulację brył sztywnych.

AbstractThe paper concerns the algorithm of semantic mapping applied for automatic virtual

scene generation. Data is acquired by a mobile robot equipped with 3D laser measurement system. The virtual scene composed by several entities and relations between them is the core of the proposed semantic simulation engine. Semantic mapping is still an open problem because of its complexity. There are several robotic applications that use semantic information to build complex environment maps with labeled entities, therefore advanced robot behavior based on ontological information can be processed in high conceptual level. We are presenting a new approach that uses semantic mapping to generate physical model of an environment that is integrated with mobile robot simulator. Semantic map is generated based on 3D data acquired by a mobile robot in INDOOR environment. This raw data is transformed into a semantic map and then NVIDIA PhysX model is constructed. The PhysX model is used to perform an inspection intervention mobile robot simulation in which collision detection and rigid body simulation is available.

KeywordsMobile robot, operator training, simulation, semantic map, image processing.Robot mobilny, trening operatora, symulacja, semantyczna mapa, przetwarzanie obrazów.

IntroductionIn this paper a new concept of using semantic map for robot operator training purpose

is described. The approach consists of 3D laser data acquisition, semantic elements extraction (using image processing techniques) and transformation to rigid body simulation engine, therefore the State Of the Art related to those research topics will be discussed. The combination of a 2D laser range finder with a mobile unit was described as the simulation of a 3D laser range finder in [1]. In this sense we can consider that several researches are using so

46

Page 48: Metody i aparatura do badania parametrów powierzchni przy ...

called simulator of 3D laser range finder to obtain 3D cloud of points [2]. The common 3D laser simulator is built on the basis of a rotated 2D range finder. The rotation axis can be horizontal [3], vertical [4] or similarly to our approach (the rotational axis lies in the middle of the scanners field of view).

Semantic information extracted from 3D laser data is recent research topic of modern mobile robotics. In [5] a semantic map for a mobile robot was described as a map that contains, in addition to spatial information about the environment, assignments of mapped features to entities of known classes. In [6] a model of an indoor scene is implemented as a semantic net. This approach is used in [7] where robot extracts semantic information from 3D models built from a laser scanner. In [8] the location of features is extracted by using a probabilistic technique (RANSAC). Also the region growing approach [9] extended from [10] by efficiently integrating k-nearest neighbor (KNN) search is able to process unorganized clouds of points. The semantic map building is related to SLAM (Simultaneous Localization And Mapping) problem [11]. Most of recent SLAM (Simultaneous Localization And Mapping) techniques use camera [12], laser measurement system [13] or even registered 3D laser data [14]. Concerning the registration of 3D scans described in [15] we can find several techniques solving this important issue. The authors of [16] briefly describe ICP (Iterative Closest Points) algorithm and in [17] the probabilistic matching technique is proposed. In [18] the mapping system that acquires 3D object models of man-made indoor environments such as kitchens is shown. The system segments and geometrically reconstructs cabinets with doors, tables, drawers, and shelves, objects that are important for robots retrieving and manipulating objects in these environments.

A detailed description of computer based simulators for unmanned vehicles is shown in [19] [57]. Also in [20] the comparison of real-time physics simulation systems is given, where a qualitative evaluation of a number of free publicly available physics engines for simulation systems and game development is presented. Several frameworks are mentioned such as USARSim which is very popular in research society [21], Stage, Gazebo [22], Webots [23], MRDS (Microsoft Robotics Developer Studio) [24]. Some researchers found that there are many available simulators that offer attractive functionality, therefore they proposed a new simulator classification system specific to mobile robots and autonomous vehicles [25]. A classification system for robot simulators will allow researchers to identify existing simulators which may be useful in conducting a wide variety of robotics research from testing low level or autonomous control to human robot interaction.. To ensure the validity of robot models, NIST proposes standardized test methods that can be easily replicated in both computer simulation and physical form [26].

In this paper we propose a new idea of semantic map building, this map can be transformed into rigid body simulation. It can be used for several applications such as robot operator training. It is a new idea and can give an opportunity to develop training systems composed by real and virtual robots. We hope that it will improve multi robot system design and development. The paper is organized as follows: in section “Robot” robot and its data acquisition module is described. In section “Semantic map approach” we explained the semantic map concept applied to walls and stairs detection. Section “Semantic simulation engine” describes the core of proposed simulation system. The final discussion is given in the “Conclusion”.

RobotThe robot used is an ActiveMedia PIONEER 3AT, equipped with SARA (Sensor Data

Acquisition System for Mobile Robotic Applications). SARA is composed by 2 lasers LMS SICK 100 orthogonally mounted. Bottom laser can rotate, therefore it delivers 3D cloud of

47

Page 49: Metody i aparatura do badania parametrów powierzchni przy ...

points in stop-scan fashion. Ethernet camera delivers image data available via web browser. Figure 1 shows the hardware and data visualization.

Figure 1: Robot PIONEER 3AT equipped with SARA (Sensor Data Acquisition System for Mobile Robotic Applications). From left: robot, image from onboard camera, 3D cloud of points.Rysunek 1: Robot PIONEER 3AT wyposażony w SARA (Sensor Data Acquisition System for Mobile Robotic Applications ). Od lewej: robot, widok z kamery, chmura punktów 3D.

Rotated SICKThe rotational axis lies in the middle of the scanners field of view. To rotate the

scanner we use a computer controlled PTU-D46-17.5 pan-tilt unit from Directed Perception. A horizontal scan point without rotation of pan tilt unit would have the coordinates

;0;sin;cos iiiiiii zryrx (1)with i as an angle between optical axis and the laser beam, ir as corresponding distance. Taking into account the additional rotation around the optical axis X (figure 1) leads to

;sinsin;cossin;cos iiiiiiiii rzryrx (2)with as the rotation angle around X axis measured form Y counterclockwise.

Semantic map approachThe proposed approach is dedicated to structured INDOOR environment where floor

is flat and walls are straight and orthogonal to floor and ceiling, stairs are parallel and ergonomic. It is obvious that if we try to use this approach in unstructured environment, algorithm will generate numerous not-labeled objects. To find semantic objects such as “wall”, “ceiling”, “floor”, “doors” (with joint), “stairs” we are using a new idea that is based on prerequisites generation from projected single 3D scan (onto OXY plane for “wall”, “door”, “stairs” and onto OXZ for “ceiling” and “floor”). Prerequisites are generated using image processing techniques such as Hough transform for line extraction. The prerequisites are checked in next step, if the constraint in satisfied, the semantic object is assigned. For instance if we assume 3D scan projected onto OXY plane, a single line is related to a “wall” prerequisite, 3 parallel lines are prerequisite of “stairs”, 2 connected lines are prerequisite of opened doors and the connection can be a joint. Single long line in 3D scan projected onto OXZ plane is a prerequisite of “ceiling” and “floor”. In next subsection we introduce the algorithm for line extraction from projected 3D scan.

Line extraction from projected 3D scanIn figure 2 the rectangle of 3D scan projection onto OXY plane is shown. We assume that robot is located on a surface (in other case additional pitch/roll sensors can be used), therefore projected wall, doors and stairs determine the line on the considered binary image. The same assumption is related to ceiling and floor detection in case of 3D scan projection onto OXZ plane. We consider the region 10m x 10m because of the acceptable distance between closest measured 3D points. On the same figure the correspond image coordinates are shown for instance point Pxy=(-5, -5) corresponds to Puv=(0, 0). The image size is 512 pixels width, 512

48

Page 50: Metody i aparatura do badania parametrów powierzchni przy ...

pixels height, therefore one pixels occupies the rectangle region approximately 20cm x 20cm. The step of line extraction algorithm is to compute the sum of projected points for each pixels. This approach has a disadvantage caused by the 3D data acquisition technique. Because laser is rotated around its optical axis, the sum values are increased in front of the laser and decreased in other regions. To avoid this disadvantage we propose prerequisites boosting method. In figure 3 it can be seen that the obstacle located in front of laser (its optical axis) influences increased sum-values. On the contrary obstacle located near Y axis influences decreased sum-value that can result in omitting this prerequisite. The prerequisites boosting method is based on normalization technique that uses the model of laser beam intersection with rectangular prisms with base assigned by pixeluv. The model of laser beam intersection is shown in figure 3 (centre). It is related to the computation of maximum available laser beam intersection with rectangular prism with the base in pixeluv. Once the modeluv is computed it can be used for normalization prerequisites image (sumuv), where sumnew; uv = sumuv / modeluv.

Figure 2: The rectangle of 3D scan projection onto OXY plane - left, corresponding image coordinates - right.Rysunek 2: Rzutowanie chmury punktów 3D na płaszczyznę OXY oraz współrzędne obrazu.

Computed sumnew,uv image (where values are real numbers from 0 to 1) is used for prerequisites generation based on image processing methods. The implementation is based on OpenCV image processing library [27]. Figure 4 shows the procedure. Input image box represents the computed sumnew,uv image transformed into binary image using simple threshold method. Filtering box reduces noise from image. The structuring element used for this operation is

111101111

strel (3)

Figure 3: Left: sum of projected pointsxy onto pixelsuv, middle: model of laser beam intersection with rectangular prisms with base assigned by pixeluv, right the result of prerequisites boosting method. Rysunek 3: Lewy: suma punktów pointsxy rzutowanych na pixelsuv, środkowy: model laserowego systemu pomiarowego, prawy: rezultat zastosowanej metody wzmocnienia przesłanek.

Figure 4: Image processing methods used for prerequisites computation.

49

Page 51: Metody i aparatura do badania parametrów powierzchni przy ...

Rysunek 4: Algorytm wyznaczania przesłanek na bazie procedur przetwarzania obrazów.

For each pixel pk;l from binary image, where k = 1:510, l = 1:510, following equation is solved.

1

1

1

1,,),(

i jjlikjilkres jipstrelp (4)

if pres(k;l) > 0 and pk;l = 1 then pout(k;l) = 1, else pout(k;l) = 0. Dilation box mathematical morphology operation increase the width of binary objects in the image. The operation dilation [27] dilates the source image using the specified structuring element that determines the shape of a pixel neighborhood over which the maximum is taken. Neighboring objects are going to be connected for better Hough transform result. Skeletonization based on classical Pavlidis [28] algorithm gives the output as thin lines that are used by Hough transform box to obtain line segments.

Walls and doors detectionThe procedure of walls and doors prerequisites generation is using image processing

methods. The result of this procedure is shown in figure 5, where each line (marked by blue color) corresponds to wall prerequisite. The set of lines is used to obtain segmentation of 3D cloud of points, where different walls will have different labels. For each line segment the orthogonal planeorth to planeOXY is computed (figure 5 - right). The intersection between this two planes is the same line segment. All 3D points which satisfy the condition of distance to planeorth have the same label. In the first step all prerequisites of walls are checked separately. To perform the scene interpretation semantic net is proposed. Nodes of a semantic net represent entities of the world and the relationships between them are defined. Possible labels of the nodes are L = {“wall”, “wall above door”, “floor”, “ceiling”, “door”, “free space for door”}. The relationships between the entities are R = {“parallel”, “orthogonal”, “above”, “under”, “equal height”, “available inside”, “connected via joint”}. The semantic net can easily be extended to more entities and relationships which determine a more sophisticated feature detection algorithms. In our case the feature detection algorithm is composed by the method of cubes generation, where each cube should contain measured 3D point. In the second step of the algorithm wall candidates are chosen. From this set of candidates, based on relationships between them, proper labels are assigned and output model is generated.

Figure 5: Walls prerequisites detection. Left: Input image, centre: result as lines (prerequisites of walls), right: example orthogonal planeorth to planeOXY.

Rysunek 5: Przesłanki ścian, lewy: wejściowy obraz, środkowy: wynik jako linie będące przesłankami ścian, prawy: przykładowe prostopadłe płaszczyzny planeorth i planeOXY.

Stairs detectionThe image processing methods are used for stairs prerequisites generation. The result

of this procedure is shown in figure 6, where red rectangle corresponds to stairs prerequisite. It is important to emphasize that the set of parallel lines in the same short distance between each other can be a projection of stairs. Possible label of the node is L = {“stair”}. The relationships between the entities are R = {“parallel”, “above”, “under”}.

50

Page 52: Metody i aparatura do badania parametrów powierzchni przy ...

Figure 6: Stairs prerequisites detection.Rysunek 6: Detekcja przesłanek wystąpienia schodów.

Semantic simulation engineThe concept of semantic simulation engine is a new idea, and its strength lies on the

semantic map integration with mobile robot simulator. The engine basic elements are: semantic map nodes(entities) Lsm={“wall”, “wall above door”, “floor”, “ceiling”, “door”, “free space for door”, “stairs”}, robot simulator nodes(entities) Lrs={“robot”, “rigid body object”, “soft body object”}, semantic map relationships between the entities Rsm = {“parallel”, “orthogonal”, “above”, “under”, “equal height”, “available inside”, “connected via joint”}, robot simulator relationships between the entities Rrs = {“connected via joint”, “position”}, semantic map events Esm = robot simulator events Ers = {“movement”, “collision between two entities started”, “collision between two entities stopped”, “collision between two entities continued”, “broken joint”}. Robot simulator is implemented in NVIDIA PhysX. The entities from semantic map correspond to actors in PhysX. Lsm is transformed into Lrs

based on spatial model i.e. “walls”, “doors” and “stairs” correspond to actors with “BOX” shapes (details concerning NVIDIA PhysX shapes of actors are available at [58]). Rsm are transformed into Rrs with remark that doors are connected to walls via revolute joints. All entities/relations Rsm has the same initial location in Rrs, obviously the location of each actor/entity may change during simulation. The transformation from Esm to Ers effects that events related to entities from semantic map correspond to the events related to actors representing proper entities. Following events can be noticed during simulation: robot can touch each entity, open/close the door, climb the stairs, enter empty space of the door, damage itself (broken joint between actors in robot arm), brake joint that connects door to the wall. It is noteworthy to mention that all robot simulator semantic events are useful for operator training, where computer has to monitor simulation events, judge them, and report the result to the instructor.

Figure 7: Robot simulator semantic events.Rysunek 7: Semantyczne zdarzenia w symulatorze robota.

51

Page 53: Metody i aparatura do badania parametrów powierzchni przy ...

ConclusionIn the paper the semantic simulation engine that is used for merging real semantic data

with NVIDIA PhysX mobile robot simulation is shown. The approach can be used for further development of sophisticated training tools i.e. AR (Augmented Reality), where real robots will be used for environment modeling. New approach of image processing techniques in the process of semantic entities identification is shown. Available State of The Art INDOOR objects recognition techniques can improve proposed implementation. The approach can be extended to build large environment model by integrating 3D data registration such as ICP. We have shown new application for semantic mapping - the mobile robot operator training semantic simulation engine, where identified and later modeled semantic objects interact with predefined simulation entities. In our opinion the approach deliver powerful tool for INDOOR environment inspection and intervention in which operator can use semantic information to interact with entities. Future work will be related to the integration of data registration techniques and augmented reality approach.

References[1] D. Klimentjew, M. Arli, J. Zhang, 3D scene reconstruction based on a moving 2D laser range finder for service-robots, in: Proceedings of the 2009 international conference on Robotics and biomimetics, 2009.[2] M. Magnusson, T. Duckett, A. J. Lilienthal, 3d scan registration for autonomous mining vehicles, Journal of Field Robotics 24 (10) (2007) 803-827.[3] A. Nuchter, H. Surmann, J. Hertzberg, Automatic model refinement for 3D reconstruction with mobile robots, in: Fourth International Conference on 3-D Digital Imaging and Modeling 3DIM 03, 2003, p. 394.[4] M. Montemerlo, S. Thrun, A multi-resolution pyramid for outdoor robot terrain perception, in: AAAI'04: Proceedings of the 19th national conference on Artificial intelligence, AAAI Press, 2004, pp. 464-469.[5] A. Nuchter, J. Hertzberg, Towards semantic maps for mobile robots, Robot. Auton. Syst. 56 (11) (2008) 915-926.[6] O. Grau, A scene analysis system for the generation of 3-d models, in: NRC '97: Proceedings of the International Conference on Recent Advances in 3-D Digital Imaging and Modeling, IEEE Computer Society, Washington, DC, USA, 1997, p. 221.[7] A. Nuchter, H. Surmann, K. Lingemann, J. Hertzberg, Semantic scene analysis of scanned 3d indoor environments, in: in: Proceedings of the Eighth International Fall Workshop on Vision, Modeling, and Visualization (VMV 03), 2003.[8] H. Cantzler, R. B. Fisher, M. Devy, Quality enhancement of reconstructed 3d models using co planarity and constraints, in: Proceedings of the 24th DAGM Symposium on Pattern Recognition, Springer-Verlag, London, UK, 2002, pp. 34-41.[9] M. Eich, M. Dabrowska, F. Kirchner, Semantic labeling: Classification of 3d entities based on spatial feature descriptors, in: IEEE International Conference on Robotics and Automation (ICRA2010) in Anchorage, Alaska, May 3, 2010.[10] N. Vaskevicius, A. Birk, K. Pathak, J. Poppinga, Fast detection of polygons in 3d point clouds from noise-prone range sensors, in: IEEE International Workshop on Safety, Security and Rescue Robotics, SSRR, IEEE, Rome, 2007, pp. 1-6.[11] J. Oberlander, K. Uhl, J. M. Zollner, R. Dillmann, A region-based slam algorithm capturing metric, topological, and semantic properties, in: ICRA'08, 2008, pp. 1886-1891.[12] R. O. Castle, G. Klein, D. W. Murray, Combining monoslam with object recognition for scene augmentation using a wearable camera 28 (11) (2010) 1548 - 1556. [13] L. Pedraza, G. Dissanayake, J. V. Miro, D. Rodriguez-Losada, F. Matia, Bs-slam: Shaping the world, in: Proceedings of Robotics: Science and Systems, Atlanta, GA, USA, 2007.[14] M. Magnusson, H. Andreasson, A. Nuchter, A. J. Lilienthal, Automatic appearance-based loop detection from 3D laser data using the normal distributions transform, Journal of Field Robotics 26 11-12 (2009) 892-914.[15] H. Andreasson, A. J. Lilienthal, Vision aided 3d laser based registration, in: Proceedings of the European Conference on Mobile Robots (ECMR), 2007, pp. 192-197.[16] P. J. Besl, H. D. Mckay, A method for registration of 3-d shapes, Pattern Analysis and Machine Intelligence, IEEE Transactions on 14 (2) (1992) 239-256[17] D. Hahnel, W. Burgard, Probabilistic matching for 3D scan registration, in: In.: Proc. of the VDI - Conference Robotik 2002 (Robotik), 2002.[18] R. B. Rusu, Z. C. Marton, N. Blodow, M. Dolha, M. Beetz, Towards 3d point cloud based object maps for household environments, Robot. Auton. Syst. 56 (11) (2008) 927-941.

52

Page 54: Metody i aparatura do badania parametrów powierzchni przy ...

[19] J. Craighead, R. Murphy, J. Burke, B. Goldiez, A survey of commercial and open source unmanned vehicle simulators, in: Proceedings of ICRA, 2007.[20] A. Boeing, T. Br aunl, Evaluation of real-time physics simulation systems, in: GRAPHITE '07:� Proceedings of the 5th international conference on Computer graphics and interactive techniques in Australia and Southeast Asia, ACM, New York, NY, USA, 2007, pp. 281-288.[21] J. Wang, M. Lewis, J. Gennari, Usar: A game-based simulation for teleoperation, in: Proceedings of the 47th Annual Meeting of the Human Factors and Ergonomics Society, Denver, CO, Oct. 13-17, 2003.[22] R. B. Rusu, A. Maldonado, M. Beetz, I. A. Systems, T. U. Munchen, Extending player/stage/gazebo towards cognitive robots acting in ubiquitous sensor-equipped environments, in: in Accepted for the IEEE International Conference on Robotics and Automation (ICRA) Workshop for Network Robot System, 2007, April 14, 2007.[23] L. Hohl, R. Tellez, O. Michel, A. J. Ijspeert, Aibo and Webots: Simulation, Wireless Remote Control and Controller Transfer, Robotics and Autonomous Systems 54 (6) (2006) 472-485.[24] C. Buckhaults, Increasing computer science participation in the first robotics competition with robot simulation, in: ACMSE 47: Proceedings of the 47th Annual Southeast Regional Conference, ACM, New York, NY, USA, 2009, pp. 1-4.[25] J. Craighead, R. Murphy, J. Burke, B. Goldiez, A robot simulator classification system for HRI, in: Proceedings of the 2007 International Symposium on Collaborative Technologies and Systems (CTS 2007), 2007, pp. 93-98.[26] C. Pepper, S. Balakirsky, C. Scrapper, Robot simulation physics validation, in: PerMIS '07: Proceedings of the 2007 Workshop on Performance Metrics for Intelligent Systems, ACM, New York, NY, USA, 2007, pp. 97-104. [27] http://opencv.willowgarage.com/wiki/.[28] S.W. Lee, Y. J. Kim, Direct extraction of topographic features for gray scale character recognition, IEEE Trans. Pattern Anal. Mach. Intell. 17 (7) (1995) 724-729. [57] J. Bedkowski, M. Kacprzak, A. Kaczmarczyk, P. Kowalski, P. Musialik, A. Maslowski, T. Pichlak, Rise mobile robot operator training design, in: 15th International Conference on Methods and Models in Automation and Robotics (CD-ROM), Miedzyzdroje, Poland, 2010.[58] NVIDIA PhysX SDK 2.8 - Introduction

53

Page 55: Metody i aparatura do badania parametrów powierzchni przy ...

O kryptografii kwantowejAbout quantum cryptography

Wojciech NOWAKOWSKIInstytut Maszyn Matematycznych, Warszawa

Streszczenie: W artykule podano ogólne informacje oraz opisano podstawowe pojęcia kryptografii kwantowej.Słowa kluczowe: kryptografia kwantowaAbstract: General information and general terms about quantum cryptography is given.Keywords: quantum cryptography, quantum information processing

WprowadzenieInformatyka kwantowa, to interdyscyplinarna dziedzina nauki leżąca na pograniczu informatyki i mechaniki kwantowej, zajmująca się wykorzystaniem możliwości układów kwantowych do przesyłania i obróbki informacji.Najważniejszą zaletą informatyki kwantowej, jaką spodziewają się wykorzystać w praktyce fizycy kwantowi, to szybkość przetwarzania informacji, niemożliwa do uzyskania w obecnie wykorzystywanych, deterministycznych urządzeniach informatycznych. W uproszczeniu można powiedzieć, że komputery kwantowe będą w stanie wykonywać bardzo wiele operacji jednocześnie w wielu różnych procesach. Wynika to z praw rządzących mechaniką. Foton np. może jednocześnie przejść przez zwierciadło i odbić się od niego, a elektrony umieją jednocześnie poruszać się po dwóch różnych drogach. Obiekty mogą znajdować się w stanie tak zwanej superpozycji. Czym jest superpozycja? Obecnie wykonywane obliczenia binarne można modelować rzutem monety. Orzeł odpowiada np. logicznej jedynce, a reszka - zeru. Jeżeli jednak zakręcimy monetą w taki sposób, że będzie ona wirować na swojej krawędzi, to taki stan można byłoby nazwać stanem superpozycji. Jest to zupełnie nowy stan który jest jednocześnie orłem i reszką. Odpowiedniki klasycznych bitów nazywamy kubitami. Kubitem może być każdy obiekt, w którym możemy wyróżnić dwa stany - odpowiadające 0 i 1, ale który możemy wprowadzić w stan superpozycji. Przykładem kubitu może być atom ze dwoma stanami energetycznymi, spin połówkowy, foton o dwóch wzajemnie ortogonalnych stanach polaryzacji, itp. Jak więc kubity przyspieszają wykonywanie obliczeń? Otóż, mając kilka kubitów, w trakcie wykonywania obliczeń każdy z nich znajduje się w stanie superpozycji, dzięki czemu w jednej chwili czasu nie jest wykonywane tylko pojedyncze działanie, ale wszystkie możliwe kombinacje działań na raz. Następnie należy dokonać pomiaru, który spowoduje wybicie kubitów ze stanu superpozycji, a otrzymana w ten sposób kombinacja zer i jedynek stanowić będzie wynik obliczeń. Ujmując problem trochę bardziej "matematycznie”, zespół n klasycznych bitów w danej chwili czasu może być tylko w jednym z 2 do potęgi n-tej stanów i w jednym kroku obliczeń przeliczany jest tylko jeden z tych stanów. Tymczasem zespół n kubitów wprowadzonych w stan superpozycji w jednym kroku nie przetwarza tylko jednego stanu, ale wszystkie 2n stanów jednocześnie. Dodanie jednego kubitu do zespołu zwiększa prędkość wykonywania obliczeń dwukrotnie.Ideę, by zjawiska kwantowe wykorzystać w praktyce do wykonywania obliczeń, wysunął w 1985 roku angielski fizyk David Deutsch, podając jednocześnie pomysłowe algorytmy. Załóżmy, że chcemysprawdzić, czy moneta, którą mamy zagrać w orła i reszkę, jest rzetelna (ma awers i rewers) bądź nierzetelna (obie strony są identyczne). Gdybyśmy do tego zadania wykorzystali zwykły komputer, wykonałby on dwa elementarne kroki, aby zbadać monetę: sprawdził najpierw, co jest po jednej, a potem co po drugiej stronie. Tymczasem komputer kwantowy pozwala przeprowadzić taki test w jednym kroku, oglądając monetę „trochę z jednej, a trochę z drugiej strony”. Komputer kwantowy może też dostrzec jednocześnie sześć stron kostki do gry, bądź wykonać bardzo dużą - a może nawet nieskończoną - liczbę równoległych rachunków.

Szyfrowanie. Algorytm RSARozwój badań w dziedzinie kryptoanalizy oraz wzrost mocy obliczeniowej komputerów spowodował, że wiele algorytmów, które uważane były za niemożliwe do złamania w krótkim czasie i miały zapewnić bezpieczeństwo przesyłania informacji na wiele dziesięcioleci jak np. standard szyfrowaniasymetrycznego DES, zostało skompromitowanych. To samo zagraża powszechnie dziś stosowanemu, np. w bankowości, asymetrycznemu algorytmowi szyfrującemu RSA, który w 1977 r. opublikowali trzej profesorowie z MIT: Ronald L. Rivest, Adi Shamir i Leonard Adleman. Zasadniczą cechą szyfrowania

54

Page 56: Metody i aparatura do badania parametrów powierzchni przy ...

RSA są dwa klucze: publiczny do kodowania informacji oraz prywatny do jej odczytywania. Klucz publiczny (można go udostępniać wszystkim zainteresowanym) umożliwia jedynie zaszyfrowanie danych i w żaden sposób nie ułatwia ich odczytania, nie musi więc być chroniony. Dzięki temu firmy dokonujące transakcji poprzez sieć Internet mogą zapewnić swoim klientom poufność i bezpieczeństwo. Drugi klucz (prywatny, przechowywany pod nadzorem) służy do odczytywania informacji zakodowanych przy pomocy pierwszego klucza. Klucz ten nie jest udostępniany publicznie.

Rys. 1. Token RSA do konta bankowegoFig. 1. RSA security token

System RSA umożliwia bezpieczne przesyłanie danych w środowisku, w którym może dochodzić do różnych nadużyć. Bezpieczeństwo oparte jest na trudności znajdowania czynników pierwszych dużych liczb - najszybszym komputerom może zajmować to obecnie wiele dziesiątków lat intensywnych obliczeń. Algorytm RSA, który jest obecnie najbardziej popularnym algorytmem do szyfrowania informacji, wykorzystywanym m. in. w bankowości elektronicznej, bezpiecznych połączeniach internetowych i podpisie cyfrowym, już w 1994 r. udało się złamać. Wymagało to ośmiu miesięcy pracy 1600 dużych komputerów połączonych w sieć. Również w 1984 r. Peter Shor udowodnił, że komputer kwantowy może rozłożyć liczbę na czynniki pierwsze znacznie szybciej. Dla dla wielu był to szok. Peter Shor podał również konkretny algorytm faktoryzacji.

Rys. 2. Peter Shor (MIT)Fig. 2. Peter Shor (Massachusetts Institute of Technology)

Pojawienie się więc algorytmu Shora - z uwagi na powszechność stosowania szyfru RSA – jest poważnym zagrożeniem dla poufności korespondencji komputerowej - czyli dla bezpieczeństwa internetu, banków i w konsekwencji całej gospodarki.Ocenia się, że współczesne szyfry pozostaną nie do złamania jeszcze przynajmniej przez 10 lat. Okres ten ulegnie zasadniczemu skróceniu, gdy powstaną komputery kwantowe. Jedynym bezpiecznym sposobem szyfrowania informacji pozostanie wtedy kryptografia kwantowa.

55

Page 57: Metody i aparatura do badania parametrów powierzchni przy ...

Kryptografia kwantowaKryptografia to przekształcanie tekstu zrozumiałego dla wszystkich w tekst zaszyfrowany, zrozumiały tylko dla osób posiadających określony klucz. W kryptografii kwantowej klucz jest chroniony przez zasadę nieoznaczoności Heisenberga. Z zasady tej, stanowiącej podstawę mechaniki kwantowej wynika, że pomiar jednej własności układu może zaburzyć wyniki pomiaru innej własności. W praktyce oznacza to, że intruz podglądający informację zmienia jej stan, co może być wykryte przez nadawcę i odbiorcę szyfrowanej informacji.Ogólnie systemy kryptografii można podzielić na asymetryczne (typu public-key) i symetryczne (typu secret-key). Te pierwsze wymagają stosowania dwóch różnych kluczy do szyfrowania i odczytywania wiadomości, a ich bezpieczeństwo opiera się na fakcie, że podsłuchiwanie komunikatu jest możliwe tylko dzięki posiadaniu klucza odszyfrowującego (tego typu systemami są np. kanały dostępu wykorzystujące wspomniany algorytm RSA). Kryptosystemy symetryczne typu secret-key wykorzystują ten sam klucz do kodowania i odczytywania wiadomości, w związku z czym bezpieczeństwo transmisji wymaga bezpiecznego przesłania klucza kodująco-odkodowywującego między uczestnikami transmisji (np. one-time pad, Vernam). Problem tym samym zostaje sprowadzony do paradoksu: by mieć bezpieczny kanał informacyjny, trzeba dysponować bezpiecznym kanałem informacyjnym.Problem ten może właśnie rozwiązać kodowanie kwantowe. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - kryptosystemy z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, tzw. protokół BB84 (Charles H. Bennett i Gilles Brassard, 1984), lub- kryptosystemy z kodowaniem opartym na zjawisku stanów splątanych, tzw. protokół EPR (Artur Ekert 1990). W tej publikacji zostanie omówiony pierwszy z nich.Przesłanie klucza kwantowego wymaga posiadania kanału kwantowego, w którym informację przenoszą np. fotony, a ściślej – płaszczyzna ich polaryzacji. Taki przykładowy kanał składa się po stronie Nadawcy (N) ze źródła fotonów (lasera emitującego pojedyncze fotony) oraz przyrządu optycznego - polaryzatora (kryształu kalcytu, pryzmatu Nicola lub komórki Pockelsa) który może być obracany o kąt 45° wzdłuż osi wiązki lasera w celu generowania dwóch nieortogonalnych baz, dowolnego ośrodka optycznego, przez który będzie zachodzić transmisja (światłowód, powietrze czy próżnia) oraz przyrządu pomiarowego po stronie Odbiorcy (O) składającego się z również obracanego o kąt 45° polaryzacyjnego rozdzielacza wiązki fotonów oraz dwóch detektorów pojedynczych fotonów. Algorytm BB84 można w skrócie przedstawić następująco:

1. N losuje klucz i przesyła go O przy losowo ustawionych bazach polaryzatorów: prostej 0/90 lub ukośnej +45/–45 stopni.2. O za pomoca losowo ustawionych baz swoich polaryzatorów i detektorów odbiera transmisję.3. O jawnym kanałem przekazuje w jaki sposób ustawił swoje detektory.4. N informuje O kanałem jawnym, w których przypadkach się pomylił.5. N i O odrzucają niezgodne części klucza.6. N i O jawnym kanałem porównują kilka bitów z uzyskanego klucza. Jeżeli sprawdzane fragmenty są zgodne odrzucają je i rozpoczynają transmisję z użyciem pozostałej części klucza.Wyżej opisany algorytm można zilustrować następującym schematem:

Rys 3. Zasada transmisji według algorytmu BB84 (bez podsłuchu)Fig. 3. Example of the BB84 protocol (without eavesdropping)

56

Ciąg losowy Nadawcy

Polaryzacja fotonów Nadawcy

Polaryzacja odebranych fotonów

Zgodność detektorów

Przesłany klucz

Ustawienie polaryzatora Odbiorcy

Ciąg losowy NadawcyPolaryzacja fotonów NadawcyPolaryzacja odebranych fotonówZgodnośćPrzesłany kluczUstawienie polaryzatora Odbiorcy

Page 58: Metody i aparatura do badania parametrów powierzchni przy ...

W przypadku próby przechwycenia uzgadnianego klucza, Podsłuchujący (P) spowoduje różnice w porównywanych przez N i O fragmentach z prawdopodobieństwem zależnym od wielkości porównywanej próbki. W tym wypadku N i O powinni rozpocząć cały proces uzgadniania klucza od początku.

Rys 4. Zasada transmisji według algorytmu BB84 (z podsłuchem)Fig. 4. Example of the BB84 protocol (with eavesdropping)

Każda próba podsłuchu zakłóca transmisję i zmienia przekazywaną treść. Aby stwierdzić próbę podsłuchu wystarczy sprawdzić ok. 10% wygenerowanego klucza (przy dłuższych ciągach). Aby zapewnić całkowite bezpieczeństwo transmisji można połączyć kwantową dystrybucję klucza z całkowicie bezpiecznym, klasycznym szyfrem Vernama.

Literatura[1] http://tech.wp.pl/kat,1009779,page,3,title,Komputery-przyszlosci-dzialaja-w-wielu-rzeczywistosciach-na-raz-i-juz-istnieja,wid,11531736,wiadomosc.html[2] Shor P.W.: Algorithms for quantum computation: Discrete logarithms and factoring, Proc. 35nd Annual Symposium on Foundations of Computer Science (Shafi Goldwasser, ed.), IEEE Computer Society Press (1994), 124-134.[3] Kamiński M.: Policz to kwantowo. Wiedza i Życie. - nr 5, 2002[4] Maćkowiak K.: Kryptografia kwantowa. Referat. Konferencja CONFidence 2006.[5] Wiera R., Rdest M.: Szyfrowanie RSA. http://stud.wsi.edu.pl/~siwierar/szyfrowanie/index.php[6] Tanaś R.: http://zon8.physd.amu.edu.pl/~tanas/[7] Borkowska A.(UMCS Lublin): Kryptografia kwantowa, czyli praktyczne zastosowanie nieintuicyjnych cech realnego świata. Referat wygłoszony na V OSKNF, Wrocław 17-19.09.2006.[8] Bennett C. H., Brassard G.: Quantum Cryptography: Public key distribution and coin tossing. Proceedings of the IEEE International Conference on Computers, Systems, and Signal Processing, Bangalore 1984[9] Denning D.E.: Kryptografia i ochrona danych. WNT, Warszawa 1992.[10] http://www.ebanki.pl/technika/podpis_cyfrowy.html[11] http://www.rsasecurity.com/rsalabs/faq/3-6-4.html[12] Koblitz N.: Wykład z teorii liczb i kryptografii. WNT, Warszawa 1995.[13] Krawczyk P.: Leksykon kryptograficzny. http://echelon.pl/leksykon/.[14] RSA Laboratories. RSA Laboratories' Frequently Asked Questions About Today's Cryptography, Version 4.1. RSA Security Inc. 2002.[15] Tipton H., Krause M. (Consulting Editors). Handbook of Information Security Management. CRC Press 1998.[16] Ustawa z dnia 22 sierpnia 2001 roku o podpisie elektronicznym (Dz.U. 2001 nr 130 poz. 1450, tekst ujednolicony)[17] Wobst R.: Kryptologia: budowa i łamanie zapezpieczeń. Wydawnictwo RM, Warszawa 2002.

57

Ciąg losowy Nadawcy

Polaryzacja fotonów Nadawcy

Polaryzacja odebranych fotonówprzez Podsłuchującego

Zgodność detektorów

Przesłany klucz

Ustawienie polaryzatoraPodsłuchującego

Ustawienie polaryzatora Odbiorcy

Polaryzacja odebranych fotonów