Post on 17-Mar-2021
POLITECHNIKA ŚLĄSKA
WYDZIAŁ INśYNIERII MATERIAŁOWEJ I METALURGII
Kierunek: EDUKACJA TECHNICZNO-INFORMATYCZNA
Specjalność: INFORMATYKA UśYTKOWA
PRACA MAGISTERSKA
Rafał Nalepa
WIZUALIZACJA WIELOWYMIAROWYCH DANYCH PROCESU
STALOWNICZEGO.
MULTIDIMENSIONAL DATA VISUALIZATION OF STEELMAKING
PROCESS.
Promotor:
dr inŜ. Marcin Blachnik
Recenzent:
dr hab. inŜ. Tadeusz Wieczorek
prof. nzw. w Pol. Śl.
Katowice, sierpień 2009
S t r o n a | 2
Spis treści
1. Wstęp................................................................................................ 4
2. Metody redukcji wymiarowości. ......................................................... 6
2.1. Analiza składowych głównych ..................................................... 6
2.1.1. Definiowanie składowych głównych. ..................................... 6
2.1.2. Metody określania liczby składowych głównych .................... 9
2.2. Liniowa analiza dyskryminacyjna...............................................12
2.2.1. Klasyfikacja pod nadzorem..................................................13
2.2.2. Problem dwóch klas ............................................................14
2.2.3. Problem wielu klas ..............................................................16
2.3. Skalowanie wielowymiarowe ......................................................18
2.3.1. Klasyczne skalowanie..........................................................18
2.3.2. Skalowanie metryczne.........................................................20
2.3.3 Skalowanie niemetryczne .....................................................22
2.4. Samoorganizujące się mapy .......................................................23
3. Narzędzia analizy..............................................................................29
3.1. Matlab .......................................................................................29
3.2. Drtoolbox...................................................................................30
3.3 Algorytm samoorganizujących się map SOM ...............................32
3.4. Wstępne przetwarzanie danych (standaryzacja/normalizacja).....33
3.3.1. Standaryzacja .....................................................................34
3.3.2 Normalizacja ........................................................................34
4. Porównanie metod wizualizacji .........................................................36
4.1. Opis danych ..............................................................................36
4.2. Wyniki oraz ich interpretacja .....................................................38
4.2.1. Wizualizacja zbioru Swiss Roll.............................................39
4.2.2. Wizualizacja zbioru Helix.....................................................44
S t r o n a | 3
4.2.3. Wizualizacja zbioru Iris .......................................................49
4.3. Wnioski .....................................................................................53
5. Opis procesu stalowniczego ..............................................................54
6. Wizualizacja danych procesu stalowniczego ......................................58
6.1. Opis zbioru danych....................................................................58
6.2. Wyniki oraz ich interpretacja .....................................................62
6.2.1. Wizualizacja zbioru data1 ....................................................62
6.2.2. Wizualizacja zbioru data2. ...................................................66
6.3. Wnioski .....................................................................................69
7. Podsumowanie i wnioski...................................................................71
Bibliografia...........................................................................................73
Spis rysunków......................................................................................74
S t r o n a | 4
1. Wstęp
Na świecie istnieje wiele danych, które moŜna przedstawić
w przestrzeni dwu lub trzy wymiarowej. Warto jednak zauwaŜyć,
Ŝe technika ciągle idzie do przodu i coraz częściej w róŜnych dziedzinach
stosowane są systemy informatyczne. Coraz częstsze stosowanie
systemów informatycznych wiąŜe się z gromadzeniem coraz większych
ilości skomplikowanych danych. DuŜa liczba danych wielowymiarowych
powoduje, iŜ ludzki mózg nie jest w stanie zrozumieć informacji, które
są ukryte w tych danych, rozwiązaniem tego problemu jest, więc
wizualizacja.
Wizualizacja wykorzystywana jest w dwóch celach, a mianowicie
wstępnej eksploracji danych, czyli odkrycia pewnych informacji
(zaleŜności między zmiennymi), które są zawarte w badanym zbiorze
danych. Drugim celem, do którego jest wykorzystywana wizualizacja to
kwestia zrozumienia wielowymiarowych danych dzięki utworzeniu ich
wizualnych reprezentacji. Dane o duŜej wymiarowości często są mocno
ze sobą powiązane, jednak dzięki technikom, jakie obecnie są dostępne
czasem jesteśmy w stanie wydzielić z tych danych nawet niewielki
podzbiór, który pozwoli zrozumieć związki zachodzące między tymi
danymi lub dać obraz jakiegoś zjawiska, które te dane przedstawiają.
Wizualizacja danych wielowymiarowych jest wykorzystywana w wielu
dziedzinach między innymi w systemach przeszukiwania tekstów
(WebSOM), w analizie obrazów (PicSOM), przy analizie sygnałów (ICA),
a takŜe do wizualizacji danych astronomicznych, a nawet do badań
historycznych w celu zrozumienia zjawisk, zdarzeń i procesów, jakie
miały miejsce w przeszłości.
W niniejszej pracy poddano analizie moŜliwości wykorzystania
wizualizacji w zastosowaniu do procesu metalurgicznego, badając
moŜliwość wizualizacji wpływu dodawania domieszek (dodatków
stopowych) w zaleŜności od gatunku uzyskanej stali.
S t r o n a | 5
Celem pracy jest porównanie metod redukcji wymiarowości
w zastosowaniu do wizualizacji danych wielowymiarowych procesu
stalowniczego na przykładzie wizualizacji sposobu prowadzenia procesu
obróbki pozapiecowej stali w zaleŜności od jej podgatunku.
Przedstawiona praca zawiera siedem rozdziałów. W rozdziale
drugim niniejszej pracy zaprezentowane zostały zagadnienia dotyczące
redukcji wymiarowości. Zostały opisane cztery metody a mianowicie
analiza składowych głównych, liniowa analiza dyskryminacyjna,
skalowanie wielowymiarowe oraz samoorganizujące się mapy.
W rozdziale trzecim przedstawiono opis narzędzi, jakie zostały uŜyte
w pracy, a takŜe metody przygotowania danych przed procesem
wizualizacji. Rozdział czwarty zawiera porównanie metod wizualizacji.
W rozdziale tym zawarty został opis prostych danych na podstawie,
których porównane zostały metody wizualizacji a takŜe wyniki
wizualizacji wraz z ich interpretacją. W rozdziale piątym został opisany
proces stalowniczy, na który składa się proces wytapiania stali, sposób
prowadzenia obróbki pozapiecowej oraz końcowa metoda ciągłego
odlewania stali. Rozdział szósty przedstawia wizualizację danych
z procesu stalowniczego. Opisane zostały tutaj dane, a następnie
przedstawione zostały wyniki wizualizacji oraz ich interpretacja.
Wnioski końcowe zawarte zostały w zakończeniu pracy w rozdziale
siódmym.
S t r o n a | 6
2. Metody redukcji wymiarowości.
2.1. Analiza składowych głównych
Analiza składowych głównych (ang. Principal Component Analysis,
PCA) jest jednym z najpopularniejszych oraz najstarszych sposobów
redukcji wymiaru przestrzeni danych wejściowych. Jest to metoda
liniowa wyznaczająca kierunki, w których następuje maksymalna
zmienność danych pierwotnych i dodatkowo obraca układ
współrzędnych w taki sposób, aby maksymalna zmienność danych
zachodziła wzdłuŜ nowych osi. W metodzie tej uczenie odbywa się bez
nadzoru, a więc kaŜdy z elementów zbioru uczącego składa się tylko
i wyłącznie z wektora cech. Analiza składowych głównych ma za zadanie
przekształcić skorelowane, oryginalne zmienne w nowe nieskorelowane,
czyli tzw. składowe główne. Próba wyznaczenia wartości składowych
głównych nie jest związana z potrzebą przyjmowania Ŝadnych nowych
załoŜeń, dzięki czemu moŜemy bez Ŝadnych trudności otrzymać wartości
składowych głównych. Przekształcenie danych wejściowych w główne
składowe nie prowadzi do istotnej straty informacji o badanym
zjawisku, gdyŜ suma wariancji wszystkich danych wejściowych jest
równa sumie wariancji głównych składowych. Sposób wyznaczenia
głównych składowych powoduje, Ŝe juŜ kilka pierwszych z nich zawiera
większość informacji o badanym zjawisku, co pozwala na redukcję
składowych głównych przy moŜliwie małej stracie informacji
wejściowych. Jednak zastosowanie tej metody w przypadku, kiedy
oryginalne zmienne nie są skorelowane nie daje nam gwarancji
moŜliwości redukcji danych przy ograniczonej stracie informacji. [1]
2.1.1. Definiowanie składowych głównych.
Pierwszą składową główną definiuje się jako unormowaną
kombinację liniową zmiennych wejściowych. Ma ona maksymalną
wariancję z próby ze wszystkich unormowanych liniowych kombinacji
S t r o n a | 7
zmiennych pierwotnych x1, x2, …, xp. A więc dla wektora obserwacji
x = [x1, x2, …, xp]T w próbie poszukujemy liniowej kombinacji
xaT
1=+++= pp xaxaxa 12121111 ...z (1)
której, wariancja z próby
1
T
1Saa=2
1zs (2)
przyjmuje wartość maksymalną, gdzie S jest to macierz kowariancji
z próby x1, x2, …, xn, natomiast kwadrat długości wektora a1 jest równy
jeden, czyli wektor ten spełnia warunek a1Ta1 = 1, który jest
wprowadzony w celu zapewnienia jednoznaczności składowej głównej.
Wektor a1 ma zadanie maksymalizować wariancję (2).
Dzięki dodatkowemu warunkowi a1Ta1 = 1 wektor ten jest wektorem
charakterystycznym odpowiadającym największemu pierwiastkowi
równania wyznacznikowego, czyli największej wartości własnej λ1
macierzy S.
0=− IS λ (3)
Największym pierwiastkiem równania (3) jest największa wariancja
składowej głównej z1. Aby wyznaczyć drugą składową główną
konstruujemy liniową kombinację taką, Ŝe nie jest ona skorelowana
z z1, spełnia warunek a2Ta2 = 1 oraz posiada maksymalną wariancję.
xaT
2=2z (4)
Aby składowe z2 oraz z1 były nieskorelowane musi zajść równość
Cov(z2, z1) = 0. Mamy, więc
1
T
2Saa=),( 12 zzCov (5)
S t r o n a | 8
JednakŜe, Sa1 = λ1a1 i stąd wynika
0),( 112 == 1
T
2aaλzzCov
co pociąga za sobą, Ŝe a2Ta1 = 0. Wariancja z próby kombinacji liniowej
(4) jest równa
2
T
2Saa=2
2zs (6)
W wyniku, czego poszukujemy takiego wektora a2, który będzie
maksymalizował (6) przy dodatkowych warunkach a2Ta2 = 1 i a2Ta1 = 0.
Wektor a2 jest to wektor własny macierzy S, który odpowiada drugiej
wartości własnej λ2 < λ1. Jest on ortogonalny do wektora a1 oraz
unormowany tak, aby kwadrat jego długości był równy jeden (a2Ta2 = 1).
W związku z tym, Ŝe macierz S ma p wartości własnych otrzymujemy,
więc p składowych głównych:
xaT
1=1z
xaT
2=2z
………...
xaTp=pz
Składowe główne z1,z2, …, zp moŜna przedstawić w postaci
Axz = (7)
gdzie
S t r o n a | 9
=
pz
z
z
M
2
1
z,
=
T
p
T
2
T
1
a
a
a
AM .
2.1.2. Metody określania liczby składowych głównych
Liczba składowych głównych, która zostanie wykorzystana
w procesie jest decyzją o charakterze subiektywnym jednak istnieją
konkretne kryteria, które taką decyzję mogą wspomóc. Warto jednak
wiedzieć, iŜ odrzucone składowe zawierają najmniej informacji
o badanym zjawisku, jednak odrzucenie ich spowoduje stratę informacji
zawartych w zmiennych wejściowych.
Kryterium procenta wariancji
Kryterium to zaleca, Ŝe jeśli wskaźnik procentowej miary
wyjaśniania zmienności wektora x przez pierwszych k składowych
głównych jest równy lub przekracza ustaloną wartość z reguły ok. 80% to
pozostałe składowe główne p-k pomijamy. Pomimo iŜ jest to osobna
metoda na odrzucenie głównych składowych decyzja nadal ma charakter
subiektywny.
Kryterium wartości średniej z wartości własnych
W kryterium tym zaleca się zostawienie w dalszej analizie tych
składowych głównych, których wartości własne są większe od średniej,
natomiast pomijamy te składowe główne, których wartości są mniejsze
od średniej
∑=
=p
j
jp 1
1λλ (8)
S t r o n a | 10
Im większa wartość własna tym odpowiadający jej wektor własny jest
słabiej skorelowany z pozostałymi.
Kryterium osypiska (wykres piargowy)
Jest to metoda graficzna, gdyŜ na wykresie przedstawione są wartości
własne, które numerowane są w porządku malejącym. Współrzędnymi
punktów na wykresie na osi odciętych są numery wartości własnych
natomiast na osi rzędnych są to wielkości wartości własnych. Punkty te
łączone są odcinkami. Przykładowy wykres jest pokazany na rys. 1.
Widać na nim, Ŝe pierwsze dwie wartości róŜnią się istotnie od
pozostałych, które wyglądem w całości przypominają prawie poziomą linię,
która wskazuje na bardzo niewielki spadek wartości własnych kolejnych
składowych głównych.
0
200
400
600
800
1000
1200
1 2 3 4 5 6
Numer wartości własnej
λ
Rys. 1. Wykres piargowy.
S t r o n a | 11
Kryterium istotności
Kryterium to wykorzystuje test chi-kwadrat. Zweryfikowanie
hipotezy o tym, Ŝe wyodrębnione czynniki wystarczająco dokładnie
wyjaśniają korelacje pomiędzy zmiennymi wejściowymi jest równowaŜna
z weryfikacją hipotezy, co do liczby pierwszych czynników, które naleŜy
wykorzystać w dalszej analizie. Zastosowanie tego testu wymaga
załoŜenia, iŜ n-elementowa próba pochodzi z p-wymiarowego rozkładu
normalnego. [2]
2.1.3. Interpretacja geometryczna
KaŜdy element macierzy obserwacji X moŜe być zinterpretowany
geometrycznie jako współrzędne n-punktów reprezentujących obiekty
w p-wymiarowej przestrzeni zmiennych, czyli kaŜdy obiekt jest
reprezentowany przez wektor opisujących go zmiennych. Szczególny
przypadek transformacji liniowej – obrót, jest opisany przez równanie
Z = ATX gdzie A jest macierzą ortogonalną. Dla przypadku
dwuwymiarowego ilustruje to rys. 2.
Rys. 2. Dopasowanie połoŜenia układu osi głównych składowych do konfiguracji punktów reprezentujących obiekty.
S t r o n a | 12
W analizie składowych głównych staramy się tak obrócić układ
współrzędnych Z1 0 Z2, aby uzyskać nowy układ współrzędnych F1 0 F2,
w którym rzuty punktów reprezentujących obiekty na pierwszą główną
składową F1 będą dawały zbiór punktów o największym rozrzucie, czyli
o największej wariancji. Poprzez obrót układu współrzędnych Z1 0 Z2
o kąt α powstaje układ współrzędnych F1 0 F2. Dla przestrzeni
dwuwymiarowej macierz ortogonalna przyjmuje wówczas postać
−
=αα
αα
cos
sin
sin
cosT
A (9)
Oznacza to, Ŝe współrzędne punktów (obiektów) w nowym układzie
współrzędnych obliczamy następująco:
αα
αα
cossinf
sincosf
21i2
21i1
ii
ii
zz
zz
+−=
+= (10)
Druga składowa główna, która jest prostą w hiperpłaszczyźnie
prostopadłą do osi pierwszej składowej głównej jest wyznaczana tak,
aby sumy kwadratów odległości punktów (obiektów) od ich rzutów na tą
oś były jak najmniejsze. Pozostałe składowe główne wyznaczane są
w analogiczny sposób. [3] [4]
2.2. Liniowa analiza dyskryminacyjna
Liniowa analiza dyskryminacyjna (ang. Linear Discriminant
Analysis, LDA) jest jednym ze sposobów redukcji struktury danych
wejściowych, dzięki której moŜliwe jest przedstawienie danych
w mniejszej liczbie wymiarów. Liniowa analiza dyskryminacyjna naleŜy
do metod statystycznych opierających się o klasyfikację pod nadzorem.
Jej głównym zadaniem jest znalezienie takiego podziału danych prostą
lub płaszczyzną dyskryminacyjną, aby jak najlepiej rozróŜniały dwie lub
więcej klas danych wzajemnie zaleŜnych. Metoda ta spisuje się dobrze
na prostych w analizie zbiorach. Liniowa analiza dyskryminacyjna ma
S t r o n a | 13
wiele zastosowań związanych z klasyfikacją. Najczęściej stosowana jest
w przypadku rozpoznawania twarzy gdzie obraz twarzy, który składa się
z bardzo duŜej ilości pikseli jest zredukowany do mniejszego zbioru
liniowych kombinacji, które mogą być później wykorzystane do
klasyfikacji.
2.2.1. Klasyfikacja pod nadzorem
Klasyfikacja pod nadzorem nazywana jest równieŜ klasyfikacją
z próbą uczącą czy teŜ po prostu klasyfikacją z nauczycielem. Zadaniem
klasyfikacji pod nadzorem jest podanie reguły decyzyjnej, zwanej
równieŜ regułą dyskryminacyjną, która przyporządkowuje dowolnej
obserwacji x, naleŜącej do zbioru p-wymiarowego X przynaleŜność do
konkretnej klasy ze zbioru klas G. Na podstawie próby uczącej (xi, yi),
i = 1,2, …, n, tworzy się regułę decyzyjną, gdzie xi oznacza i-tą
obserwację, natomiast yi jest etykietą klasy, do której ta obserwacja
naleŜy. Dzięki otrzymanej regule decyzyjnej jesteśmy w stanie kaŜdemu
zaobserwowanemu wektorowi x przypisać przynaleŜność do klasy ze
zbioru G. Podsumowując, skonstruowanie reguły dyskryminacyjnej
umoŜliwia próba ucząca, natomiast zadaniem klasyfikacji pod nadzorem
jest przewidzenie na podstawie tej reguły, do której klasy naleŜy dana
obserwacja. Na rys. 3 przedstawione zostały obserwacje
w dwuwymiarowej przestrzeni rozdzielone na poszczególne klasy za
pomocą trzech półprostych, które wychodzą z jednego punktu.
Rys. 3. Obserwacje trzech klas rozdzielone półprostymi
S t r o n a | 14
2.2.2. Problem dwóch klas
W liniowej analizie dyskryminacyjnej wektory obserwacji są
wektorami naleŜącymi do p-wymiarowej przestrzeni euklidesowej.
Głównym załoŜeniem tej metody jest otrzymanie reguły decyzyjnej, która
oparta jest na funkcji liniowej i na jej podstawie jest w stanie podzielić
dany zbiór na klasy. W podrozdziale tym rozpatrzony zostanie
przypadek z dwoma klasami g = 2. Znalezienie reguły dyskryminacyjnej
polega na tym, aby znaleźć kierunek a w X, który będzie najlepiej
rozdzielał obydwie podpróby uczące. Podczas konstruowania miary
odległości pomiędzy klasami naleŜy uwzględnić zmienność
wewnątrzgrupową (wewnątrz klas). Konstrukcja liniowej analizy
dyskryminacyjnej wymaga, aby zebrać informacje o klasach, do których
będą klasyfikowane nowe obserwacje. Klasyfikacja ta odbywa się za
pomocą wskaźników połoŜenia i rozproszenia podgrup grupy uczącej.
W przypadku dwóch klas (g = 2), próbę (x1, y1), (x2, y2), …., (xn, yn)
moŜna podzielić na dwie podpróby obserwacji z klasy pierwszej oraz
drugiej
2
1
klasyz
klasyz
2
1
2n2221
1n1211
x,...,x,x
x,...,x,x
gdzie n = n1 + n2 (n1 obserwacji z 1 klasy, n2 obserwacji z 2 klasy).
Stąd średnie klas moŜna zapisać jako
∑=
=1
1
1 n
i1n1i1 xx ∑
=
=2
12
1 n
in2i2 xx (11)
Próbkowe macierze kowariancji charakteryzują rozproszenie
wewnątrzgrupowe (wewnątrz klas). LDA opiera się na załoŜeniu, Ŝe klasy
charakteryzują się taką samą macierzą kowariancji. Macierz kowariancji
wewnątrzgrupowej, wspólnej dla obydwu klas przyjmuje postać
S t r o n a | 15
( ) ( )( )∑ ∑∑= ==
−−
−=−
−=
2
1 1
2
1 2
11
2
1
k
n
i
T
k
k
k
nn
nkkikkik xxxxSW (12)
n = n1 + n2
gdzie Sk, k = 1, 2, są próbkowanymi macierzami kowariancji
w klasach 1 i 2. Próbkową miarą zmienności wewnątrzgrupowej wzdłuŜ
kierunku a jest wielkość
WaaT
W związku z powyŜszym, aby znaleźć regułę dyskryminacyjną naleŜy
znaleźć kierunek ã w X, który będzie najlepiej rozdzielał podpróby
uczące, a za miarę rozdzielności klas wzdłuŜ danego kierunku naleŜy
wziąć kwadrat odległości pomiędzy średnimi arytmetycznymi podprób
wzdłuŜ tego kierunku
( )21T
2T
xaxa −
zmodyfikowany za pomocą odpowiednio uwzględnionej zmienności
obserwacji wewnątrz klas i wzdłuŜ kierunku a
( )Waa
xaxaT
1T
2T 2
−
(13)
gdzie W jest próbkową macierzą kowariancji wewnątrzgrupowej.
Aby znaleźć kierunek, który najlepiej rozdziela klasy naleŜy znaleźć
wektor kierunkowy ã maksymalizujący wyraŜenie (13). Mając kierunek ã
naleŜy zrzutować ortogonalnie obydwie średnie klas oraz nową
obserwację x o nieznanej klasie na ten kierunek, następnie naleŜy
zaklasyfikować x do klasy j, jeŜeli
kTT
jTT
xaxaxaxa −<− (14)
dla k ≠ j, j, k ϵ {1, 2}.
S t r o n a | 16
Podsumowując reguła dyskryminacyjna (14) wyznacza w zbiorze X
hiperpowierzchnię dyskryminacyjną prostopadłą do kierunku ã, która
dzieli ten zbiór na dwa podzbiory, których punkty x ϵ X naleŜą do klasy
1 oraz do klasy 2.
2.2.3. Problem wielu klas
Rozwiązanie problemu dla 2 klas (g = 2) z poprzedniego
podrozdziału moŜna uogólnić w przypadku większej ilości klas.
Mianowicie wynikiem tego jest, Ŝe
( ) ( )( ) axxxxaxaxa 121212
TTTT −−=−2
(15)
oraz, Ŝe
( )( ) ( )( ) axxxxaaxxxxa kk1212
−−
+=−− ∑
=
2
121
21
k
T
k
TTT nnn
nn
(16)
gdzie x jest średnią ogólną wszystkich obserwacji n = n1 + n2. Licznik
wyraŜenia (13) z dokładnością do stałego czynnika jest więc równy
( )( ) axxxxa kk
−−∑
=
2
1k
T
k
T n
Dzięki temu macierz
( )( )∑=
−−2
1k
T
kn xxxx kk
moŜna uznać za taką, która charakteryzuje się zmiennością
międzygrupową, a takŜe nazwać ją macierzą kowariancji
międzygrupowej B.
S t r o n a | 17
( )( )∑=
−−=2
1k
T
kn xxxxB kk (17)
Maksymalizacja (13) jest równowaŜna maksymalizacji wyraŜenia
Waa
BaaT
T
gdzie macierz B jest dana przez (17), natomiast W przez (12).
Dzięki ostatniemu wyraŜeniu moŜna uogólnić rozwiązanie problemu
dwóch klas g = 2 na problem dyskryminacji liniowej dla dowolnej liczby
klas g (g ≥ 2).
Aby znaleźć regułę dyskryminacyjną naleŜy znaleźć kierunek a
maksymalizujący wyraŜenie
Waa
BaaT
T
(18)
gdzie
( )( )∑=
−−−
=2
11
1
k
T
kng
xxxxB kk (19)
jest to macierz kowariancji międzygrupowej, która jest tak
zmodyfikowana względem (17) aby moŜna było ją zastosować do
przypadku g > 2, oraz
( ) kSW ∑=
−−
=g
k
kngn 1
11
(20)
jest to macierz kowariancji wewnątrzgrupowej, która równieŜ została tak
zmodyfikowana względem (12) aby moŜna ją było zastosować do tego
przypadku. Po otrzymaniu szukanego wektora ã naleŜy podać regułę
S t r o n a | 18
dyskryminacyjną, którą otrzymujemy poprzez modyfikację reguły (14)
następnie obserwację x klasyfikujemy do klasy j, jeŜeli
kj xaxaxaxaTTTT −<− (21)
dla wszystkich k ≠ j. [5] [6]
2.3. Skalowanie wielowymiarowe
Skalowanie wielowymiarowe (ang. Multidimensional Scaling, MDS)
jest to technika wywodząca się ze statystyki. Ma ona na celu wykrycie
zmiennych ukrytych, które pozwalają na wyjaśnienie podobieństw
i róŜnic pomiędzy badanymi obiektami. Skalowanie wielowymiarowe jest
to metoda, która działa na podstawie macierzy odległości lub macierzy
podobieństwa pomiędzy obiektami. Metoda ta dąŜy do wyznaczenia
takiego ułoŜenia punktów w nowym układzie współrzędnych, aby
odległości między obiektami w nowo utworzonym układzie
współrzędnych były jak najbliŜsze w sensie podobieństwa.
Skalowanie wielowymiarowe dzielimy na dwa typy: metryczne oraz
niemetryczne. Zostaną one omówione dokładniej w dalszej części tego
podrozdziału. [1]
2.3.1. Klasyczne skalowanie
Klasyczne skalowanie jest zwane równieŜ analizą współrzędnych
głównych (ang. Principal Coordinates Analysis, PCoA). W metodzie tej
naleŜy załoŜyć, Ŝe odległości między punktami to odległości euklidesowe.
Macierz odległości euklidesowych moŜna wtedy wyrazić następująco
TXXT = (22)
gdzie X = [x1, x2, …, xn]T jest n x p-wymiarową macierzą obserwacji.
Na podstawie macierzy odległości euklidesowych T moŜna znaleźć
współrzędne punktów, które znajdują się w przestrzeni Re, a takŜe
S t r o n a | 19
wymiar e tej przestrzeni. Odległość między dwoma obserwacjami i oraz j
moŜna wyrazić następująco
ijjjiiij TTTd 22 −+= (23)
gdzie
∑=
=p
k
jkikij xxT1
Równanie (23) moŜna odwrócić, aby przedstawić elementy macierzy T
jako macierzy niepodobieństwa, jednak naleŜy załoŜyć, iŜ środek
cięŜkości zbioru punktów {xi, i = 1, 2, …, n} znajduje się w początku
układu współrzędnych.
[ ]2222 ˆˆˆ2
1ijjiijij ddddT +−−−= (24)
gdzie
∑=
=n
j
iji dn
d1
22 1ˆ
∑=
=n
i
ijj dn
d1
22 1ˆ
∑∑= =
=n
i
n
j
ijdn
d1 1
22 1ˆ
Przy załoŜeniu, iŜ niepodobieństwa są odległościami euklidesowymi,
równanie (24) daje moŜliwość stworzenia macierzy T na podstawie danej
macierzy niepodobieństw D. Wówczas macierz T naleŜy rozłoŜyć na
czynniki (dokonać faktoryzacji) i dzięki temu, Ŝe jest to macierz
symetryczna moŜna ją zapisać w postaci
S t r o n a | 20
TUUT Λ= (25)
gdzie kolumny macierzy U są to wektory własne macierzy T, a Λ jest to
macierz diagonalna, która składa się z wartości własnych macierzy T,
więc jako macierz współrzędnych moŜna wziąć
2
1
UΛX = (26)
Wartości własne są porządkowane następująco
nλλλ ≥≥ K21
W przypadku, kiedy potrzeba przedstawić dane w przestrzeni o niŜszej
liczbie wymiarów naleŜy wówczas uŜyć tylko największych wartości
własnych, a więc jako nowe współrzędne naleŜy wziąć
2
1
eeΛUX = (27)
Warto na koniec zwrócić uwagę, Ŝe moŜe się zdarzyć taka sytuacja,
w której niepodobieństwa nie będą odległościami euklidesowymi
w związku z czym część wartości własnych moŜe być ujemna. W takim
przypadku nadal moŜna uŜyć klasycznego skalowania, jednak naleŜy
pamiętać, Ŝe najmniejsza wartość własna wzięta do reprezentacji
powinna być dodatnia, a takŜe większa, co do wartości bezwzględnej od
największej ujemnej. W przeciwnym wypadku moŜna uzyskać
niepoprawną reprezentację wyników.
2.3.2. Skalowanie metryczne
Szczególnym przypadkiem skalowania metrycznego jest klasyczne
skalowanie wielowymiarowe. Zadaniem tej metody jest efektywne
rozmieszczenie obiektów w taki sposób, aby otrzymać taki układ, który
jest najlepszym przybliŜeniem obserwowanych odległości. Na podstawie
funkcji nazywanej funkcją stresu moŜna ocenić rozbieŜność, jaka
S t r o n a | 21
zachodzi między danymi niepodobieństwami δij a obliczonymi dij
w przestrzeni Re. Najczęściej stosowaną funkcją stresu jest waŜona,
która przyjmuje postać
( )2
1 1
∑∑= =
−=n
i
n
j
ijijij daS δ (28)
W wielu źródłach moŜna znaleźć róŜne propozycje wag. Do najczęściej
uŜywanych naleŜą
1
1 1
2
−
= =
= ∑∑
n
i
n
j
ijij da (29)
1
1
1 1
−
−
= =
= ∑∑ ij
n
i
n
j
ijij dda (30)
2−= ijij da (31)
Jednak w praktyce najczęściej korzysta się z wagi postaci (30) jest ona
uwaŜana za najlepszą, gdyŜ jest pewnego rodzaju kompromisem
pomiędzy wagami (29) oraz (31). Bardzo często w praktyce jest
wykorzystywana bardziej ogólna postać wzoru (28)
( )( )2
1 1
∑∑= =
−=n
i
n
j
ijijij daS δφ (32)
gdzie funkcja ϕ naleŜy do pewnej predefiniowanej klasy funkcji.
W przypadku, kiedy funkcja ta naleŜy np. do klasy funkcji liniowych,
otrzymujemy
( )2
1 1
∑∑= =
−+=n
i
n
j
ijijij dbaaS δ (33)
Rozwiązaniem jest minimalizacja funkcji stresu i tak w ogólnym
przypadku (32) minimalizacja odbywa się za pomocą iteracyjnej metody
S t r o n a | 22
najmniejszych kwadratów, natomiast w przypadku regresji liniowej (33)
dla danego zbioru współrzędnych początkowych najpierw
minimalizowany jest ze względu na a i b. Natomiast następnym krokiem
jest przyjęcie a i b za znane i minimalizacja ze względu na współrzędne
punktów dij. Proces ten jest powtarzany aŜ do uzyskania zbieŜności.
2.3.3 Skalowanie niemetryczne
Skalowanie niemetryczne zwane jest równieŜ porządkowym i róŜni
się on od skalowania metrycznego tym, Ŝe nie ma tutaj klasycznej
macierzy niepodobieństw pomiędzy obiektami, są za to jedynie pewne
zmienne porządkowe, które róŜnicują obserwacje. W tym przypadku
szukamy takiej konfiguracji nowych punktów, aby porządek był jak
najlepiej zachowany. Rozwiązaniem tego problemu jest iteracyjna
procedura, która wymaga początkowej konfiguracji punktów (z reguły
testowane jest kilka róŜnych początkowych konfiguracji). W metodzie
skalowania niemetrycznego współrzędne punktów w przestrzeni
reprezentacji są poszukiwane tak, aby mogły one minimalizować funkcje
kosztu, będącą miarą stopnia odchylenia od monotoniczności relacji
między dij oraz δij. Z racji tego, Ŝe osiągnięcie rozwiązania doskonale
monotonicznego moŜe nie być moŜliwe naleŜy dąŜyć do tego, aby
porządek dij był jak najbliŜej porządku δij. Znalezienie odpowiedniej
konfiguracji punktów wymusza zdefiniowanie pojęcia monotoniczności,
które moŜna przedstawić w dwóch warunkach. RóŜnica między nimi
wynika jedynie z innego rozwiązania sytuacji remisowych, czyli gdy
δrs = δij. Na podstawie pierwszego warunku rsd̂ i ijd̂ mogą się róŜnić,
natomiast z drugiego warunku wynika, Ŝe nie mogą się róŜnić, co za tym
idzie drugi warunek jest zbyt restrykcyjny i prowadzi do problemów ze
zbieŜnością. Podstawowy warunek monotoniczności
ijrsijrs dd ˆˆ ≤⇒< δδ (34)
S t r o n a | 23
Drugorzędny warunek
ijrsijrs dd ˆˆ ≤⇒≤ δδ (35)
gdzie rsd̂ jest to punkt na linii dopasowania, który odpowiada rsδ . Wartości
rsd̂ są nazywane róŜnicami lub pseudoodległościami. Definicja funkcji
stresu przyjmuje w takim wypadku postać
( )2ˆ∑<
−=ji
ijij ddS (36)
Wynikiem minimalizacji funkcji (36) jest monotoniczna linia regresji,
która jest otrzymana metodą najmniejszych kwadratów. Ze względu na
jednostajne rozszerzanie funkcja (36) nie jest niezmiennicza, natomiast
dzięki odpowiedniej normalizacji stresu niedogodność tą moŜna usunąć
( )∑
∑
<
<
−
=
ji
ij
ji
ijij
d
dd
S2
2ˆ
(37)
Optymalizacja funkcji (37) wymaga uŜycia nieliniowego schematu
optymalizacji, a ten wymaga początkowej konfiguracji punktów, która
jest losowana bądź wybierana jako wynik działania klasycznej metody
skalowania. Wybranie optymalnej konfiguracji punktów wymaga
zadania konkretnego wymiaru przestrzeni e i dlatego testuje się róŜne
wymiary. [2] [5]
2.4. Samoorganizujące się mapy
Samoorganizujące się mapy (ang. Self Organizing Maps, SOM)
zwane są równieŜ sieciami Kohonena. Są one szczególnym rodzajem sieci
neuronowych gdyŜ uczenie odbywa się w trybie bez nauczyciela. Uczenie
takie odbywa się jedynie na podstawie danych wejściowych, gdyŜ nie
S t r o n a | 24
istnieją Ŝadne wzorce wyjściowe, w związku z tym zadaniem
samoorganizujących się map jest wytworzenie takich wzorców w trakcie
uczenia.
Rys. 4. Przykładowa mapa Kohonena, ma ona postać siatki prostokątnej o wymiarze 4 x 4
Sieci Kohonena opierają się na tzw. uczeniu konkurencyjnym.
Jest to przeciwieństwo do nauczania w klasycznych sieciach
neuronowych, gdyŜ w typowych sieciach neuronowych modyfikacji
podlegają wszystkie neurony (wagi neuronów), natomiast w sieciach,
w których wykorzystywane jest uczenie konkurencyjne modyfikacji
podlega jeden neuron oraz neurony z jego sąsiedztwa. Prezentacja wzorców
wejściowych pozwala na wybór neuronu zwycięzcy i tylko on ewentualnie
grupa sąsiadujących z nim neuronów aktualizuje swoje wagi. ZwycięŜa ten
neuron, którego wektor wag jest najbardziej podobny do aktualnego
wektora wejściowego.
S t r o n a | 25
Rys. 5. Ilustracja przykładowej adaptacji wag w sieci Kohonena
WaŜnym etapem podczas procesu samoorganizacji jest wybór
metryki, w jakiej mierzona jest odległość wektora wejściowego x od
wektora wag Wi. Najczęściej uŜywanymi miarami są:
• Miara euklidesowa
( )∑=
−=−=�
j
i
jjii Wx,d1
2)()( WxWx (38)
• Iloczyn skalarny
),cos(),( iiii WxWxd =⋅= WxWx (39)
• Miara według normy L1 (Manhattan)
∑=
−=�
j
i
jji Wxd1
)(),( Wx (40)
S t r o n a | 26
• Miara według normy L∞
)(max),( i
jjj
i Wxd −=Wx (41)
Samoorganizujące się mapy mają dwa podstawowe typy sieci:
• Zwycięzca bierze wszystko (ang. Winner Takes All, WTA)
• Zwycięzca bierze większość (ang. Winner Takes Most, WTM)
W pierwszym przypadku sieć samoorganizująca będzie uczona za
pomocą algorytmu WTA. W algorytmie zwycięzca bierze wszystko (WTA)
tylko zwycięski neuron zostaje zmodyfikowany w taki sposób, aby jego
wagi były jak najbardziej zbliŜone do wektora wejściowego.
Rys. 6. Sieć samoorganizująca się typu WTA
Sygnał x = [x1, x2, …, xn]T zostaje podany na wejście sieci gdzie trafia
na wejścia wszystkich N neuronów. W kolejnym kroku następuje
wyznaczenie metryki, w jakiej mierzona jest odległość wektora wejściowego
x od wektora wag Wi. Najczęściej stosowaną w tym przypadku miarą jest
S t r o n a | 27
miara euklidesowa lub iloczyn skalarny. Po wyznaczeniu odległości
wektorów neuron, który ma najmniejszą odległość wektora wag od sygnału
wejściowego na swoim wyjściu przyjmuje wartość 1, natomiast pozostałe
neurony na wyjściu przyjmują wartość 0. W związku z tym dla j-tego
neuronu zwycięzcy moŜna zapisać:
),(min),(1
i�i
j dd WxWx≤≤
= (42)
W procesie uczenia neuron zwycięzca podlega modyfikacji zmieniając
swoje wektory wag w kierunku wektora x(t) zgodnie z regułą:
)]()()[()()1( ttttt iii WxWW −+=+ η (43)
gdzie η jest wielkością kroku modyfikacji. W sieciach samoorganizujących
się warto zastosować normalizację wektorów wejściowych, gdyŜ brak
normalizacji moŜe doprowadzić do niespójnego podziału przestrzeni.
Normalizacja moŜe być dokonana przez redefinicję składowych wektora x
według wzoru:
∑=
=�
i
i
ii
x
xx
1
2 (44)
Celem uczenia sieci samoorganizujących się jest taki dobór wartości wag,
aby odległość wektora wejściowego x od wektora zwycięskiego była
moŜliwie najmniejsza.
Drugim typem sieci samoorganizujących się jest WTM. Algorytm
zwycięzca bierze większość (WTM) oprócz neuronu zwycięskiego
modyfikuje równieŜ wagi jego otoczenia (sąsiadów). Modyfikacja ta
najczęściej jest zaleŜna od odległości sąsiada od zwycięzcy. Najbardziej
znanym algorytmem WTM jest klasyczny algorytm Kohonena, który oblicza
odległości wszystkich neuronów od wektorów wejściowych, a następnie
S t r o n a | 28
znajduje zwycięzcę. Następnym etapem jest modyfikacja jego wag, a takŜe
wag jego sąsiadów według zaleŜności:
])[,()()1( iii iGtt WxxWW −+=+ η (45)
Funkcję sąsiedztwa G(i,x) definiujemy w postaci:
≤
=łych0
),(1),(
pozostadla
widdlaiG
λx (46)
W powyŜszym wzorze d(i,w) oznacza odległość euklidesową między
wektorami wag neuronu w (zwycięzcy) oraz i-tym neuronem z sąsiedztwa
G. Współczynnik λ jest promieniem sąsiedztwa, którego wartość wraz
z czasem uczenia maleje. Sąsiedztwo tego typu nazywane jest sąsiedztwem
prostokątnym.
W algorytmie Kohonena istnieje równieŜ drugi rodzaj sąsiedztwa,
który nazywa się sąsiedztwem gaussowskim. Taki rodzaj sąsiedztwa
powoduje, iŜ poszczególne neurony w róŜnym stopniu podlegają
modyfikacji i jest ona zaleŜna od funkcji Gaussa, a więc wraz ze wzrostem
odległości od zwycięzcy maleje wielkość korekty wag. Funkcja G(i,x) w tym
przypadku ma postać:
−=
2
2
2
),(exp),(
λwid
iG x (47)
Sąsiedztwo gaussowskie w porównaniu do sąsiedztwa prostokątnego
pozwala uzyskać o wiele lepsze rezultaty uczenia oraz lepszą organizację
sieci. [7] [8]
S t r o n a | 29
3. Narzędzia analizy.
3.1. Matlab
Matlab jest to produkt firmy The Mathworks Inc. z USA. Matlab jest
efektywnym i uniwersalnym językiem wysokiego poziomu, a takŜe bardzo
dobrym środowiskiem dla rozwoju algorytmów, wizualizacji danych oraz
obliczeń numerycznych. Korzystając z Matlaba moŜna rozwiązywać
problemy informatyczne szybciej niŜ robią to tradycyjne języki
programowania takie jak np. C, C++. Zaleta ta jest wynikiem tego, iŜ nie
ma potrzeby wykonywania zadań administracyjnych niskiego poziomu
takich jak deklarowanie zmiennych, określanie typów danych oraz
alokacja pamięci. W wielu przypadkach jedna linia kodu Matlaba jest
w stanie zastąpić kilka linii kodu C lub C++. Kod Matlaba moŜna
zintegrować z innymi językami i aplikacjami. Do ciekawych funkcji naleŜy
zaliczyć moŜliwość dokumentowania oraz rozpowszechniania efektów
swojej pracy (algorytmy, aplikacje). Język Matlaba obsługuje operacje na
wektorach i macierzach, które mają bardzo duŜe znaczenie dla inŜynierii
i problemów naukowych. W Matlabie dostępne są wszystkie funkcje
graficzne, które są wymagane przy wizualizacji danych naukowych
i technicznych. Są to funkcje do wykreślania wykresów 2-D oraz 3-D,
narzędzia do interaktywnego tworzenia wykresów. Matlab posiada takŜe
moŜliwość eksportowania wyników wizualizacji do wszystkich popularnych
formatów graficznych, takich jak GIF, JPG, BMP, TIFF, PNG, AVI i PCX.
W rezultacie czego wykresy moŜna wyeksportować do innych aplikacji
takich jak Microsoft Word i PowerPoint. Matlab jest wydajną platformą
dostępu do danych z plików, innych aplikacji, baz danych i urządzeń
zewnętrznych. MoŜna odczytać dane z popularnych formatów plików,
takich jak Microsoft Excel, tekst ASCII, a takŜe obrazu, dźwięków i plików
wideo oraz plików naukowych takich jak PDF i HDF5. Dodatkowe funkcje
umoŜliwiają odczytywanie danych ze stron internetowych i XML. Warto na
koniec dodać, Ŝe istnieją dodatkowe biblioteki (toolbox) jest to około 30
wyspecjalizowanych pakietów oprogramowania, dzięki którym Matlab
S t r o n a | 30
poszerza swoje zastosowania z zakresu automatyki, przetwarzania
sygnałów i obrazów, optymalizacji, inŜynierii finansowej, obliczeń
symbolicznych, sieci neuronowych, logiki rozmytej i wielu innych.
Podsumowując krótko poniŜej zostały wymienione jego kluczowe cechy [9]:
• Język wysokiego poziomu do obliczeń technicznych
• Środowisko programistyczne do zarządzania kodem, plikami oraz
danymi
• Interaktywne narzędzia do iteracyjnego poszukiwania,
projektowania i rozwiązywania problemów
• Funkcje matematyczne do algebry liniowej, statystyki, analizy
Fouriera, filtrowania i optymalizacji
• 2-D i 3-D funkcje graficzne do wizualizacji danych
• Narzędzia do budowania niestandardowych graficznych
interfejsów uŜytkownika
• Funkcje integracji Matlaba z algorytmami z zewnętrznych
aplikacji i języków, takich jak C, C++, Fortran, Java i Microsoft
Excel
3.2. Drtoolbox
Drtoolbox jest to w wolnym tłumaczeniu skrzynka narzędziowa
(z ang. toolbox, tool – narzędzia, box – skrzynka) do programu Matlab.
Narzędzie to słuŜy do redukcji wymiarowości i zawiera 31 róŜnych technik
redukcji wymiaru do Matlaba. Większość implementacji została
opracowana od samego początku, natomiast pozostałe implementacje są
udoskonalonymi wersjami oprogramowania, które były juŜ dostępne
w sieci. Drtoolbox moŜna pobrać ze strony internetowej
http://ticc.uvt.nl/~lvdrmaaten/dr/download.php. Oprócz technik
redukcji wymiarowości, drtoolbox zawiera implementacje 6 technik do
S t r o n a | 31
szacowania wymiarowości wewnętrznej, a takŜe posiada narzędzie do
generowania sztucznych danych. Dostęp do wszystkich tych wdroŜeń
zapewnia polecenie compute_mapping jednak w ostatniej wersji
drtoolboxa został dodany równieŜ interfejs graficzny. Z narzędzia tego
moŜna korzystać a takŜe modyfikować i rozpowszechniać w dowolny
sposób natomiast jedynie w celach niekomercyjnych. Obecnie drtoolbox
zawiera następujące techniki redukcji wymiarowości [10]:
• Principal Component Analysis (PCA)
• Probabilistic PCA
• Factor Analysis (FA)
• Sammon mapping
• Linear Discriminant Analysis (LDA)
• Multidimensional scaling (MDS)
• Isomap
• Landmark Isomap
• Local Linear Embedding (LLE)
• Laplacian Eigenmaps
• Hessian LLE
• Local Tangent Space Alignment (LTSA)
• Conformal Eigenmaps (extension of LLE)
• Maximum Variance Unfolding (extension of LLE)
• Landmark MVU (LandmarkMVU)
• Fast Maximum Variance Unfolding (FastMVU)
• Kernel PCA
• Generalized Discriminant Analysis (GDA)
• Diffusion maps
• Stochastic Neighbor Embedding (SNE)
• Symmetric SNE (SymSNE)
• t-Distributed Stochastic Neighbor Embedding (t-SNE)
• Neighborhood Preserving Embedding (NPE)
• Locality Preserving Projection (LPP)
• Linear Local Tangent Space Alignment (LLTSA)
S t r o n a | 32
• Stochastic Proximity Embedding (SPE)
• Multilayer autoencoders (training by RBM + backpropagation or
by an evolutionary algorithm)
• Local Linear Coordination (LLC)
• Manifold charting
• Coordinated Factor Analysis (CFA)
• Gaussian Process Latent Variable Model (GPLVM)
3.3 Algorytm samoorganizujących się map SOM
Większa część pracy dotycząca wizualizacji danych opierała się
o dostępne w internecie darmowe narzędzie drtoolbox, które zostało
opisane w podrozdziale 3.2. Pomimo faktu, iŜ zawiera on 31 najbardziej
znanych technik redukcji wymiaru nie zawiera on algorytmu
samoorganizujących się map SOM. W związku z tym na potrzeby pracy
został zaimplementowany algorytm SOM, którego zasada działania została
opisana w podrozdziale 2.4. Cały algorytm samoorganizujących się map
powstał w środowisku Matlab. Jego główna część w zaleŜności od potrzeb
pozwala na wybranie danych, które chcemy wizualizować oraz wybór
rozmiaru mapy a takŜe liczby jej wymiarów tzn. czy ma ona być
jednowymiarowa czy dwuwymiarowa. Końcowa część pozwala na
utworzenie wykresu w postaci mapy róŜnokolorowych punktów
w zaleŜności od przynaleŜności danych do odpowiedniej klasy. KaŜda klasa
jest rysowana innym kolorem, a algorytm został opracowany dla 3 klas,
w związku z czym zostały zastosowane kolory z palety RGB (R – czerwony,
G – zielony, B – niebieski). Ewentualne zmiany koloru z czerwonego
i zielonego (w przypadku Iris równieŜ niebieskiego) na inny są wynikiem
nałoŜenia się barw i są proporcjonalne do zawartości przypadków danej
klasy w danym klastrze. Zaimplementowane samoorganizujące się mapy
oparte są o typ sieci WTM (zwycięzca bierze większość). Program składa się
z siedmiu funkcji, które razem tworzą samoorganizującą się mapę:
• skrypt.m – odpowiada za wczytanie danych, które chcemy
wizualizować, daje moŜliwość wyboru rozmiaru mapy oraz liczby
S t r o n a | 33
jej wymiarów. Na końcu zostały dopisane pozostałe metody
wizualizacji, aby za pomocą jednego skryptu otrzymywać
wszystkie wyniki.
• som.m – oblicza odległości wszystkich neuronów od wektorów
wejściowych, po czym znajduje zwycięzcę i modyfikuje jego wagi.
• findneighbours.m – zajmuje się znajdowaniem sąsiadów neuronu
zwycięzcy oraz aktualizowaniem ich wag
• normalizacja.m – przeprowadza normalizację dla wszystkich
wczytanych wektorów.
• odleglosc2.m – funkcja ta określa wybraną metrykę podczas
procesu samoorganizacji i na jej podstawie oblicza odległość
wektora wejściowego od wektora wag.
• plot_grid.m – odpowiada za rysowanie samoorganizującej się
mapy. Jej rozmiary określane są w funkcji skrypt.m.
• plotData.m – jest funkcją, która odpowiada za rysowanie
wizualizacji wykonanych pozostałymi metodami.
3.4. Wstępne przetwarzanie danych (standaryzacja/normalizacja)
W zastosowaniach praktycznych podczas klasyfikacji danych bardzo
waŜnym etapem jest wstępne przygotowanie danych. Jest to bardzo
istotna kwestia, poniewaŜ ma wpływ na szybkość uczenia modelu, a takŜe
na jego późniejsze uogólnienie. Biorąc pod uwagę modele klasyfikacyjne,
które uŜywają odległości jako miar podobieństwa bardzo częstym
przypadkiem jest, Ŝe poszczególne cechy przedstawiają jakieś stany
fizyczne na podstawie róŜnych wielkości fizycznych, które mają róŜne
zakresy wartości, w związku, z czym mogą one mieć róŜny wpływ na
odległość. Najbardziej znanymi metodami ujednolicającymi wpływ
poszczególnych cech do wartości odległości są standaryzacja oraz
normalizacja.
S t r o n a | 34
3.3.1. Standaryzacja
Standaryzacja jest to transformacja, która wykorzystuje rozkład
wartości w poszczególnych cechach.
( )xxx
xi
iii σ
−='
(48)
gdzie
∑=n
j
i
ji xn
x1
(49)
( ) ( )2
1
1 ∑ −−
=n
j
ij
ii xxn
xσ (50)
Wynik, jaki otrzymujemy po standaryzacji to wektor cech, którego wartość
średnia x = 0, natomiast odchylenie standardowe σ = 1, dzięki czemu
kaŜda cecha ma jednakowy wkład do wartości odległości. Podczas
stosowania standaryzacji naleŜy uwaŜać, gdyŜ w przypadku zastosowania
jej dla wektora cech, dla którego odchylenie standardowe jest bliskie zeru,
moŜe on wprowadzić do danych duŜy szum.
3.3.2 Normalizacja
Normalizacja przeprowadzana jest dla wszystkich wektorów treningowych
i testowych. Dla obu zbiorów uŜywane są te same wartości min_ix i max_ix .
Jest ona przeprowadzana według wzoru
min_max_
min_'
ii
ii
ixx
xxx
−
−= (51)
gdzie min_ix jest minimalną wartością występującą w zbiorze treningowym
dla i-tej cechy, natomiast max_ix jest maksymalną wartością dla i-tej cechy.
S t r o n a | 35
Wynikiem normalizacji są wektory, których wartości cech są zawarte
w przedziale [0, 1]. Normalizacja ta nie uwzględnia rozkładu danej cechy,
co za tym idzie, kiedy w danej cesze wystąpi wartość, która znacznie róŜni
się od wartości typowych, nastąpi ściśnięcie większości wartości w bardzo
wąskim przedziale.
S t r o n a | 36
4. Porównanie metod wizualizacji
4.1. Opis danych
Podczas porównywania metod wizualizacji wszystkie algorytmy
wizualizowały trzy róŜne zbiory danych i wszystkie te zbiory zostały
poddane redukcji wymiarów. Dane te w dwóch przypadkach zostały
sztucznie wygenerowane, a są to Swiss Roll oraz Helix. Kolejny trzeci zbiór
danych Iris oparty jest o składowe wymiary kwiatu irysa.
Swiss Roll jest to trójwymiarowy zbiór sztucznie utworzonych
danych. Zbiór tych danych składa się z 1000 punktów, a kaŜdy z nich
naleŜy do jednej z dwóch klas. Na rys. 7 został przedstawiony zbiór danych
Swiss Roll.
Rys. 7. Zbiór danych Swiss Roll
Kolejnym zbiorem, który został poddany redukcji wymiarów jest
zbiór Helix. Jest to równieŜ trójwymiarowy zbiór danych, który został
S t r o n a | 37
sztucznie wygenerowany. Składa się on z 2000 punktów i kaŜdy z nich
naleŜy do jednej z dwóch klas. Rys. 8 przedstawia zbiór danych Helix.
Rys. 8. Zbiór danych Helix
Zbiór Iris jest to zbiór danych, który opisuje 150 przypadków, które
naleŜą do jednej z trzech klas. Klasy te są róŜnymi gatunkami kwiatu
irysa. W przypadku tego zbioru są to gatunki setosa, versicolor oraz
virginica. Na kaŜdy gatunek irysa przypada 50 przypadków róŜnych
danych. Zbiór ten jest czterowymiarowy gdyŜ kaŜdy przypadek irysa
opisany jest przez cztery atrybuty, które określają składowe wymiary
kwiatów, a mianowicie długość listka kielicha, szerokość listka kielicha,
długość oraz szerokość płatka, wszystkie wymiary podane są w cm.
Na rys. 9. został przedstawiony zbiór danych Iris w przestrzeni
dwuwymiarowej na podstawie dwóch cech kwiatu (długości oraz
szerokości płatka).
S t r o n a | 38
1 2 3 4 5 6 70
0.5
1
1.5
2
2.5Oryginalne dane IRIS
Rys. 9. Zbiór danych Iris
4.2. Wyniki oraz ich interpretacja
Na podstawie danych przedstawionych w poprzednim podrozdziale
zostaną przedstawione wyniki redukcji wymiarów tych danych.
Przedstawione wyniki zostały uzyskane za pomocą czterech metod
redukcji wymiaru. Są to: analiza składowych głównych (PCA), liniowa
analiza dyskryminacyjna (LDA), skalowanie wielowymiarowe (MDS),
a dokładniej skalowanie metryczne oraz samoorganizujące się mapy
(SOM).
S t r o n a | 39
4.2.1. Wizualizacja zbioru Swiss Roll
PCA
-20 -15 -10 -5 0 5 10 15 20-15
-10
-5
0
5
10
15PCA
Rys. 10. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą PCA
W przypadku wizualizacji zbioru Swiss Roll metodą analizy
składowych głównych uzyskane wyniki zostały przedstawione na wykresie
powyŜej. Analizując go moŜna stwierdzić, Ŝe metoda składowych głównych
nie poradziła sobie z wizualizacją tego zbioru danych.
S t r o n a | 40
LDA
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2LDA
Rys. 11. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą LDA
Wizualizacja danych Swiss Roll za pomocą metody liniowej analizy
dyskryminacyjnej została przedstawiona na wykresie powyŜej. Uzyskane
wyniki pokazują, Ŝe metoda liniowej analizy dyskryminacyjnej poradziła
sobie przedstawiając dane Swiss Roll w dwóch wymiarach, jednocześnie
wyodrębniając dwie róŜne klasy, z jakich składa się ten zbiór. Na wykresie
widać dokładnie granicę pomiędzy tymi klasami i tak jak przewiduje
metoda LDA granice te powstały na podstawie separującej prostej
dyskryminacyjnej.
S t r o n a | 41
MDS
-0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6MDS
Rys. 12. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą MDS
Na powyŜszym wykresie przedstawione zostały wyniki wizualizacji
zbioru danych Swiss Roll za pomocą skalowania wielowymiarowego.
Analizując wykres moŜna stwierdzić, iŜ MDS dał bardzo podobny wynik do
PCA z jedyną taką róŜnicą, Ŝe wykres został obrócony o pewien kąt. Widać
więc, Ŝe skalowanie wielowymiarowe nie poradziło sobie z wizualizacja
danych Swiss Roll.
S t r o n a | 42
SOM
0 2 4 6 8 10 12 14 16 18 200
2
4
6
8
10
12
14
16
18
20
SOM
Rys. 13. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą SOM
Kolejny wykres zamieszczony powyŜej przedstawia wyniki
wizualizacji zbioru Swiss Roll za pomocą samoorganizujących się map.
Wyniki moŜna porównać z wynikami, które zostały uzyskane za pomocą
LDA, gdyŜ oba wykresy pokazują „pas” punktów w kolorze zielonym
następnie w czerwonym i znowu w zielonym (punkty, które mają inne
odcienie są miejscami, w których dane się nakładają na siebie i SOM nie
jest w stanie jednoznacznie określić, do której klasy one naleŜą).
Otrzymany rozkład danych jest bardzo podobny do rozkładu punktów,
który otrzymamy po obróceniu wykresu trójwymiarowego Swiss Roll w taki
sposób, aby dane moŜna było obserwować w rzucie na płaszczyznę X–Y
(Z=0). Uzyskanie takich wyników dla algorytmu SOM wymagało
wielokrotnych prób inicjalizacji algorytmu. W przypadku nieodpowiedniej
inicjalizacji moŜliwe było uzyskanie wyniku jak na rys. 14, na którym
widać, Ŝe SOM nie poradził sobie z wizualizacją i dał wynik, który
S t r o n a | 43
pozbawiony jest łatwej interpretacji, co wpływa na znaczne ograniczenie
moŜliwości zastosowań omawianego algorytmu.
0 2 4 6 8 10 12 14 16 18 200
2
4
6
8
10
12
14
16
18
20SOM
Rys. 14. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą SOM
S t r o n a | 44
4.2.2. Wizualizacja zbioru Helix
PCA
-4 -3 -2 -1 0 1 2 3 4-4
-3
-2
-1
0
1
2
3
4PCA
Rys. 15. Helix wyniki redukcji wymiarów uzyskane za pomocą PCA
W przypadku wizualizacji zbioru Helix metodą analizy składowych
głównych uzyskane wyniki zostały przedstawiony na wykresie powyŜej.
Analizując ten wykres na podstawie oryginalnych danych moŜna
zauwaŜyć, iŜ redukcja wymiarów do przestrzeni dwuwymiarowej dała
obraz oryginalnych danych obserwowanych na wykresie trójwymiarowym
w rzucie na płaszczyznę X–Y (Z=0).
S t r o n a | 45
LDA
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5LDA
Rys. 16. Helix wyniki redukcji wymiarów uzyskane za pomocą LDA
Na powyŜszym wykresie przedstawione zostały wyniki wizualizacji
danych Helix za pomocą liniowej analizy dyskryminacyjnej. Uzyskane
wyniki wskazują na fakt, iŜ oryginalne dane są dość skomplikowane dla
liniowej analizy dyskryminacyjnej w związku, z czym nie poradziła ona
sobie z wizualizacją tych danych w przestrzeni dwuwymiarowej.
S t r o n a | 46
MDS
-0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4MDS
Rys. 17. Helix wyniki redukcji wymiarów uzyskane za pomocą MDS
Wizualizacja zbioru danych Helix za pomocą skalowania
wielowymiarowego została przedstawiona na wykresie powyŜej.
Rozpatrując otrzymane wyniki moŜna stwierdzić, Ŝe skalowanie
wielowymiarowe dało prawie identyczny efekt jak analiza składowych
głównych, a więc wizualizacja danych w przestrzeni dwuwymiarowej
pokazuje rzut na płaszczyznę X–Y (Z=0). Porównując metodę MDS z PCA
warto zwrócić uwagę na to, iŜ róŜnice, jakie występują w wynikach
odnoszą się jedynie do skali, w jakiej zostały przedstawione dane. MoŜna
równieŜ zauwaŜyć, Ŝe MDS jest obrócony o niewielki kąt względem
wykresu PCA.
S t r o n a | 47
SOM
0 5 10 15 20 25 30 35 400
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2SOM
Rys. 18. Helix wyniki redukcji wymiarów uzyskane za pomocą SOM w przestrzeni 1D
Na podstawie zbioru danych Helix za pomocą samoorganizujących
się map przygotowana została wizualizacja do przestrzeni
jednowymiarowej, która przedstawiona jest na wykresie powyŜej.
Analizując wyniki otrzymane w tej wizualizacji moŜna stwierdzić, Ŝe SOM
zadziałał prawidłowo. Jak widać na wykresach z metod PCA oraz MDS
dane co pewną wartość zmieniają klasę z zielonych na czerwone
i odwrotnie. SOM w tym przypadku właśnie w taki sposób przedstawił te
dane, czyli jako ciąg danych, w których co pewien okres pojawiają się
naprzemiennie dane z dwóch klas.
S t r o n a | 48
0 5 10 15 20 25 300
5
10
15
20
25
30SOM
Rys. 19. Helix wyniki redukcji wymiarów uzyskane za pomocą SOM w przestrzeni 2D
Na powyŜszym wykresie przedstawione zostały wyniki wizualizacji
danych Helix do przestrzeni dwuwymiarowej za pomocą metody SOM.
Uzyskane wyniki wskazują, iŜ istnieje pewna zaleŜność między danymi,
a mianowicie dane z obydwu klas zielonej i czerwonej w niektórych
miejscach łączą się, natomiast dane z tej samej klasy zawsze są
odseparowane od siebie. Widać jednak, Ŝe wyniki z przestrzeni
dwuwymiarowej są duŜo trudniejsze do zinterpretowania.
S t r o n a | 49
4.2.3. Wizualizacja zbioru Iris
PCA
-4 -3 -2 -1 0 1 2 3 4-1.5
-1
-0.5
0
0.5
1
1.5PCA
Rys. 20. Iris wyniki redukcji wymiarów uzyskane za pomocą PCA
W przypadku wizualizacji zbioru Iris metodą analizy składowych
głównych uzyskane wyniki zostały przedstawione na wykresie powyŜej.
Analizując go moŜna stwierdzić, Ŝe metoda składowych głównych bardzo
dobrze poradziła sobie z wizualizacją tych danych. Na wykresie doskonale
widać, Ŝe idealnie została wyodrębniona jedna klasa (jeden gatunek irysa).
Pozostałe dwie klasy (dwa gatunki irysa) równieŜ zostały dobrze
przedstawione i widać, Ŝe są to odrębne klasy natomiast w pewnym
zakresie klasy te się łączą, co świadczy o tym, Ŝe te dwa gatunki irysa są
w tym zakresie bardzo do siebie podobne.
S t r o n a | 50
LDA
-10 -8 -6 -4 -2 0 2 4 6 8 10-3
-2
-1
0
1
2
3LDA
Rys. 21. Iris wyniki redukcji wymiarów uzyskane za pomocą LDA
Wizualizacja danych Iris za pomocą metody liniowej analizy
dyskryminacyjnej została przedstawiona na wykresie powyŜej. Uzyskane
wyniki pokazują, Ŝe metoda liniowej analizy dyskryminacyjnej bardzo
dobrze przedstawiła dane Iris w dwóch wymiarach, jednocześnie
wyodrębniając jeden gatunek irysa. Pozostałe dwa gatunki irysa zostały
równieŜ bardzo dobrze wyodrębnione z widoczną granicą, w której te
gatunki są do siebie bardzo podobne. Porównując metodę LDA do PCA
i MDS moŜna stwierdzić, iŜ te dwie klasy separują się duŜo lepiej niŜ przy
wykorzystaniu PCA i MDS.
S t r o n a | 51
MDS
-0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4MDS
Rys. 22. Iris wyniki redukcji wymiarów uzyskane za pomocą MDS
Na powyŜszym wykresie przedstawione zostały wyniki wizualizacji
zbioru danych Iris za pomocą skalowania wielowymiarowego. Analizując
wykres moŜna stwierdzić, iŜ MDS dał podobny wynik do PCA oraz LDA
z jedyną tylko róŜnicą, Ŝe wykres jest prawie lustrzanym odbiciem
pozostałych. Widać więc, Ŝe skalowanie wielowymiarowe równieŜ poradziło
sobie z wizualizacja danych Iris i uzyskało podobny efekt do poprzednich
metod.
S t r o n a | 52
SOM
0 1 2 3 4 5 6 7 8 9 100
1
2
3
4
5
6
7
8
9
10SOM
Rys. 23. Iris wyniki redukcji wymiarów uzyskane za pomocą SOM
Wykres zamieszczony powyŜej przedstawia wyniki wizualizacji zbioru
Iris za pomocą samoorganizujących się map. Wyniki moŜna porównać
z tymi, które zostały uzyskane za pomocą pozostałych metod. Na siatce
danych bardzo dobrze został wyodrębniony gatunek irysa (kolor czerwony),
który jest odseparowany od pozostałych pustymi miejscami. Druga część
siatki zawiera pozostałe dwa gatunki irysa, które są rozdzielone natomiast
w pewnym zakresie danych znajdują się blisko siebie, co wskazuje na to,
iŜ w tym zakresie gatunki te są do siebie bardzo podobne.
S t r o n a | 53
4.3. Wnioski
Na podstawie uzyskanych wyników moŜna stwierdzić, Ŝe kaŜda
z przedstawionych metod, biorąc pod uwagę zbiór Iris, w bardzo dobry
sposób zwizualizowała te dane, jednak naleŜy podkreślić fakt, Ŝe zbiór
danych Iris jest jednym z prostszych zbiorów, dlatego metody te nie miały
trudności w redukcji wymiarów i dalszej wizualizacji. W przypadku
pozostałych zbiorów danych w zaleŜności od złoŜoności danych a takŜe
rodzaju zastosowanej metody, algorytmy te działały w róŜny sposób.
Na prostych stosunkowo danych Swiss Roll bez problemu poradziła sobie
metoda LDA, co ciekawe metody PCA oraz MDS nie przedstawiły
zadowalających wyników (w Ŝaden sposób nie da się zinterprepretować
uzyskanych wyników). Dla metody LDA trudnym zbiorem do wizualizacji
okazały się dane Helix i metoda ta nie poradziła sobie w ogóle
z wizualizacją tych danych. Algorytmy PCA oraz MDS w tym przypadku
przeprowadziły wizualizację poprawnie, co widać na zamieszczonych
w pracy wynikach. W przypadku metody SOM potrzebna była jej
wielokrotna inicjalizacja, dzięki temu przedstawiła ona spodziewane
wyniki, jednak wielokrotna inicjalizacja jest powaŜną wadą metody SOM,
gdyŜ nie mamy pewności, kiedy otrzymamy spodziewany wynik. Podczas
badań metody te kilkukrotnie były uruchamiane w celu sprawdzenia
nowych wyników. Na podstawie kilku prób, które zostały przeprowadzone
moŜna stwierdzić, iŜ metody PCA oraz LDA uruchamiane kilkukrotnie na
tych samych danych dawały ten sam wynik, natomiast metody MDS oraz
SOM po kaŜdej próbie dawały inny wynik (inne rozmieszczenie punktów)
jednak interpretacja tych wyników dawała zawsze taki sam efekt.
S t r o n a | 54
5. Opis procesu stalowniczego
W obecnych czasach podczas wytwarzania stali pod uwagę brane są
głównie dwa najwaŜniejsze procesy. Pierwszym z nich jest konwertor
tlenowy, który z udziałem złomu stalowego przerabia surówkę Ŝelaza
z wielkiego pieca na stal. Drugi sposób realizowany jest w stalowniach,
które wyposaŜone są w piece łukowe i dzięki zachodzącym w nich
procesom elektrycznym wytwarzana jest stal w oparciu o złom stalowy.
W pracy zostanie omówiony drugi sposób otrzymywania stali gdyŜ na jego
podstawie powstały dane, które będą analizowane w dalszej części pracy.
Rys. 24. Schemat technologiczny procesu elektrostalowniczego
Podczas wytapiania stali w elektrycznych piecach łukowych źródłem
ciepła jest łuk elektryczny, czyli ładunki elektryczne, które przepływają
przez zjonizowane powietrze. Nagrzewanie wsadu łukiem elektrycznym
moŜe odbywać się na dwa sposoby, a mianowicie w sposób pośredni, czyli
kiedy łuk płonie pomiędzy elektrodami oraz w sposób bezpośredni, gdy łuk
płonie pomiędzy elektrodami a wsadem. Najczęściej stosowane są piece,
które nagrzewają łukiem bezpośrednim, gdyŜ w przypadku tego
nagrzewania panują łagodniejsze warunki pracy. W skład takiego pieca
wchodzi kocioł wyłoŜony materiałem ogniotrwałym, w którym umieszczone
S t r o n a | 55
jest okno ŜuŜlowe, przez które zlewany jest ŜuŜel, a takŜe otwór spustowy
do zlania stali. Elektrody, które dostarczają energię elektryczną
przechodzą przez sklepienie z otworami, które obrócone na bok umoŜliwia
załadowanie do pieca złomu. Oprócz tego piec składa się z mechanizmu
przechylającego piec, urządzenia, które podnosi i opuszcza elektrody,
a takŜe układów elektrycznej regulacji i zasilania. Jako podstawowy wsad
do pieca stosowany jest złom stalowy, jednak podczas całego procesu
stosowane są równieŜ dodatki stopowe, nawęglacze, topniki, spieniacze
ŜuŜla oraz odtleniacze. Cały proces wytapiania stali moŜna przedstawić
w kilku podpunktach:
• Załadowanie wsadu do pieca
• Roztopienie wsadu
• ŚwieŜenie
• Ściągnięcie ŜuŜla
• Odtlenienie
• Korekta składu chemicznego (ewentualne wprowadzenie
dodatków stopowych)
• Odtlenianie Ŝelazokrzemem
• Spust stali do kadzi
• Naprawa pospustowa pieca
Po załadowaniu wsadu za pomocą kosza a następnie przykryciu kotła
sklepieniem zostają opuszczone elektrody i włączony zostaje prąd. W tym
momencie rozpoczyna się proces roztapiania wsadu, a następnie
świeŜenia, podczas których zachodzi utlenianie domieszek węgla, fosforu,
manganu, krzemu i innych. Po otrzymaniu wymaganych zawartości
pierwiastków w kąpieli oraz wymaganej temperatury następuje ściągnięcie
ŜuŜla i zlanie metalu do pieco-kadzi z jednoczesnym dodawaniem
S t r o n a | 56
przewidzianych dla danego gatunku stali dodatków stopowych. Bardzo
częstym przypadkiem podczas zlewania jest częściowa redukcja
i odtlenianie kąpieli.
Pieco-kadź jest przeznaczona do wykańczania i rafinacji ciekłej stali.
Urządzenie to pozwala nam na odsiarczanie, odtlenianie, końcową
regulację składu chemicznego oraz temperatury. Korzystanie z pieco-kadzi
przyczynia się do wzrostu wydajności stalowni oraz obniŜenia kosztów
produkcji stali. Urządzenie to składa się z kadzi z porowatą kształtką
w dnie, pokrywy chłodzonej wodą z otworami na elektrody grafitowe,
dozownika dodatków stopowych oraz transformatora zasilającego.
Aby przyspieszyć reakcje metalurgiczne oraz zapewnić dokładne
rozprowadzenie dodatków stopowych i ujednorodnić kąpiel stosowane jest
jej mieszanie. Efekt mieszania uzyskiwany jest poprzez wdmuchiwanie
przez kształtkę porowatą w dnie kadzi argonu. Podczas procesu w pieco-
kadzi bardzo waŜne jest wytworzenie odpowiedniego ŜuŜla
i niedopuszczenie ŜuŜla piecowego do wnętrza kadzi, gdyŜ posiada on
bardzo duŜe stęŜenie tlenków Ŝelaza i manganu, przez co stal nasyciłaby
się tlenem i tym samym ograniczyłaby się moŜliwość odsiarczenia kąpieli.
Po osiągnięciu końcowego składu stali moŜna przystąpić do procesu
ciągłego odlewania. [11] [12]
We współczesnych czasach metoda ciągłego odlewania stali stała się
jedną z najpopularniejszych metod, gdyŜ gwarantuje ona wysoką jakość,
największą wydajność oraz niskie koszta. Metoda ta działa na zasadzie
nieprzerwanego przesuwania się krzepnącego metalu w przelotowej formie
(krystalizator), która jest intensywnie chłodzona. Pomimo róŜnych typów
urządzeń do ciągłego odlewania ich funkcje są podobne. Stal z kadzi
odlewniczej wlewana jest do kadzi pośredniej, która moŜe mieć jeden lub
więcej wylewów, a dalej do jednego lub kilku krystalizatorów.
Krystalizatory posiadają podwójne ściany, pomiędzy którymi przepływa
woda, która je chłodzi (chłodzenie pierwotne). Po wyjściu z krystalizatora
wlewek o zakrzepłej zewnętrznej warstwie i o rdzeniu w stanie ciekłym
dostaje się do strefy chłodzenia wtórnego. W dalszej części wlewek dostaje
S t r o n a | 57
się pomiędzy rolki ciągnące, a następnie do strefy, w której znajdują się
urządzenia do cięcia na określone kawałki i dalej transportowane jest do
dalszej przeróbki. Na podstawie kształtu krystalizatora oraz geometrii
prowadzenia wlewka urządzenia COS podzielone zostały na pięć typów:
• Z prostym krystalizatorem i pionowym prowadzeniem wlewka
• Z prostym krystalizatorem i początkowo pionowym prowadzeniem
wlewka, który następnie jest gięty i odginany
• Z krystalizatorem łukowym lub rzadziej prostym i prowadzeniem
wlewka po łuku 10 – 12 m z jedno- lub wielopunktowym
odginaniem wlewka
• Z krystalizatorem łukowym i prowadzeniem wlewka wzdłuŜ
krzywej eliptycznej, pozwalającym na znaczne obniŜenie
urządzenia
• Poziome urządzenie COS
Metoda ciągłego odlewania stali wyparła metodę rozlewania stali do
wlewnic, poniewaŜ zwiększył się uzysk o ok. 20%, metoda ta potrzebuje
ok. 75% mniej energii do wyprodukowania jednostkowej ilości wyrobów
walcowanych. Dzięki wyeliminowaniu szeregu etapów potrzebnych przy
wytwarzaniu we wlewnicach cały cykl produkcyjny został skrócony,
a wprowadzona automatyzacja procesów pozwoliła na poprawę jakości
i powtarzalności wytwarzanego stopu. Na chwilę obecną technologia
ciągłego odlewania stali jest nadal rozwijana, czego dowodem jest
wytwarzanie profili walcowych, a takŜe bardzo duŜa ilość rozwiązań do
produkcji blach i taśm. [12] [13]
S t r o n a | 58
6. Wizualizacja danych procesu stalowniczego
6.1. Opis zbioru danych
Analizowany zbiór danych powstał na podstawie danych
pochodzących z procesu stalowniczego. Proces ten składa się z dwóch
etapów. Pierwsza część danych pochodzi z pierwszego etapu, w którym
w elektrycznym piecu łukowym (EAF) topi się złom za pomocą łuku
elektrycznego. W momencie, w którym temperatura oraz skład chemiczny
stali są odpowiednie, stal jest zlewana do pieco-kadzi. Jednak przed
rozpoczęciem drugiego etapu potrzebne jest odtlenienie stali. W związku
z tym do stali wprowadzane są odtleniacze na dwa sposoby albo
bezpośrednio przed zlaniem stali odtleniacze są umieszczane w kadzi,
drugim sposobem jest dodawanie odtleniaczy do strumienia stali zlewanej
do pieco-kadzi. Najczęściej stosowanymi odtleniaczami są aluminium,
krzem i mangan. Reszta danych w zbiorze opisuje drugi etap procesu
produkcji stali (LHF). Podczas drugiego etapu produkcji stali dodawane są
inne dodatki w celu optymalizacji składu stali tak, aby spełniały wymogi
specyfikacji oraz wymagań klienta. Zbiór danych do wizualizacji zawiera
informacje o stali, która ma kod nr 65, co odpowiada gatunkowi
S235JRG2, który dzieli się na dwa podgatunki o nr 214 oraz 215.
Wizualizacji poddano dwa niezaleŜne zbiory nazwane data1 oraz data2,
róŜniące się ilością informacji – ilością zmiennych opisujących badany
proces.
PoniŜej zostały opisane zmienne stanowiące cechy badanego zbioru.
Kolumna 1: zmienne wyjściowe:
Gatunek stali
Kolumny 2-70: zmienne wejściowe opisujące zbiór data2
eaf_Time - znormalizowany czas procesu EAF
eaf_Celx - ilość tlenu w stali (w ppm)
eaf_Tmp - ostatni pomiar temperatury w procesie EAF
eaf_C - ilość węgla w stali (w%) w ostatniej analizie procesu EAF
S t r o n a | 59
eaf_Mn - ilość manganu w stali (w%) w ostatniej analizie procesu EAF
eaf_Si - ilość krzemu w stali (w%) w ostatniej analizie procesu EAF
eaf_P - ilość fosforu w stali (w%) w ostatniej analizie procesu EAF
eaf_S - ilość siarki w stali (w%) w ostatniej analizie procesu EAF
eaf_Cr - ilość chromu w stali (w%) w ostatniej analizie procesu EAF
eaf_Ni - ilość niklu w stali (w%) w ostatniej analizie procesu EAF
eaf_Cu - ilość miedzi w stali (w%) w ostatniej analizie procesu EAF
eaf_Mo - ilość molibdenu w stali (w%) w ostatniej analizie procesu EAF
eaf_Al - ilość aluminium w stali (w%) w ostatniej analizie procesu EAF
eaf_V - ilość wanadu w stali (w%) w ostatniej analizie procesu EAF
eaf_Sn - ilość cyny w stali (w%) w ostatniej analizie procesu EAF
eaf_As - ilość arsenu w stali (w%) w ostatniej analizie procesu EAF
eaf_Ca - ilość wapnia w stali (w%) w ostatniej analizie procesu EAF
eaf_N2 - ilość azotu w stali (w%) w ostatniej analizie procesu EAF
eaf_Cq - współczynnik
eaf_A1 - współczynnik
eaf_Nb - ilość niobu w stali (w%) w ostatniej analizie procesu EAF
eaf_Co - ilość kobaltu w stali (w%) w ostatniej analizie procesu EAF
eaf_B - ilość boru w stali (w%) w ostatniej analizie procesu EAF
eaf_Pb - ilość ołowiu w stali (w%) w ostatniej analizie procesu EAF
eaf_Zr - ilość cyrkonu w stali (w%) w ostatniej analizie procesu EAF
eaf_Zn - ilość cynku w produkcji stali (w%) w ostatniej analizie procesu
EAF
eaf_Sb - ilość antymonu w stali (w%) w ostatniej analizie procesu EAF
lhf_Time - znormalizowany czas procesu LHF
lhf_Tmp - znormalizowana temperatura procesu LHF
lhf_C - ilość węgla w stali (w%) w pierwszej analizie procesu LHF
lhf_Mn - ilość manganu w stali (w%) w pierwszej analizie procesu LHF
lhf_Si - ilość krzemu w stali (w%) w pierwszej analizie procesu LHF
lhf_P - ilość fosforu w stali (w%) w pierwszej analizie procesu LHF
lhf_S - ilość siarki w stali (w%) w pierwszej analizie procesu LHF
lhf_Cr - ilość chromu w stali (w%) w pierwszej analizie procesu LHF
lhf_Ni - ilość niklu w stali (w%) w pierwszej analizie procesu LHF
S t r o n a | 60
lhf_Cu - ilość miedzi w stali (w%) w pierwszej analizie procesu LHF
lhf_Mo - ilość molibdenu w stali (w%) w pierwszej analizie procesu LHF
lhf_Al - ilość aluminium w stali (w%) w pierwszej analizie procesu LHF
lhf_Ti - ilość tytanu w stali (w%) w pierwszej analizie procesu LHF
lhf_V - ilość wanadu w stali (w%) w pierwszej analizie procesu LHF
lhf_Sn - ilość cyny w stali (w%) w pierwszej analizie procesu LHF
lhf_As - ilość arsenu w stali (w%) w pierwszej analizie procesu LHF
lhf_Ca - ilość wapnia w stali (w%) w pierwszej analizie procesu LHF
lhf_N2 - ilość azotu w stali (w%) w pierwszej analizie procesu LHF
lhf_Cq - współczynnik
lhf_Al - współczynnik
lhf_Nb - ilość niobu w stali (w%) w pierwszej analizie procesu LHF
lhf_Co - ilość kobaltu w stali (w%) w pierwszej analizie procesu LHF
lhf_B - ilość boru w stali (w%) w pierwszej analizie procesu LHF
lhf_Pb - ilość ołowiu w stali (w%) w pierwszej analizie procesu LHF
lhf_Zr - ilość cyrkonu w stali (w%) w pierwszej analizie procesu LHF
lhf_Zn - ilość cynku w stali (w%) w pierwszej analizie procesu LHF
lhf_Sb - ilość antymonu w stali (w%) w pierwszej analizie procesu LHF
btm_Al - ilość aluminium w stali (w%) w pierwszej analizie procesu LHF
btm_Carb - ilość węgla umieszczona na dnie kadzi (w kg/Mg stali)
btm_FeSi - ilość Ŝelazokrzemu umieszczona na dnie kadzi (w kg/Mg stali)
btm_SiC - ilość węglika krzemu umieszczona na dnie kadzi (w kg/Mg stali)
btm_Woll - ilość wollastonitu umieszczona na dnie kadzi (w kg/Mg stali)
cast_Carb - ilość węgla wprowadzona do strumienia (w kg/Mg stali)
cast_Baux - ilość boksytu wprowadzana do strumienia (w kg/Mg stali)
cast_CaF2 - ilość fluorytu wprowadzana do strumienia (w kg/Mg stali)
cast_FeCr - ilość wprowadzana do strumienia (w kg/Mg stali)
cast_FeMn - ilość wprowadzana do strumienia (w kg/Mg stali)
cast_FeSi - ilość Ŝelazokrzemu wprowadzana do strumienia (w kg/Mg stali)
cast_FeSiMn - ilość Ŝelazokrzemomanganu wprowadzana do strumienia
(w kg/Mg stali)
cast_SiC - ilość węglika krzemu wprowadzana do strumienia (w kg/Mg
stali)
S t r o n a | 61
cast_Ca - ilość wapnia wprowadzana do strumienia (w kg/Mg stali)
cast_Woll - ilość wollastonitu wprowadzana do strumienia (w kg/Mg stali)
Kolumny 71 - 81: zmienne wejściowe – dodatkowe zmienne rozszerzające
zbiór data2, tworzące zbiór data1
C - ilość węgla dodana do procesu LHF (w kg/Mg stali)
Si - ilość krzemu dodana do procesu LHF (w kg/Mg stali)
Mn - ilość manganu dodana do procesu LHF (w kg/Mg stali)
P - ilość fosforu dodana do procesu LHF (w kg/Mg stali)
S - ilość siarki dodana do proces LHF (w kg/Mg stali)
Al - ilość aluminium dodana do procesu LHF (w kg/Mg stali)
Cr - ilość chromu dodana do procesu LHF (w kg/Mg stali)
V - ilość wanad dodana do procesu LHF (w kg/Mg stali)
Cu - ilość miedzi dodana do procesu LHF (w kg/Mg stali)
Zn - ilość cynku dodana proces LHF (w kg/Mg stali)
Nb - ilość niobu dodana do procesu LHF (w kg/Mg stali)
Celem procesu wizualizacji było zaprezentowanie w przestrzeni
dwuwymiarowej rozkładu danych dla obydwu podgatunków stali
w zaleŜności od opisanych powyŜej zmiennych. Na tej podstawie zostały
określone dwa niezaleŜne zbiory o nazwach data1 oraz data2. Zbiór data1
zawiera cechy o nr 2 do 81, natomiast zbiór data2 cechy 2 do 71. Zbiór
pierwszy reprezentował więc zaleŜność podgatunku stali w zaleŜności od
informacji pochodzących z procesu EAF oraz LHF, natomiast data2 został
pomniejszony o całkowitą ilość dodatków chemicznych dodanych w trakcie
trwania procesu LHF (zmienne 71 do 81) czyli zawierał on tylko informacje
z początkowej części procesu LHF (skład chemiczny po dodaniu dodatków
na dno i podczas spustu stali do kadzi).
S t r o n a | 62
6.2. Wyniki oraz ich interpretacja
6.2.1. Wizualizacja zbioru data1
PCA
-2 -1.5 -1 -0.5 0 0.5 1-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1PCA
Rys. 25. Data1 wyniki redukcji wymiarów uzyskane za pomocą PCA
W przypadku wizualizacji zbioru data1 metodą analizy składowych
głównych uzyskane wyniki został przedstawiony na wykresie powyŜej.
Analizując ten wykres moŜna zauwaŜyć, iŜ redukcja wymiarów do
przestrzeni dwuwymiarowej podzieliła dane na dwie klasy (podgatunki).
Na wykresie widać doskonale, Ŝe istnieje duŜa grupa podgatunku, który
łatwo moŜna zidentyfikować, jednak widać równieŜ, Ŝe pojawiły się tam
dwa punkty, odpowiadające podgatunkowi 214 (kolor czerwony) oznaczone
na wykresie ”o”. W drugiej części wykresu widać, Ŝe dane w pewnych
zakresach moŜna rozseparować, natomiast istnieje zakres, w którym
bardzo silnie nakładają się na siebie, co świadczy o tym, Ŝe dane te mają
bardzo podobny opis numeryczny procesu. Reasumując moŜna stwierdzić,
S t r o n a | 63
Ŝe pomimo faktu, iŜ jest to stal tego samego gatunku domieszkowanie
realizowane jest w zasadniczo róŜny sposób.
LDA
-0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3-4
-3
-2
-1
0
1
2
3
4
5LDA
Rys. 26. Data1 wyniki redukcji wymiarów uzyskane za pomocą LDA
Wizualizacja zbioru data1 za pomocą algorytmu liniowej analizy
dyskryminacyjnej pozwala w jeszcze większym stopniu rozseparować
obydwa podgatunki stali. Tym samym widać, iŜ część wytopów
podgatunku nr 215 (punkty w kolorze zielonym) prawdopodobnie spełniała
wymagania podgatunku 214 (punkty w kolorze czerwonym) i była
w podobny sposób domieszkowana, co podgatunek 214.
S t r o n a | 64
MDS
-1 -0.5 0 0.5-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6MDS
Rys. 27. Data1 wyniki redukcji wymiarów uzyskane za pomocą MDS
Wizualizacja zbioru danych data1 za pomocą skalowania
wielowymiarowego została przedstawiona na wykresie powyŜej.
Rozpatrując otrzymane wyniki moŜna stwierdzić, Ŝe skalowanie
wielowymiarowe dało bardzo dobry efekt, gdyŜ bardzo dobrze udało się
rozseparować obydwa podgatunki. Pomimo, Ŝe dane nakładają się na dość
duŜej powierzchni łatwo jednak zauwaŜyć, Ŝe nie są one tak
skoncentrowane w jednym miejscu jak w przypadku metody LDA oraz
PCA.
S t r o n a | 65
SOM
0 5 10 150
5
10
15SOM
Rys. 28. Data1 wyniki redukcji wymiarów uzyskane za pomocą SOM
Na podstawie wizualizacji zbioru danych data1 za pomocą
samoorganizujących się map przygotowana została wizualizacja
przedstawiona na wykresie powyŜej. Analizując wyniki otrzymane w tej
wizualizacji moŜna stwierdzić, Ŝe SOM zadziałał prawidłowo. Porównując
uzyskane wyniki do otrzymanych z metod PCA oraz MDS widać, Ŝe SOM
odseparował dane z jednego podgatunku, białe punkty pokazują, Ŝe dane,
są rozdzielony pustą przestrzenią od pozostałych danych. W przypadku
drugiego podgatunku widać, Ŝe istnieją miejsca gdzie został on wyróŜniony
jednak widać równieŜ, Ŝe podgatunki te są w pewnym zakresie bardzo
podobne i nakładają się na siebie (punkty, które mają inne odcienie są
miejscami, w których dane się nakładają na siebie i SOM nie jest w stanie
jednoznacznie określić, do której klasy one naleŜą, a poziom zaciemnienia
jest proporcjonalny do stopnia czystości danego neuronu sieci SOM).
S t r o n a | 66
6.2.2. Wizualizacja zbioru data2.
PCA
-2 -1.5 -1 -0.5 0 0.5 1-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1PCA
Rys. 29. Data2 wyniki redukcji wymiarów uzyskane za pomocą PCA
W przypadku wizualizacji zbioru data2 metodą analizy składowych
głównych uzyskane wyniki zostały przedstawione na wykresie powyŜej.
Analizując go moŜna stwierdzić, Ŝe wygląda prawie identycznie jak
w przypadku danych data1 są jednak drobne róŜnice a mianowicie dane są
trochę gorzej rozseparowane i przedstawione zostały tak jakby były odbite
symetrycznie względem osi x.
S t r o n a | 67
LDA
-4 -3 -2 -1 0 1 2 3 4 5-15
-10
-5
0
5
10LDA
Rys. 30. Data2 wyniki redukcji wymiarów uzyskane za pomocą LDA
Wizualizacja danych data2 za pomocą metody liniowej analizy
dyskryminacyjnej została przedstawiona na wykresie powyŜej. Uzyskane
wyniki pokazują, Ŝe metoda liniowej analizy dyskryminacyjnej bardzo
podobnie przedstawiła dane w porównaniu do data1. RóŜnice polegają na
tym, Ŝe wykres ten jest przekręcony o 90o a dane duŜo intensywniej
nakładają się na siebie, przez co trudne jest ich rozseparowanie.
S t r o n a | 68
MDS
-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6MDS
Rys. 31. Data2 wyniki redukcji wymiarów uzyskane za pomocą MDS
Na powyŜszym wykresie przedstawione zostały wyniki wizualizacji
zbioru danych data2 za pomocą skalowania wielowymiarowego. Analizując
wykres moŜna stwierdzić, iŜ MDS nie przedstawił tych danych tak dobrze
jak to zrobił w przypadku zbioru data1. Widać tutaj, Ŝe jeden podgatunek
został dobrze rozseparowany w dolnej części wykresu jednak pozostała
część bardzo mocno jest ze sobą powiązana.
S t r o n a | 69
SOM
0 5 10 150
5
10
15SOM
Rys. 32. Data2 wyniki redukcji wymiarów uzyskane za pomocą SOM
Wykres zamieszczony powyŜej przedstawia wyniki wizualizacji zbioru
data2 za pomocą samoorganizujących się map. Wyniki moŜna porównać
z pozostałymi otrzymanymi z innych metod. Na siatce danych widać, Ŝe
jeden podgatunek się odseparował natomiast na drugiej połowie siatki
widać nakładające się oba podgatunki, co świadczy o tym, Ŝe istnieją
znikome róŜnice między tymi podgatunkami.
6.3. Wnioski
Na podstawie uzyskanych wyników moŜna powiedzieć, Ŝe wszystkie
metody potrafiły zwizualizować dane z tego procesu stalowniczego. Warto
jednak wspomnieć, iŜ miały one lepsze i gorsze wyniki. Dla zbioru data1
z punktu widzenia problemu klasyfikacyjnego rozróŜnienia poszczególnych
podgatunków stali w zaleŜności od ilości zuŜytych dodatków stopowych
oraz składu chemicznego, najlepszymi właściwościami charakteryzowała
S t r o n a | 70
się metoda LDA. Na uzyskanym wykresie, który został przedstawiony na
rys. 26 bardzo dobrze uwydatniona jest separacja obydwu podgatunków.
Niestety na podstawie analizy otrzymanej wizualizacji danych data2 nie
moŜna stwierdzić takiego samego wniosku, gdyŜ moŜliwość analizy
uzyskanego wykresu jest silnie ograniczona. W przypadku obydwu zbiorów
danych bardzo dobrze poradziły sobie równieŜ metody PCA i MDS, jednak
w przypadku danych data1 wyniki były nieco gorsze w porównaniu do
metody LDA. Warto równieŜ nadmienić, iŜ wyniki uzyskane za pomocą
algorytmu MDS sprawiają wraŜenie jakby miały mniejszą zdolność
dyskryminacji niŜ wyniki uzyskane za pomocą algorytmu PCA.
W przypadku metody SOM uzyskane wyniki dla obydwu zbiorów są
porównywalne, jednak widoczne jest silniejsze nakładanie się obydwu klas
w przypadku zbioru danych data2, co uwydatnione jest poprzez analizę
liczby neuronów w przestrzeni dwuwymiarowej o barwie róŜnej od czystego
czerwonego i zielonego. Z uwagi na fakt, iŜ charakterystyczną właściwością
wizualizacji za pomocą sieci SOM jest zachowanie topologii danych,
analizując punkty niezabarwione – neurony, do których nie naleŜy Ŝaden
przypadek (wytop), moŜe wskazywać, iŜ obszar danych zawiera
podobszary, które nie separują róŜnych lokalnych grup danych. Analizując
wyniki wizualizacji uzyskane metodą PCA moŜna odnieść wraŜenie, iŜ
zbiór data1 miał większe własności dyskryminacyjne w porównaniu do
danych data2. PoniewaŜ zbiór data1 stanowił jedynie rozszerzenie zbioru
data2, moŜna więc wyciągnąć wniosek, iŜ na rozróŜnienie podgatunków
stali S235JRG2 bardzo duŜe znaczenie ma wprowadzanie dodatków
stopowych bezpośrednio podczas trwania procesu LHF. Uwzględnienie
kolejnych etapów prowadzenia procesu LHF prowadzi do lepszego
rozseparowania się obydwu klas (podgatunków). Wykorzystanie metod
wizualizacji danych wielowymiarowych daje dodatkową moŜliwość
wychwytywania nietypowych wytopów. Przykładem tego są punkty
oznaczone ”o” na rys. 25 oraz rys. 29, gdzie widać, iŜ zaznaczone wytopy
znacząco odbiegają od pozostałych przypadków, co moŜe świadczyć
o nietypowości prowadzenia procesu obróbki pozapiecowej tych dwóch
wytopów.
S t r o n a | 71
7. Podsumowanie i wnioski
Wizualizacja jest bardzo waŜnym elementem, który wykorzystywany
jest w eksploracji danych oraz w celu prezentacji wielowymiarowych
danych. Dzięki wizualizacji duŜo łatwiej odkryć pewne informacje
(zaleŜności między zmiennymi), a takŜe zrozumieć związki, jakie zachodzą
wewnątrz tych danych. Bardzo waŜne jest równieŜ to, Ŝe w większości
przypadków dane po zredukowaniu pokazują duŜo więcej informacji niŜ
przed redukcją. Celem pracy było porównanie metod redukcji
wymiarowości w zastosowaniu do wizualizacji danych wielowymiarowych
procesu stalowniczego na przykładzie wizualizacji sposobu prowadzenia
procesu obróbki pozapiecowej stali w zaleŜności od jej podgatunku.
Cel został osiągnięty, gdyŜ na podstawie wizualizacji moŜna zobaczyć
i zrozumieć, co przedstawiają dane oraz jakie relacje zachodzą pomiędzy
dwoma róŜnymi podgatunkami stali S235JRG2 w zaleŜności od sposobu
prowadzenia procesu stalowniczego zarówno na etapie EAF jak i LHF.
Wyniki pokazują, Ŝe kwestia doboru metody wizualizacji jest
uzaleŜniona od problemu. Dla jednych danych wybrana metoda będzie
działała lepiej, natomiast dla innych gorzej. W przypadku analizy
składowych głównych PCA oraz liniowej analizy dyskryminacyjnej LDA
uzyskane wyniki są deterministyczne i nie zaleŜą od inicjalizacji metod.
RozwaŜając natomiast skalowanie wielowymiarowe MDS oraz
samoorganizujące się mapy SOM moŜna stwierdzić, iŜ są one zaleŜne od
sposobu inicjalizacji, co moŜe prowadzić do uzyskania zupełnie róŜnych
wyników często reprezentowanych w przestrzeni dwuwymiarowej
w zupełnie inny sposób.
Dla zbioru data1 najlepszymi właściwościami charakteryzowała się
metoda LDA, która bardzo dobrze uwydatniła separacje obydwu
podgatunków, jednak w przypadku danych data2 moŜliwość analizy
otrzymanych wyników została silnie ograniczona. Metody PCA i MDS
bardzo dobrze poradziły sobie na obydwu zbiorach, jednak dały słabszy
wynik niŜ metoda LDA w przypadku danych data1. Wizualizacja danych za
pomocą metody SOM w obu przypadkach dała porównywalne wyniki,
S t r o n a | 72
jednak dla zbioru danych data2 widoczne jest silniejsze nakładanie się
obydwu klas. Na podstawie otrzymanych wyników moŜna wyciągnąć
wniosek, iŜ uwzględnienie kolejnych etapów prowadzenia procesu LHF
prowadzi do lepszego rozseparowania się obydwu podgatunków.
Bardzo często zdarza się tak, Ŝe ogrom otaczających nas danych
przerasta nas, a wtedy bardzo łatwo o pomyłkę. NaleŜy pamiętać, Ŝe nie
wszystkie dane da się zredukować i zwizualizować i nie naleŜy robić tego
bez zastanowienia.
S t r o n a | 73
Bibliografia
1. Gramacki J., Gramacki A., Wybrane metody redukcji wymiarowości
danych oraz ich wizualizacji, Uniwersytet Zielonogórski 2008
2. Krzyśko M., Systemy uczące się: rozpoznawanie wzorców, analiza skupień i redukcja wymiarowości, Wydawnictwo Naukowo-Techniczne
2008
3. Ostasiewicz W., Statystyczne metody analizy danych, Wydawnictwo
Akademii Ekonomicznej 1998
4. Jajuga K., Statystyczna analiza wielowymiarowa, Wydawnictwo
Naukowe PWN 1993
5. Koronacki J., Ćwik J., Statystyczne systemy uczące się, Wydawnictwo
Naukowo-Techniczne 2005
6. Morrison D.F., z j. angielskiego przełoŜył Zieliński W., Wielowymiarowa
analiza statystyczna, Wydawnictwo Naukowe PWN 1990
7. Osowski S., Sieci neuronowe w ujęciu algorytmicznym, Wydawnictwo
Naukowo-Techniczne 1996
8. Rutkowski L., Metody i techniki sztucznej inteligencji, Wydawnictwo
Naukowe PWN 2006
9. http://www.mathworks.com/products/matlab/, Matlab – The
Language Of Technical Computing, 20 sierpień 2009
10. http://ict.ewi.tudelft.nl/~lvandermaaten/Matlab_Toolbox_for_Dimensi
onality_Reduction.html, Matlab Toolbox for Dimensionality Reduction,
20 sierpień 2009
11. Pyka M., Analiza procesu wytapiania stali w piecu łukowym i obróbki pozapiecowej z zastosowaniem hybrydowego systemu ekspertowego,
Praca doktorska, Politechnika Śląska 2006
12. Cholewa M., Gawroński J., Przybył M., Podstawy procesów
metalurgicznych, Wydawnictwo Politechniki Śląskiej 2004
13. Lis T., Współczesne metody otrzymywania stali, Wydawnictwo
Politechniki Śląskiej 2000
S t r o n a | 74
Spis rysunków
Rys. 1. Wykres piargowy.........................................................................10
Rys. 2. Dopasowanie połoŜenia układu osi głównych składowych do
konfiguracji punktów reprezentujących obiekty. ............................11
Rys. 3. Obserwacje trzech klas rozdzielone półprostymi........................13
Rys. 4. Przykładowa mapa Kohonena, ma ona postać siatki prostokątnej
o wymiarze 4 x 4 ..............................................................................24
Rys. 5. Ilustracja przykładowej adaptacji wag w sieci Kohonena .............25
Rys. 6. Sieć samoorganizująca się typu WTA ..........................................26
Rys. 7. Zbiór danych Swiss Roll..............................................................36
Rys. 8. Zbiór danych Helix .....................................................................37
Rys. 9. Zbiór danych Iris ........................................................................38
Rys. 10. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą PCA 39
Rys. 11. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą LDA 40
Rys. 12. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą MDS
........................................................................................................41
Rys. 13. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą SOM
........................................................................................................42
Rys. 14. Swiss Roll wyniki redukcji wymiarów uzyskane za pomocą SOM
........................................................................................................43
Rys. 15. Helix wyniki redukcji wymiarów uzyskane za pomocą PCA ........44
Rys. 16. Helix wyniki redukcji wymiarów uzyskane za pomocą LDA........45
Rys. 17. Helix wyniki redukcji wymiarów uzyskane za pomocą MDS.......46
Rys. 18. Helix wyniki redukcji wymiarów uzyskane za pomocą SOM w
przestrzeni 1D .................................................................................47
Rys. 19. Helix wyniki redukcji wymiarów uzyskane za pomocą SOM w
przestrzeni 2D .................................................................................48
Rys. 20. Iris wyniki redukcji wymiarów uzyskane za pomocą PCA...........49
Rys. 21. Iris wyniki redukcji wymiarów uzyskane za pomocą LDA...........50
Rys. 22. Iris wyniki redukcji wymiarów uzyskane za pomocą MDS..........51
Rys. 23. Iris wyniki redukcji wymiarów uzyskane za pomocą SOM..........52
Rys. 24. Schemat technologiczny procesu elektrostalowniczego ..............54
Rys. 25. Data1 wyniki redukcji wymiarów uzyskane za pomocą PCA .......62
S t r o n a | 75
Rys. 26. Data1 wyniki redukcji wymiarów uzyskane za pomocą LDA .......63
Rys. 27. Data1 wyniki redukcji wymiarów uzyskane za pomocą MDS ......64
Rys. 28. Data1 wyniki redukcji wymiarów uzyskane za pomocą SOM ......65
Rys. 29. Data2 wyniki redukcji wymiarów uzyskane za pomocą PCA........66
Rys. 30. Data2 wyniki redukcji wymiarów uzyskane za pomocą LDA .......67
Rys. 31. Data2 wyniki redukcji wymiarów uzyskane za pomocą MDS ......68
Rys. 32. Data2 wyniki redukcji wymiarów uzyskane za pomocą SOM ......69