Akademia Górniczo-Hutnicza im. Stanisława Staszica Wydział Geodezji Górniczej i Inżynierii Środowiska
Katedra Geoinformacji, Fotogrametrii i Teledetekcji Środowiska
Rozprawa doktorska
ANALIZA PORÓWNAWCZA METOD PRZETWARZANIA DANYCH HIPERSPEKTRALNYCH O ZRÓŻNICOWANEJ ROZDZIELCZOŚCI
mgr inż. Ewa Głowienka-Mikrut
Promotor: dr hab. inż. Beata Hejmanowska, prof. AGH
Kraków 2014
Składam najserdeczniejsze podziękowania dr hab. inż. Beacie Hejmanowskiej, prof. AGH
za opiekę promotorską, wsparcie i przewodnictwo w trakcie realizacji niniejszej pracy.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
3
Spis tre ści
Wstęp 5
1. Dane teledetekcyjne 7 1.1 Dane obrazowe 7
1.1.1 Dane wielospektralne 8 1.1.2 Dane hiperspektralne 13
1.2 Dane nieobrazowe – spektrometry nieobrazuj ące 17
2. Zastosowanie obrazów hiperspektralnych – przegl ąd literatury 19 2.1 Badanie stanu wód 22
3. Stosowana metodyka przetwarzania obrazów hipersp ektralnych na tle bada ń literaturowych 24 3.1 Przetwarzanie wst ępne 24
3.1.1 Striping 25 3.1.2 Identyfikacja i usuwanie efektu smile 27
3.2 Korekcja atmosferyczna 28 3.2.1 Kalibracja metodami empirycznymi (względnymi) 30
3.2.1.1 Metoda Lini Empirycznej - Empirical Line 30 3.2.2 Korekcja metodami bezwzględnymi 32
3.3 Redukcja nadwymiarowo ści danych 34 3.3.1 Selekcja danych 35 3.3.2 Redukcja danych oparta na transformacji 37
3.3.2.1 Analiza głównych składowych - PCA (Principial Components Analysis) 38 3.3.2.2 Metoda minimalnego szumu - MNF (Minimum Noise Fraction) 40
3.4 Analiza danych metodami klasycznymi 41 3.4.1 Metody nienadzorowane 41 3.4.2 Metody nadzorowane 42
3.5 Analiza danych metodami hiperspektralnymi 43 3.5.1 Pikselowe metody klasyfikacji danych hiperspektralnych 44
3.5.1.1 Spectral Angle Mapper (SAM) 44 3.5.1.2 Dopasowania krzywych spektralnych - Spectral Feature Fitting (SFF) 45
3.5.2 Metody „rozmieszania” spektralnego – spectral unmixing 46 3.5.2.1 Linear Spectral Unmixing (LSU) 47 3.5.2.2 Matched Filtering (MF) i Mixture Tuned Matched Filtering (MTMF) 48
3.5.3 Metodyka przygotowywania bibliotek spektralnych na podstawie danych obrazowych 48 3.5.3.1 Wskaźnik czystości pikseli - PPI (Pixel Purity Index) 49
3.6 Analiza dokładno ści wyników ekstrakcji informacji 50 3.6.1 Macierz rozbieżności (confusion matrix) 50 3.6.2 Szacowanie dokładności dla metod podpikselowych 52
3.7 Symulacja sensorów 56 3.7.1 Symulacja funkcją odpowiedzi spektralnej (Spectral Response Function) 58
4. Sformułowanie problemu badawczego, postawienie t ezy 60
5. Obszar bada ń 63
6. Charakterystyka danych 66 6.1 Hiperspektralne dane obrazowe 66 6.2 Dane spektrometryczne 69
7. Metodyka badawcza 73
8. Przetwarzanie obrazu Hyperiona 77 8.1 Metodyka przetwarzania wst ępnego - usuwanie szumów i zakłóce ń 77
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
4
8.2 Wyniki przetwarzania wst ępnego 81 8.2.1 Korekcja atmosferyczna (porównanie metod) 83 8.2.2 Wnioski dotyczące wstępnego przetwarzania danych hiperspektralnych 86
8.3 Redukcja nadwymiarowo ści danych 87 8.3.1 Selekcja danych (feature selection) 87 8.3.2 Redukcja danych oparta na transformacji (feature extraction) 90
8.4 Symulacja obrazów wielospektralnych na podstawie da nych hiperspektralnych 92 8.4.1 Symulacja na podstawie doboru zakresów rejestracji kanałów sensorów wielospektralnych 93 8.4.2 Symulacja funkcją odpowiedzi spektralnej (Spectral Response Function) 95
8.5 Ekstrakcja informacji 96 8.5.1 Klasyfikacja metodami tradycyjnymi 96 8.5.2 Zaawansowane metody klasyfikacji obrazów 97 8.5.3 Szacowanie dokładności wyników ekstrakcji informacji 102
9. Wyniki ekstrakcji informacji 105 9.1 Klasyfikacja obrazów metodami klasycznymi 105
9.1.1 Wyniki klasyfikacji obrazów po redukcji 105 9.1.2 Wyniki klasyfikacji obrazów symulowanych 122
9.2 Klasyfikacja obrazów metodami dedykowanymi danym hi perspektralnym 134 9.2.1 Wyniki klasyfikacji pikselowej 135
9.2.1.1 Spectral Angele Mapper 135 9.2.1.2 Spectral Feature Fitting 141
9.2.2 Wyniki klasyfikacji podpikselowej 144 9.2.2.1 Wyniki klasyfikacji obrazów o zredukowanej liczbie kanałów 146 9.2.2.2 Wyniki klasyfikacji obrazów symulowanych 155
10. Wpływ redukcji kanałów Hyperiona i ALI na dokła dność klasyfikacji wody 164 10.1 Metodyka redukcji 165
10.1.1 Redukcja kanałów obrazu hiperspektralnego Hyperion 168 10.1.2 Redukcja kanałów obrazu sensora wielospektralnego ALI 169
10.2 Wyniki klasyfikacji obszaru zbiornika Dobczyckiego 170 10.2.1 Wyniki klasyfikacji obrazów symulowanych 170 10.2.2 Wyniki klasyfikacji po redukcji kanałów Hyperiona 172
10.2.2.1 Wyniki klasyfikacji po redukcji kanałów Hyperiona z podzakresu 4H (podczerwonego) 175 10.2.3 Wyniki klasyfikacji po redukcji kanałów ALI 178
11. Podsumowanie i wnioski 183
12. Bibliografia 196
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
5
Wstęp
Metody opracowane na potrzeby przetwarzania danych wielospektralnych, o rozdzielczości
spektralnej od 4 do 20 kanałów umożliwiają identyfikację i klasyfikację podstawowych form pokrycia
terenu tj.: woda, las, tereny rolne, tereny zurbanizowane itp. Jednakże dane te, nie są
wystarczające dla bardziej zaawansowanych zastosowań jak: rozpoznanie typów gatunków roślin,
monitoring upraw, identyfikacja zanieczyszczeń gleb, wód, powietrza czy identyfikacja
geozagrożeń. W tym celu wykorzystywane są obrazy z sensorów hiperspektralnych obejmujące
kilkaset kanałów spektralnych z zakresów od widzialnego do podczerwieni termalnej, które
umożliwiają scharakteryzowanie i określenie ilościowe różnych komponentów środowiska.
Teoretycznie, zwiększenie liczby kanałów powinno skutkować zwiększeniem dokładności, zarówno
klasyfikacji, jak i samej identyfikacji obiektów. Jednakże zastosowanie automatycznych metod
przetwarzania danych hiperspektralnych, może prowadzić do utraty istotnej informacji spektralnej
i błędnych wyników ekstrakcji informacji tematycznej. W klasyfikacji nadzorowanej podstawowym
warunkiem uzyskania poprawnego wyniku jest wybór odpowiedniej liczby pikseli wzorcowych, która
nie może być mniejsza od liczby kanałów wykorzystywanych do klasyfikacji (efekt Hughes’a).
W przypadku danych hiperspektralnych większa liczba kanałów wymusza zwiększenie liczby pikseli
wzorcowych/kontrolnych, co dla tego rodzaju danych może stanowić duży problem. Poza tym
stosowanie tradycyjnych klasyfikatorów sprawia, że nie zostaje w pełni wykorzystana podstawowa
zaleta danych hiperspektralnych, czyli dokładna charakterystyka spektralna dla każdego piksela
obrazu.
W literaturze wielu naukowców prezentuje swoje wyniki ekstrakcji informacji tematycznej
z danych hiperspektralnych, dla których zakres i możliwości analiz obrazowych zostały znacznie
rozszerzone, ze względu na zwiększenie rozdzielczości spektralnej. Po przeanalizowaniu literatury
krajowej i światowej można stwierdzić, że występuje stosunkowo niewiele opracowań, w których
została przeprowadzona dokładna analiza wpływu poszczególnych kanałów na jakość i dokładność
klasyfikacji obrazów. Zatem, uzasadnione jest przeprowadzenie badań związanych ze szczegółową
analizą zestawu danych, które mogą stanowić dobre źródło danych wejściowych do prawidłowej
detekcji i klasyfikacji określonych obiektów zarejestrowanych na obrazach hiperspektralnych.
W przypadku wykorzystania danych hiperspektralnych mamy do czynienia z ogromną ilością
danych, które potencjalnie niosą ze sobą również bardzo dużą ilość informacji. Niemniej jednak
bogactwo w tym przypadku staje się kłopotliwe, a prawidłowa interpretacja trudna, czy wręcz
niemożliwa. Dlatego też badania nad optymalizacją liczby wykorzystywanych kanałów mają
zarówno duży ładunek innowacyjności, jak i kluczowe znaczenie dla praktycznego wykorzystania
danych hiperspektralnych.
Tematyka rozprawy doktorskiej dotyczy przetwarzania danych hiperspektralnych o różnej
rozdzielczości, które w teledetekcji i dziedzinach z nią związanych stanowi bardzo ważny i aktualny
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
6
aspekt wykorzystania danych pozyskiwanych metodami zdalnymi. Głównym celem pracy jest
analiza metod przetwarzania danych hiperspektralnych (obrazowych i nieobrazowych),
ukierunkowana na uzyskanie optymalnego algorytmu przygotowania danych hiperspektralnych do
etapu ekstrakcji informacji tematycznej. W ramach badań przeprowadzono szereg działań
zmierzających do sprawdzenia jak redukcja liczby kanałów obrazu hiperspektralnego wpływa na
dokładność klasyfikacji tradycyjnej i dedykowanej obrazom hiperspektralnym. Przeanalizowane
zostały aspekty związane z samą procedurą ekstrakcji informacji oraz czynniki wpływające na jej
rezultaty, niezależne od zastosowanej metody klasyfikacji. Należało bowiem uwzględniać
wszelkiego rodzaju szumy i zakłócenia, zawarte w danych hiperspektralnych, powodujące
obniżenie dokładności klasyfikacji, a tym samym „zafałszowanie” wyników analiz.
W Polsce przetwarzanie danych hiperspektralnych jest stosunkowo nowym zagadnieniem,
głównie ze względu na ograniczenia w dostępie do danych oraz skomplikowany proces ich
przetwarzania. Jednak są pojedyncze ośrodki, w których badania nad wykorzystaniem tego typu
danych są prowadzone. Można tu wymienić zastosowania danych hiperspektralnych w monitoringu
lasów (Wężyk i in., 2003), wód (Osińska-Skotak i in., 2005), roślinności (Zagajewski, 2010) czy
obszarów pogórniczych (Hermanowska i Głowienka, 2004). Nie opracowano jednak żadnego
podręcznika w tym zakresie, co w przypadku przetwarzania danych hiperspektralnych stanowi duże
utrudnienie, szczególnie dlatego, że zagadnienie to jest bardziej skomplikowanie w stosunku do
przetwarzania danych wielospektralnych. Dlatego też w pierwszej części pracy zamieszczono
ogólny opis danych teledetekcyjnych (rozdział 1), przegląd literatury dotyczący zastosowań
obrazów hiperspektralnych (rozdział 2). Następnie w obszernym rozdziale 3 znajduje się tematyka
dotycząca stosowanej metodyki przetwarzania danych hiperspektralnych opracowana na podstawie
przeglądu dostępnych danych z literatury zagranicznej. Sformułowanie problemu badawczego
w związku z tym znajduję się w rozdziale 4. Dalsza część pracy obejmuje już opis badań własnych.
W rozdziale 5 opisano obszar badań, w rozdziale 6 scharakteryzowano wykorzystane dane,
rozdział 7 i 8 zawiera opis metodyki badawczej, rozdziały 9 i 10 przedstawiają wyniki badań,
rozdział 11 wnioski i podsumowanie. W rozdziale 12 znajduje się spis literatury.
.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
7
1. Dane teledetekcyjne
1.1 Dane obrazowe
Od początku powstania teledetekcji, wiele obrazów z różnych sensorów było
wykorzystywanych do obserwacji powierzchni Ziemi. Rejestrowane dane tworzą obraz jako
zbiór promieniowania lub odbicia każdego piksela w określonym zakresie długości fali
(Varshney i in., 2006). Technologia teledetekcyjna wykazuje rozwój według trzech powiązanych ze
sobą czynników: postęp technologii konstruowania sensorów oraz jakości danych, ulepszone
i ustandaryzowane metody teledetekcyjne, zastosowanie badań (Rogan i Chen, 2004).
Tradycyjne sensory z uwagi na ograniczenia w konstrukcji rejestrują promieniowanie
elektromagnetyczne maksymalnie w 20 kanałach. W ostatnich latach budowa sensorów
obrazowych, zarówno lotniczych, jak i satelitarnych pozwala na rejestrację danych spektralnych
nawet w kilkuset kanałach – sensory hiperspektralne. Wszystkie dane teledetekcyjne, zarówno
wielospektralne, jak i hiperspektralne, można uszeregować według określonego stopnia
przetworzenia obrazu, który następnie wykorzystywany jest przez użytkownika. Wyróżniamy
6 poziomów stopnia przetworzenia danych ( Tab 1). Pierwszy poziom stanowią surowe dane
zarejestrowane przez sensor (poziom 0). Następny poziom to dane uzupełnione o odpowiednie
informacje (metadane) związane z: rozdzielczością, czasem rejestracji, współczynnikami do
korekcji radiometrycznej, atmosferycznej i geometrycznej oraz wynikami pomiaru in situ,
wykonywanego równolegle do rejestracji sensorem (poziom 1 A,B,C) ( Tab 1). Ostatnie poziomy
stopnia przetworzenia obrazów stanowią dane w pełni skorygowane pod względem
radiometrycznym, atmosferycznym, geometrycznym i gotowe do wykonywania ekstrakcji informacji
(poziom 2 i poziom 3) ( Tab 1).
Tab 1. Konwencja nazewnictwa produktów teledetekcyjnych opisująca różne poziomy przetwarzania (źródło: Kempeneers, 2007).
Level 0 (poziom 0) Surowe dane obrazowe (postać cyfrowa danych – DN)
Level 1A (poziom 1A) Surowe dane obrazowe z pełną rozdzielczością, referencja czasowa, metadane.
Podane współczynniki do korekcji radiometrycznej i geometrycznej. Brak wykonanej
korekcji radiometrycznej i geometrycznej
Level 1B (poziom 1B) Orientacja zewnętrzna platformy/sensora poszerzona o informacje bazowe GPS, co
pozwala na pełną korekcję radiometryczną, atmosferyczną i geometryczną
Level 1C (poziom 1C) Dołączone pomiary in-situ
Level 2 (poziom 2) Wykonana korekcja geometryczna i atmosferyczna dla pojedynczych scen
Level 3 (poziom 3) Produkt końcowy użytkownika. Zwykle rezultat mozaikowania pojedynczych scen
zarejestrowanych dla obszaru badań użytkownika. Produkty mogą być mapami
klasyfikacji lub parametrami modelu. W zależności od rozbudowy poziomu, produkt
końcowy użytkownika określa się jako Level 3 lub Level 4.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
8
1.1.1 Dane wielospektralne
Wielospektralne obrazy są od lat powszechnie wykorzystywane w celu badania i obserwacji
Ziemi (Earth Observing – EO). Wielospektralne dane teledetekcyjne można sklasyfikować według
ich możliwości identyfikacji i detekcji określonych poziomów szczegółowości typu pokrycia terenu.
W tabeli ( Tab 2) przedstawione zostały poziomy szczegółowości obrazów teledetekcyjnych ze
względu na rozdzielczość przestrzenną i zakresy spektralne rejestrowane przez sensor
(Jansen i Cowen, 1999).
Tab 2. Wymagana minimalna rozdzielczość przestrzenna i spektralna w celu uzyskania atrybutów krajobrazu naturalnego i krajobrazu pochodzenia antropogenicznego o określonym poziomie dokładności z danych teledetekcyjnych (źródło: Jansen i Cowen, 1999).
Minimalna rozdzielczo ść przestrzenna [m]
Minimalna rozdzielczo ść spektralna (zakresy spektralne)
Atrybuty poziomów urbanizacji (urban/suburban)
Poziom I: USGS 20 - 100 V−NIR−MIR−Radar
Poziom II: USGS 5 - 20 V−NIR−MIR−Radar
Poziom III: USGS 1 - 5 Pan−V−NIR−MIR
Pok
ryci
e/
uży
tkow
anie
te
renu
Poziom IV: USGS 0,25 - 1 Pan
Atrybuty naturalne
Poziom I: pokrycie trenu
20 - 1000 V−NIR−MIR−Radar
Poziom II: typy pokrycia
10 - 100 V−NIR−MIR−Radar
Poziom III: dominacja gatunków
1 - 30 Pan−V−NIR−MIR−Radar
Kla
sy la
su
Poziom IV: identyfikacja gatunków
0,1 - 2 Pan
Na przestrzeni 40 lat rozwoju technik satelitarnych zostało skonstruowanych ponad 300
sensorów różnego typu (wielospektralne, hiperspektralne, wysokorozdzielcze, meteorologiczne)
pracujących na ponad 200 satelitach. W zależności od celu badań rejestrują one obrazy satelitarne
o wymaganej dla danego zastosowania rozdzielczości przestrzennej, spektralnej, radiometrycznej
i czasowej. Na szczególną uwagę zasługuje program Landsat, który stanowił milowy krok w rozwoju
technologii teledetekcyjnej. Pierwszy sensor MSS (Multispectral Scaner) umieszczony na satelicie
Landsat 1 w roku 1972, dostarczał danych o rozdzielczości około 80 m, rejestrując dane
w 4 kanałach przedziału widzialnego, bliskiej podczerwieni i jednym kanale termalnym (tylko
Landsat 3). Dane rejestrowane przez 12 lat pracy sensora MSS są niejednokrotnie jedynym
źródłem wiedzy na temat form pokrycia terenu i stanu środowiska naturalnego dla tamtego okresu
i stanowią niezwykle wartościową bazę danych do badań związanych ze zmianami klimatu
i krajobrazu, jakie występują na Ziemi. Późniejsze wzbogacone konstrukcyjnie wersje sensora MSS
tj. TM (1982), ETM+ (1998), rejestrowały dane o rozdzielczości przestrzennej 30 m, odpowiednio
w 7 kanałach – w tym kanał termalny o rozdzielczości przestrzennej odpowiednio 120 m i 60 m.
Sensor ETM+ rejestrował promieniowanie elektromagnetyczne również w kanale
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
9
panchromatycznym o rozdzielczości przestrzennej 15 m ( Tab 3). Dokładna charakterystyka danych
kolejnych wersji sensorów Landsata została zawarta w tabeli ( Tab 4).
Tab 3. Ewolucja programu Landsat (źródło: eoPortal, 2012).
* tylko dla sensora MSS umieszczonego na satelicie Landsat 3. ** satelita został wystrzelony 5 października 1993, ale nie został umieszczony na orbicie
Tab 4. Charakterystyka spektralna sensorów Landsat (źródło: eoPortal, 2012).
* tylko dla sensora MSS umieszczonego na satelicie Landsat 3. ** kanał panchromatyczny
Jednym z bardzo ważnych sensorów multispektralnych, który dostarcza cennych danych
z poziomu satelitarnego jest Advanced Land Image (ALI). Jest to sensor typu pushbrom,
umieszczony na platformie EO−1 (Earth Observing–1) wraz z sensorami Hyperion i LAC (LEISA
Atmospheric Corrector). Instrument może reprezentować pas terenu o wymiarach 37 km x 180 km.
ALI zawiera szerokokątną optykę zaprojektowaną w celu dostarczania ciągłego obrazu
(FOV 15º x 1.625º) z rozdzielczością przestrzenną 30 m dla kanałów multispektralnych. Kanał
panchromatyczny sensora ALI rejestruje promieniowanie tylko w zakresie widzialnym 480–690 nm
i posiada lepszą niż Landsat rozdzielczość przestrzenną, wynoszącą 10 m (Bryant i in., 2002).
Rozdzielczość
przestrzenna [m]
Liczba
kanałów Satelita Sensor
PAN VNIR
SWIR TIR
VNIR
SWIR TIR
Landsat 1,2,3 MSS - 79 237 4 1*
Landsat 4,5 TM - 30 120 6 1
Landsat 6 ** ETM - 30 120 6 1
Landsat 7 ETM+ 15 30 60 6 1
Landsat 8 OLI/TIRS 15 30 100 8 2
Sensor
Nr kanału
MSS
[μm]
TM
[μm]
ETM+
[μm]
Kanał 1 0.50 − 0.60 0.45 − 0.52 0.45 − 0.52
Kanał 2 0.60 − 0.70 0.52 − 0.60 0.53 − 0.61
Kanał 3 0.70 − 0.80 0.63 − 0.69 0.63 − 0.69
Kanał 4 0.80 − 1.10 0.76 − 0.90 0.78 − 0.90
Kanał 5 − 1.55 – 1.75 1.55 – 1.75
Kanał 6 10.4 – 12.6* 10.4 – 12.5 10.4 – 12.5
Kanał 7 − 2. 08 – 2.35 2. 09 – 2.35
Kanał 8 − − 0.52 − 0.90**
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
10
Sensor ALI został zbudowany w ramach stosowania sensorów opartych na nowych technologiach,
bardziej wydajnych i tańszych. Sześć z dziesięciu kanałów rejestrowanych przez sensor ALI,
zostało zaprojektowanych w taki sposób, aby „naśladować” kanały sensora ETM+. Podstawową
różnicą między tymi dwoma sensorami jest rozmiar. ALI to 1/7 objętości, 1/3 masy i 1/4 zużytej
energii w stosunku do ETM+. Dodatkowo charakteryzuje się pięciokrotnie lepszą jakością
rejestrowanego sygnału (Signal to Nosie Ratio - SNR) oraz lepszą rozdzielczością radiometryczną
(12 bit). Ponadto, ALI posiada trzy dodatkowe kanały rejestrujące promieniowanie
elektromagnetyczne w zakresach 433−453 nm, 845−895 nm i 1200−1300 nm. Dodatkowy kanał
niebieski (1p) ( Tab 5) przewidziany został do zwiększenia możliwości badań właściwości
wody i atmosfery. Kolejnym, nadwymiarowym kanałem w stosunku do kanałów ETM+, jest kanał
5p ( Tab 5) zaprojektowany w celu zwiększenia możliwości klasyfikacji podstawowych form pokrycia
terenu oraz w celu podniesienia dokładności klasyfikacji wykonywanej dla zastosowań rolniczych.
Jeszcze jedną interesującą zmianą w stosunku do dotychczasowych sensorów jest to, że sensor
ALI rejestruje dwa kanały w zakresie bliskiej podczerwieni (805−850 nm) ( Rys. 1, Rys. 2, Tab 5).
Są to kanały 4 i 4p. Taki sposób rejestracji został zaprojektowany dla uniknięcia zakłóceń
związanych z absorpcją wody, występujących w tym zakresie ( Rys. 1) (Bryant i in., 2002). Z uwagi
na udoskonaloną konstrukcję ALI stał się prototypem dla multispektralnego sensora Operational
Land Imager (OLI), umieszczonego na nowej platformie Landsat−8/ LDCM (Landsat Data
Continuity Mission’s), pracującej od lutego 2013 ( Tab 3) (Middleton i in., 2013).
Rys. 1. Promieniowanie ciała doskonale czarnego, słońca poza atmosferą i słońca na poziomie morza (efekt tłumienia atmosfery)
z zaznaczonym zakresem rejestracji kanału 4 i 4p dla sensora ALI (źródło: Dworak i in., 2011 za Coulson i Fraser, 1975).
Moc
pro
mie
niow
ania
[W
/m2 /n
m]
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
11
Rys. 2. Porównanie SRF dla kanałów 4, 4p i 5 i 5p sensora ALI oraz kanałów 4 i 5 sensora Landsat (opracowanie własne).
Tab 5. Porównanie parametrów spektralnych ALI i ETM+ (źródło: eoPortal).
ALI (EO-1) ETM+ (Landsat-7)
Kanał [nm] [m] Kanał [nm] [m]
PAN 480 - 690 VNIR 10 PAN 500 - 900 VNIR 13 x 15
MS-1p 433 - 453 VNIR 30
MS-1 450 - 515 VNIR 30 MS-1 450 - 515 VNIR 30
MS-2 525 - 605 VNIR 30 MS-2 525 - 605 VNIR 30
MS-3 630 - 690 VNIR 30 MS-3 630 - 690 VNIR 30
MS-4 775 - .805 VNIR 30 MS-4 760 - 890 VNIR 30
MS-4p 845 - 890 VNIR 30
MS-5p 1200 - 1300 SWIR 30
MS-5 1550 - 1750 SWIR 30 MS-5 1550 - 1750 SWIR 30
MS-7 2080 - 2350 SWIR 30 MS-7 2080 - 2350 SWIR 30
MS-6 10400 - 12500 TIR 60
Bardzo ważną rolę w rozwoju teledetekcji i technik satelitarnych, zwłaszcza, jeżeli chodzi
o pozyskanie danych o lepszej rozdzielczości przestrzennej odegrał inny satelita multispektralny
SPOT (Système Probatoire d'Observation de la Terre lub Satellite Pour l'Observation de la Terre)
Francuskiego Ośrodka Badań Kosmicznych, rejestrujący dane od 1986 (SPOT−1). Był to pierwszy
satelita zawierający liniowy szereg sensorów oraz wykorzystujący technikę skanowania pushbroom
(wszystkie elementy skanera są zamocowane na stałe, a skanowanie odbywa się dzięki
postępowemu ruchowi satelity). Sensor rejestruje dane w dwóch trybach: wielospektralnym
(rozdzielczość 20 m) i panchromatycznym (rozdzielczość 10 m). Następcami wycofanego w grudniu
1990 roku SPOT−1 były sensory SPOT−2,3,4,5 umieszczone na orbicie odpowiednio w roku 1990,
1993, 1998. Od 2002 roku na orbicie operuje SPOT−5, który pozwala na uzyskanie obrazów dla
zakresu panchromatycznego, widzialnego i bliskiej oraz dla średniej podczerwieni, o rozdzielczości
przestrzennej odpowiednio 2,5−5 m, 10 m, 20 m. Ponadto, sensor umożliwia wykonywanie
zobrazowań stereoskopowych przez rejestrację dwóch pozanadirowych zobrazowań tego samego
terenu obserwowanych z sąsiednich ścieżek satelity lub przez rejestrację zobrazowania
nadirowego i odchylonego od nadiru. Dokładna charakterystyka sensorów SPOT została podana
w tabeli ( Tab 6).
5p 5
5
4 4p
4 1
odbi
cie
długość fali [nm]
….. Landsat
___ ALI
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
12
Tab 6. Charakterystyka przestrzenna i spektralna sensorów SPOT (źródło: eoPortal, 2012).
SPOT 1, 2, 3 SPOT 4 SPOT 5 Sensor
Kanał [μm] [m] [μm] [m] [μm] [m]
Kanał 1 0,50-0,59 20 0,50-0,59 20 0,50-0,59 10
Kanał 2 0,61-0,68 20 0,61-0,68 20 0,61-0,68 10
Kanał 3 0,78-0,89 20 0,78-0,89 20 0,78-0,89 10
Kanał 4 - - 1,58 - 1,75 20 1,58 - 1,75 20
Kanał 5 (PAN) 0,50-0,73 10 0,61-0,68 10 0,50-0,73 2,5-5
Kolejnym sensorem często wykorzystywanym przez naukowców był sensor ASTER (Advanced
Spaceborne Thermal Emission and Reflection Radiometer) umieszczony na platformie Terra w roku
1999, rejestrujący promieniowanie elektromagnetyczne w 14 kanałach spektralnych, dla zakresie
0,52−11,65 µm (brak rejestracji dla promieniowania niebieskiego) ( Tab 7). Rozdzielczość
przestrzenna pozyskiwanych obrazów wynosi 15 m, 30 m, 90 m odpowiednio dla przedziałów
VNIR, SWIR, TIR. Każdy przedział spektralny rejestrowany jest za pomocą oddzielnego sensora.
VNIR i SWIR to skanery typu pushbroom, natomiast skaner termalny pracuje w trybie whiskbroom.
Konstrukcja skanera pozwala również uzyskiwać obrazy stereoskopowe w paśmie promieniowania
o długości fali 0.76–0.86 µm, umożliwiające tworzenie trójwymiarowych modeli powierzchni Ziemi.
Dane rejestrowane przez sensor ASTER wykorzystywane są między innymi do badania pokrycia
terenu, monitoringu poszczególnych komponentów środowiska, tworzenia dokładnych map
termalnych, wysokościowych oraz badania emisji zanieczyszczeń (eoPortal, 2012).
Tab 7. Charakterystyka spektralna sensora ASTER (źródło: eoPortal, 2012).
Przedział
spektralny Kanał Długość fali [µm]
1 0.520 - 0.600
2 0.630 - 0.690
3N 0.760 - 0.860 VNIR
3B 0.760 - 0.860
4 1.600 - 1.700
5 2.145 - 2.185
6 2.185 - 2.225
7 2.235 - 2.285
8 2.295 - 2.365
SWIR
9 2.360 - 2.430
10 8.125 - 8.475
11 8.475 - 8.825
12 8.925 - 9.275
13 10.25 - 10.95
TIR
14 10.95 - 11.65
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
13
1.1.2 Dane hiperspektralne
Słowo „hiper” oznacza nadmierny w rozmiarze, w jakości lub “ponad, powyżej” (Kopaliński,
2007). Nadmiarowa informacja wynika z bardzo dużej rozdzielczości spektralnej (wąskie zakresy
rejestracji dla poszczególnych kanałów) oraz dużej liczby kanałów w stosunku do danych
multispektralnych, jak również z bardzo szerokiego zakresu fal promieniowania
elektromagnetycznego, dla którego rejestrowany jest dany obraz. Większość sensorów, które są
nazwane hiperspektralnymi posiada ponad 40 kanałów z rozdzielczością spektralną < 20 nm.
Jednakże nie zdefiniowano dokładnej liczby kanałów i rozdzielczości spektralnej, która jest
potrzebna, aby można było obraz zaliczyć do obrazów hiperspektralnych (Aspinall i in., 2002),
podobnie jak nie istnieje konkretny próg związany z rozdzielczością przestrzenną, dla której obraz
można zaliczyć do grupy obrazów wysokorozdzielczych tzw. VHR (Very High Resolution). Ilość
informacji spektralnej zarejestrowanej przez spektrometry hiperspektralne (w przeciwieństwie do
skanerów multispektralnych) często przekracza zakres wymagany do identyfikacji wielu obiektów.
Ogromny potencjał informacji spektralnej pozwala użytkownikowi zidentyfikować nawet bardzo
subtelne różnice w charakterystykach spektralnych uzyskanych na podstawie obrazów
hiperspektralnych.
Wiele sensorów lotniczych takich jak na przykład HyMap, DAIS, CASI, AVIRIS oraz
satelitarnych np. Hyperion, CHRIS−Proba zostały zaprojektowane w celu rejestrowania
sygnałów w sposób ciągły. Lepszą rozdzielczość, zarówno spektralną (10−20 nm), jak
i przestrzenną (1−20 m) uzyskuje się podczas rejestracji za pomocą sensorów lotniczych ( Tab 8).
Rozdzielczość przestrzenna w dużej mierze zależy od wysokości operacyjnej platformy, na której
umieszczony jest sensor, rejestrujący obraz hiperspektralny. Większość hiperspektralnych
sensorów lotniczych rejestruje promieniowanie elektromagnetyczne dla zakresów widzialnego (VIS)
bliskiej i średniej podczerwieni (NIR i SWIR). Niektóre z nich (np. DAIS) posiadają dodatkowy
sensor umożliwiający rejestrację również w zakresie termalnym (8000–12600 nm) lub rejestrują
promieniowanie tylko dla tego zakresu (np. HyTES, TIMS) (eoPortal, 2012).
Jednym z pierwszych lotniczych sensorów hiperspektralnych, który odegrał i nadal odgrywa
bardzo ważną rolę w rozwoju teledetekcji hiperspektralnej jest AVIRIS (Airborne Visible InfraRed
Imaging Spectrometer), należący do amerykańskiej agencji NASA–JPL ( Tab 8). Jest on unikalnym
sensorem optycznym, typu whiskbroom, dostarczającym dane rejestrowane w 224 kanałach dla
zakresu 400–2500 nm, z rozdzielczością przestrzenną 10 nm. Rejestracja danych od 1987 roku
umożliwia dokonywanie analiz wieloczasowych oraz badanie zmian, jakie występują w środowisku
naturalnym. Badania wykorzystujące obrazy sensora AVIRIS skupiają się na zrozumieniu procesów
związanych z środowiskiem naturalnym i zmianami klimatycznymi zachodzącymi na Ziemi
(Boardman i Kruse, 1994; Clark i in., 1991; Hauff i in., 2000; van der Meer, 1994). Obrazy z tego
sensora przyczyniły się do pogłębienia wiedzy na temat: ekologii, oceanografii, geologii, hydrologii,
właściwości chmur i atmosfery (JPL, 2012).
Wspomniany sensor DAIS, należący do Niemieckiej Agencji Kosmicznej DLR (Deutsches
Zentrum für Luft und Raumfahrt) rejestruje dane dla całego spektrum promieniowania
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
14
elektromagnetycznego (VIS, NIR, SWIR i TIR) z rozdzielczością przestrzenną zmieniającą się
w zależności od wysokości lotu samolotu, wynoszącą od 3m do 20m (DLR, 2012). Dane
rejestrowane przez 4 spektrometry DAIS’a są wykorzystywane do różnego typu zastosowań
teledetekcyjnych: monitoring środowiska, badanie roślinności, geologia, leśnictwo, rolnictwo,
badanie złóż, górnictwo, jak również jako źródło danych Systemów Informacji Przestrzennej
(Richter, 1996; Ben-Dor i in., 2002; Kavzoglu, 2004). Siedemdziesiąt dwa kanały DAIS’a z zakresu
400−2500 nm pozwalają na badanie procesów dotyczących obiektów znajdujących się na
powierzchni, które odbijają promieniowanie elektromagnetyczne, ze szczególnym uwzględnieniem
interakcji występujących pomiędzy roślinnością i glebą. Dane rejestrowane przez 6 kanałów
termalnych sensora (o rozdzielczości spektralnej około 0,9 µm) wykorzystywane są do uzyskiwania
temperatury i emisyjności obiektów, znajdujących się na powierzchni lub w wierzchniej warstwie
gleby (DLR, 2012).
Tab 8. Charakterystyka wybranych hiperspektralnych sensorów lotniczych (źródło: eoPortal, 2012).
Satelitarne sensory hiperspektralne wykorzystywane są od czasu rozpoczęcia misji NASA
EO−1 (Earth Observing−1) w roku 2000. Hyperion jest pierwszym satelitarnym sensorem
hiperspektralnym. Został umieszczony na platformie satelity EO−1 wraz z sensorami:
multispektralnym ALI (Advanced Land Image) oraz AC (Atmospheric Corrector). Początkowo
Hyperion był wykorzystywany jako instrument testowy, który został zaprojektowany w celu
zademonstrowania i sprawdzenia możliwości ciągłej rejestracji sygnałów dla określonego zakresu
fal z pułapu satelitarnego. Pozyskiwane dane były porównywane z obrazami rejestrowanymi w tym
samym czasie przez sensor ETM+ umieszczony na platformie Landsat 7. Formalnie program
badawczy zakończono pod koniec roku 2002, jednakże z uwagi na sukces misji i stabilność
systemu sensor w dalszym ciągu rejestruje dane hiperspektralne. W wyniku porozumienia
pomiędzy agencją NASA i Centrum USGS zdecydowano się kontynuować pozyskiwanie
Sensor Operator/kraj Liczba
kanałów
Zakres
spektralny
[nm]
Rozdzielczość
spektralna [nm]
Rozdzielczość
przestrzenna
[m]
DAIS 7915 DLR, Niemcy 79
(4 moduły) 400 - 12600 1 - 45 3-20
AVIRIS NASA JPL, USA 224 400 - 2500 10 20
HyMap HyVista Corp.,
Australia
132
(4 moduły) 450 - 2500 15 - 20 3-10
CASI-1500 ITRES, Kanada 288 365 - 1050 3,5 25cm – 1,5m
AISA HAWK Spectral Imaging
Ltd., Finlandia 254 970 - 2500 6,3 1-2
HyTES NASA JPL, USA 256 7500-12000 17,6 3 - 34
TIMS NASA JPL, USA 5 8200-12200 40-100 18
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
15
i dystrybucję danych w ramach programów: The Early EO−1 Extended Mission (2002–2005),
“The Ad Hoc Mission” (2005–2007), The EO-1 Extended Mission (2007–2011), Ongoing Mission
(2011–2013+). Od roku 2009 dane Hyperiona dostępne są nieodpłatnie. Rejestracja danych
odbywa się w oparciu o konkretne zapotrzebowania zgłaszane przez środowiska naukowe.
Hyperion jest sensorem typu pushbroom, który rejestruje promieniowanie elektromagnetyczne
w 242 kanałach o rozdzielczości spektralnej 10 nm i przestrzennej 30 m ( Tab 9), za pomocą
dwóch spektrometrów pracujących w zakresach widzialnym i bliskiej podczerwieni VNIR (Visible
and Near-InfraRed) oraz średniej podczerwieni SWIR (Short Wavelength Infrared). Pierwszy
spektrometr rejestruje informację przestrzenną i spektralną za pomocą matrycy CCD dla
pierwszych 70 kanałów (400–1000 nm). Drugi ze spektrometrów (HgCdTe) pozyskuje dane
w zakresie 900−2500 nm w kanałach 71−242 (USGS, 2012).
Sukces Hyperiona przyczynił się do podniesienia poziomu wiedzy na temat pracy i stabilności
sensorów obrazujących umieszczanych na platformach satelitarnych, tym samym umożliwił
odpowiednie przygotowanie i budowę nowych sensorów, które są planowane do umieszczenia na
orbicie w latach 2015−2017 (np. niemiecki EnMAP, włoski PRISMA, amerykański Hyperspectral
Infrared Imager (HyspIRI)).
Tab 9. Charakterystyka wybranych hiperspektralnych sensorów satelitarnych.
1 NASA (National Aeronautics and Space Administration) – Amerykańska Agencja Kosmiczna
2 ESA (European Space Agency) – Europejska Agencja Kosmiczna
3 CAST (China Academy of Space Technology) – Chińska Akademia Technologii Technicznej
4 ASI (Agenzia Spaziale Italiana) – Włoska Agencja Kosmiczna
5 DLR (Deutsches Zentrum für Luft und Raumfahrt) – Niemiecka Agencja Kosmiczna
Sensor (misja)
Operator/rok
umieszczenia na
orbicie
Liczba
kanałów
Zakres
spektralny
[nm]
Rozdzielczość
spektralna
[nm]
Rozdzielczość
przestrzenna
[m]
Hyperion
(EO-1)
NASA, 2000
(NASA/USGS
2002)
242 400 − 2500 10 30
Chris
(Proba)
ESA
2001 19 lub 63 415 − 1050 1,3 −12 18 lub 36
HySI
(Chandrayan-1)
Indie,
2008 64 450 − 950 15 80
HJ-1A CAST Chiny, 2008 128 450 − 950 5 100
PRISMA
(PRISMA)
ASI Włochy, 2013 >237 400 − 2500 ≤12 30
HSI
(EnMAP)
DLR, Niemcy
2013
228 420 − 2450 5−10 30
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
16
Innym sensorem satelitarnym zasługującym na uwagę jest CHRIS (Compact High Resolution
Imaging Spectrometer), należący do Europejskiej Agencji Kosmicznej ESA. Został umieszczony na
platformie PROBA w roku 2001 (ESA, 2012). Celem projektu było przetestowanie sensora o bardzo
niewielkiej masie, pod kątem jego stabilności w przestrzeni kosmicznej. Z uwagi na wielki sukces,
program demonstracyjnej misji PROBA−1/CHRIS zaplanowany na 1 rok, został przedłużony do
roku 2012, w celu pełnego wykorzystania możliwości, jakich dostarczał. Sensor CHRIS
standardowo rejestruje dane 19 kanałach spektralnych, w zakresie 415−1050 nm z rozdzielczością
naziemną 17m. Rejestracja dokonywana jest wzdłuż pasa obrazowania (13x13 m) w czasie prawie
rzeczywistym (2−3 minuty). Taki tryb rejestracji jest bardzo pomocny przy badaniu współczynnika
BRDF (Bidirectional Reflectance Distribution Function), który umożliwia lepsze zrozumienie
rejestrowanego odbicia spektralnego dla roślinności i pozostałych form pokrycia terenu,
w przypadku zmiany kąta lub zmiany w oświetleniu.
Istnieje możliwość zmiany ustawień standardowych i rejestrowanie danych w 63 kanałach
spektralnych o rozdzielczości przestrzennej 36×36 m lub 18 zakresów w tzw. pełnej rozdzielczości
przestrzennej, czyli 18×18 m. Sensor posiada olbrzymi potencjał obrazowania Ziemi polegający na
możliwości programowania zakresów spektralnych, które są dobierane adekwatnie do obiektów
badań. Dostarcza unikalnych możliwości rejestrowania obrazów w pięciu różnych modułach
w zależności od celu badań ( Tab 10). Dane z sensora CHRIS mogą być pozyskiwane jako zestaw
pięciu obrazów tego samego obszaru wykonywanych pod różnym kątem: -55°, -36°, 0°, +36°, +55°
( Rys. 3). Obrazy są rejestrowane w ramach realizacji konkretnych projektów badawczych lub na
zamówienie.
Duże nadzieje wiązane są z sensorem hiperspektralnym HSI (Hyperspectral Imager),
przygotowywanym do umieszczenia na niemieckim satelicie EnMAP (Environmental Mapping and
Analysis Program), należącym do niemieckiej Agencji Kosmicznej DLR. Nowy sensor zaprojektowano
jako sensor typu pushbroom, rejestrujący w dwóch zakresach (VNIR i SWIR) dla długości fal
420−2450 nm, z rozdzielczością spektralną 5 nm dla VNIR i 10 nm dla SWIR oraz z rozdzielczością
przestrzenną 30 m. Łączna liczba kanałów, dla których rejestrowany będzie sygnał wynosi 228
(96 dla zakresu VNIR i 136 dla zakresu SWIR). Sygnał dla kanałów z zakresu SWIR będzie
rejestrowany z opóźnieniem 86 ms w stosunku rejestracji sygnału dla kanałów w zakresie VNIR. Inne
Systemy, które są planowane to europejski CHRIS−2 oraz włoski PRISMA ( Tab 9).
Tab 10. Modele rejestracji sensora CHRIS (źródło: eoPortal, 2012).
Moduł Liczba
kanałów
Rozdzielczość
przestrzenna w [m]
Szerkość pasa
skanowania [%] Zastosowanie
1 (A) 62 34 100 aerozole
2 (W) 18 18 100 woda
3 (L) 18 18 100 powierzchnia Ziemi
4 (C) 18 18 100 chlorofil
5 (H) 37 18 50 powierzchnia Ziemi
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
17
.
Rys. 3. PROBA-1 - rejestracja pięciu obrazów tego samego obszaru wykonywanych pod różnym kątem: 0°, +55°, -55°, +36°, -36°
(źródło: ESA, 2012).
1.2 Dane nieobrazowe – spektrometry nieobrazuj ące
Spektroskopia nieobrazowa dotyczy badań zależności pomiędzy charakterystyką spektralną
obiektów i ich biofizycznymi atrybutami w środowisku naturalnym. Jest to jedna z podstawowych
technik teledetekcyjnych stanowiąca pomost pomiędzy laboratoryjnymi pomiarami odbicia
spektralnego i pomiarami polowymi, która odgrywa ogromną rolę w kalibracji danych, zarówno
lotniczych, jak i satelitarnych. Jest również niezwykle ważna w predykcji optymalnej liczby kanałów,
przy wyborze właściwej konfiguracji geometrycznej sensorów i czasu, w którym dokonywana jest
rejestracja obrazów w celu realizacji poszczególnych zadań teledetekcji. Spektroskopia
nieobrazowa dostarcza również narzędzi do testowania, ulepszania modeli biofizycznych,
tworzonych na podstawie danych teledetekcyjnych (Milton, 1987). Spektrometry polowe służą do
pomiaru obiektów lub próbek (in situ i laboratoryjnie) i zapewniają dane referencyjne będące
podstawą do kalibracji danych obrazowych uzyskanych z pułapu lotniczego i satelitarnego.
Jednym z pierwszych spektrometrów skonstruowanych dla zastosowań teledetekcyjnych
głównie do celów kalibracji danych pozyskiwanych z pułapu lotniczego, był spektrometr Exotech−20
(Silva i in., 1971). Od tamtego czasu skonstruowano bardzo wiele spektrometrów polowych m.in.
Daedalus AA440, Barnes 12−550, JPL−PFRS, Spectron SE−590 (Milton, 1987). Ponieważ żaden
detektor nie jest w stanie zarejestrować sygnału dla całego spektrum długości fal, spektrometry,
które rejestrują w całym zakresie spektrum są zwykle wyposażone w różne typy detektorów np.
krzemowy (Si), siarczkowo-ołowiowy (PbS). Spektrometr może być zbudowany z monochrometru
skanującego (np. Licor−1800 (LI−COR, Lincoln, Ne, USA)), matrycy diod (np. GER−2100
i GER−2600 (Geophysical&Environmental Research Corporation, USA)) lub ich kombinacji, jak
w przypadku spektrometru FieldSpec Pro FR (Analytical Spectral Devices Inc., USA). Pomiar
odbicia/emisyjności promieniowania elektromagnetycznego musi odbywać się pod określonym
kątem widzenia (1–25º) umożliwiającym zarejestrowanie charakterystyki spektralnej obiektów
jednorodnych (Milton, 1987).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
18
Rozdzielczość spektralna spektrometrów nieobrazujących jest dużo większa niż w przypadku
spektrometrów obrazujących (od kilku do kilkuset nanometrów) i zależy od rodzaju instrumentu oraz
liczby kanałów, w których rejestrowane jest promieniowanie elektromagnetyczne. Nieobrazujące
spektrometry hiperspektralne rejestrują współczynnik odbicia w tysiącach kanałów z rozdzielczością
około 1 nm, natomiast spektrometry wielospektralne dokonują pomiaru z rozdzielczością
10−300 nm, w kilku lub kilkunastu kanałach.
Wyniki pomiarów spektrometrycznych służą do budowy tzw. bibliotek spektralnych, które
wykorzystywane są do porównania charakterystyk spektralnych obiektów uzyskiwanych na
podstawie pomiaru krzywych z obrazów. Najpopularniejsze biblioteki spektralne to JPL Spectral
Library, USGS Digital Spectral Library, ASTER Spectral Library oraz biblioteka uniwersytetu
Hopkinsa (The Johns Hopkins University Spectral Library). Krzywe referencyjne znajdujące się
w bibliotekach wykorzystuje się m.in. w takich metodach klasyfikacji jak SAM (Spectral Angle
Mapper), SFF (Spectral Feature Fitting) oraz w metodach rozmieszania spektralnego
np. MF (Matched Filtering), LSU (Linear Spectral Unmixing).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
19
2. Zastosowanie obrazów hiperspektralnych – przegl ąd literatury
Z uwagi na ogromną ilość informacji zawartej w danych hiperspektralnych, dużym
zainteresowaniem naukowców cieszy się teledetekcja oparta na danych z sensorów
hiperspektralnych rejestrujących obrazy z rozdzielczością spektralną od kilkudziesięciu do kilkuset
kanałów np. HyMap, AVIRIS, CASI, AISA, SEBASS, DAIS, Chris–Proba, Hyperion itd. Świadczą
o tym liczne badania publikowane głównie w literaturze światowej (Lei i Bodechtel, 1999;
Cudacy i Okada, 2000; Shang i in., 2002; Ong i in., 2003; White i in. 2008; Ben-Dor i in. 2008;
Debba i in., 2009), a w ostatnich latach także polskiej (Wężyk i in., 2003; Hejmanowska
i Głowienka, 2004; Hejmanowska i in., 2006; Głowienka, 2008 a, b; Osińska-Skotak i in., 2005;
Oleksiak i Zagajewski, 2008; Zagajewski, 2010; Jarocińska, 2012).
Zastosowanie danych hiperspektralnych można przedstawić w świetle ostatnich kongresów
International Society for Photogrammetry and Remote Sensing (ISPRS) w Pekinie (2008)
i Melbourne (2012). Duża grupa artykułów poświęcona została wykorzystaniu danych
hiperspektralnych w badaniach właściwości gleby (Chen i in., 2012) oraz
identyfikacji zanieczyszczeń i stopnia jej degradacji (White i in. 2008, Yue i in. 2008). Zespół z Chin
(Wang i in., 2008) zaproponował nową metodę identyfikacji zanieczyszczeń gleby na podstawie
badania Independent Component Analysis (ICA). Metoda ICA umożliwia detekcję nawet bardzo
słabej informacji znajdującej się w danych hiperspektralnych. Badania dotyczyły także zależności
odbicia spektralnego od zawartości materii organicznej dla gleb (He i in. 2008). Ben-Dor (Ben-Dor
i in. 2008) przedstawił nową koncepcję kartowania gleb, która oparta jest na wykorzystaniu danych
z optycznych sensorów lotniczych i spektrometrów naziemnych bazujących na technologii
Penetrating Optical Sensor (POS). Według autorów informacje uzyskane z spektrometru
obrazowego i naziemnego dają nowe możliwości automatycznego badania parametrów gleby
in situ. Duża część artykułów dotyczyła także wykorzystania wyników pomiaru spektrometrycznego
do badań roślinności. Głównie była to próba rozróżniania gatunków roślin na podstawie obliczonych
współczynników wegetacji, parametrów uzyskanych z krzywych spektralnych oraz zawartości
chlorofilu. Metody, które wykorzystywano są związane z właściwością danych hiperspektralnych
szczególnie z ciągłością odpowiedzi spektralnej np.: Continuum Removed, Spectral Feature Fitting
(SFF), Red Edg Position (REP), pierwsza i druga pochodna krzywej spektralnej (Abbasi i in., 2008;
Pu, 2008; Cho M. i in., 2008; Zhang i in., 2008; Mozaffar i in., 2008; Sun i in., 2008; Newnham i in.,
2012; De Souza i in., 2012; White i Lewis, 2012). W wyniku testów stwierdzono, iż każda z technik
daje bardzo dobre rezultaty w kanałach odpowiedzialnych za absorpcję chlorofilu i absorpcję wody.
Autorzy zwracają uwagę na konieczność badań roślinności in situ i tworzenia bibliotek spektralnych,
które następnie mogą być wykorzystywane w teledetekcji lotniczej i satelitarnej. Badania roślinności
dotyczyły również analizy korelacji pomiędzy indeksami wegetacji, a zawartością chlorofilu
(Chen J. i Chen Ch., 2008; Penatti i de Almeida, 2012) oraz indeksu LAI (Leaf Area Index)
(Darvishzadeh i in., 2008; Wittamperuma i in., 2012).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
20
Dane hiperspektralne były także podstawą do analiz terenów rolniczych (Yueting i in. 2008;
Yang i in. 2008; Bian i in., 2012; Nakanishi i in., 2012). Gnyp (Gnyp i in. 2008) przedstawił próbę
wykorzystania metod teledetekcyjnych i GIS do identyfikacji terenów, na których zastosowano
nadmierne nawożenie gleby nawozami azotowymi. Wykorzystanie danych hiperspektralnych do
badania kolejnych faz wegetacji pszenicy można prześledzić w publikacji zespołu Wang’a
(Wang i in., 2008). Zdaniem autorów stosowanie technik teledetekcyjnych dla danych o wysokiej
rozdzielczości spektralnej, umożliwia monitorowanie wzrostu i rozwoju biomasy roślin uprawnych,
a tym samym prognozowanie wielkości plonów. Zhao (Zhao i in., 2008) wykorzystał dane z sensora
MODIS do monitoringu terenów rolniczych dotkniętych suszą oraz do monitorowania pożarów
lasów. Autorzy stwierdzają, że dane z sensora MODIS wraz z danymi meteorologicznymi są
doskonałym źródłem informacji do tego rodzaju badań i prac monitoringowych.
Krótki czas pozyskania obrazów hiperspektralnych i małe nakłady finansowe w stosunku do
poboru oraz analizy próbek naziemnych powodują, że zdalne techniki teledetekcyjne oparte na
danych hiperspektralnych są doskonałym źródłem informacji wykorzystywanym w monitoringu
środowiska. Ponadto, zmiany wymogów prawnych oraz podwyższone oczekiwania społeczeństwa
związane z jakością środowiska powodują zwiększenie potrzeb na technologie umożliwiające
dokładne zarządzanie, szacowanie, przeprowadzanie zabiegów związanych z obowiązkiem
utrzymania określonych warunków środowiska naturalnego. Wysokie koszty monitoringu, a także
rekultywacji skłaniają do szukania metod alternatywnych w stosunku do kosztownych
i czasochłonnych pomiarów laboratoryjnych stosowanych dotychczas (Ong i in., 2003). Z tego
powodu w ostatnich latach wzrosło zainteresowanie zdalnymi technikami monitoringu, oceny
charakteru wpływu na środowisko naturalne oraz skali degradacji spowodowanej działalnością
człowieka (Clark i in., 2003). W Stanach Zjednoczonych spektrometria obrazowa oparta na
hiperspektralnych danych obrazowych i nieobrazowych została wykorzystana np. do badania
występowania pirytu i jego postaci zwietrzelinowej jarosytu w kopalni Leadville (Clark i in., 2003).
Uzyskane mapy umożliwiły lokalizowanie regionów występowania skażonych wód kopalnianych
oraz miejsca odpadów poeksploatacyjnych. Według danych Amerykańskiej Agencji Ochrony
Środowiska USEPA (The U.S. Environmental Protection Agency), zastosowanie zdalnej techniki
teledetekcyjnej opartej na danych hiperspektralnych, umożliwiło zaoszczędzenie 2,5 mln dolarów
kosztów rekultywacji i znacznie przyspieszyło (około 2,5 roku) procesy rekultywacyjne. Zabicic i in.,
(2005) zaprezentował wykorzystanie modelu wyznaczania pH na podstawie obrazów
hiperspektralnych dla terenów po byłej kopalni cynku i ołowiu Sotiel-Migollas w Hiszpani. Autorzy
dokonali próby scharakteryzowania zmian pH zdegradowanego gruntu, biorąc pod uwagę zmiany
coroczne i sezonowe. Wyniki analiz pH uzyskane na podstawie obrazów hiperspektralnych
zarejestrowanych w ciągu 4 lat, zostały porównane z laboratoryjnymi pomiarami pH próbek gruntu
pobranych z terenu kopalni. Tradycyjne badania, mające na celu ilościowe określenie skali
degradacji i szacowanie odpadów pokopalnianych wymaga pobrania bardzo dużej liczby próbek
minerałów i ich dalsze długotrwałe analizy w laboratorium. Opracowanie (Zabicic i in.,2005) jest
przykładem możliwości zastosowania szybkiej, tańszej w stosunku do badań laboratoryjnych,
nieinwazyjnej metody ilościowego określenia pH. Natomiast, Eyers (Eyers i in., 2004) w swoim
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
21
artykule, opisuje wykorzystanie danych hiperspektralnych z sensora CASI do badania możliwości
wykrywania osiadań terenu spowodowanych działalnością byłej kopalni węgla kamiennego
w północno-wschodniej Anglii. Do identyfikacji obniżeń i zmian terenu wykorzystano wyniki
przetwarzania obrazów hiperspektralnych oraz NMT opracowany fotogrametrycznie. Do
przygotowania mapy obniżeń autorzy wykorzystali wiedzę a priori odnośnie topografii
i charakterystyki spektralnej badanego obszaru. W analizie danych hiperspektralnych zastosowano
metody, które umożliwiły śledzenie zmian warunków wegetacji roślin, a mianowicie Red Edge
Position (REP) oraz Continuum Removed (CR). Nachylenie terenu i pozycje REP zastosowano,
jako indykator stresu, na który narażona jest roślinność na terenie występowania osiadań. Przy
użyciu metody Continuum Removed przeanalizowano głębokości piku, który dla chlorofilu
występuje zwykle między 450 nm i 750 nm. Zaobserwowano znaczne spłycenie tego piku
w rejonach występowania pięknieć oraz wyraźną zmianę gatunków roślin w obszarach
występowania osiadania. Kolejnym przykładem zastosowania danych hiperspektralnych
w monitoringu i rekultywacji terenów kopalnianych jest projekt zrealizowany dla austriackiej kopalni
rudy żelaza i syderytu „Steiricher Erzberg” (Grösel i Belocky, 2003). W projekcie wykorzystano
dane hiperspektralne (HyMap), lotnicze ortofotomapy, NMT oraz jego pochodne (np. mapy
nachyleń, mapy nasłonecznienia). Lotnicze obrazy hiperspektralne zostały wykorzystane do
kartowania poszczególnych rud metali oraz ich pochodnych. Wyniki projektu dostarczają
kompleksowej informacji na temat: udziału biomasy na analizowanym terenie, stopnia degradacji
roślinności, stanu gleby i jej wilgotności, warunków mikroklimatycznych, stanu litologicznego
(np. intensywności wietrzenia węglanu żelaza). Taka informacja pozwoliła na oszacowania kosztów
rekultywacji raz sposobu jej przeprowadzenia.
Dane hiperspektralne wykorzystywane są także jako źródło informacji do szacowania rodzaju
i ilości odpadów kopalnianych (Hauff i in., 2000), identyfikacji i stanu degradacji terenów
zajmowanych przez działające lub już zamknięte kopalnie: głębinowe (Eyers i in., 2004),
odkrywkowe (Grösel i Belocky, 2003) i otworowe (Hejmanowska i Głowienka, 2004). Badania
prowadzone są głównie w krajach, gdzie znajduje się dużo terenów wymagających rekultywacji po
zakończeniu eksploatacji górniczej (Bierwith i Pfitzner, 2001) Przykłady takich badań znajdziemy
w opracowaniach wykonywanych w Europie (Ferrier i in., 2007; Debba i in., 2009; Riaza i Carrere,
2009.), w Stanach Zjednoczonych (Swayze i in., 2000; Smailbegovic i in., 2004), w Australii
(Cudahy i Okada, 2000; Cudahy i in., 2002; Dehaan i Taylor, 2003), w Chinach (Lei i Bodechtel,
1999, Künzer i in., 2003; van der Meer i in., 2004; Fengjie i in., 2006) oraz w Kanadzie (Shang i in.,
2002; Richter N. i in., 2004, 2008) W Europie zadania monitoringu terenów kopalń realizowane były
w ramach europejskiego projektu MINEO (Monitoring the Environmental Impact of Mining Activities
in Europe Using Advanced Observation Techniques). Głównym celem tego projektu było
zwiększenie udziału obrazów hiperspektralnych w kartowania obszarów skażonych w wyniku
działalności górniczej oraz opracowanie optymalnej metodyki do regularnego aktualizowania bazy
danych o środowisku na podstawie wysokorozdzielczych lotniczych i satelitarnych danych
hiperspektralnych (Fleming i Marsh, 2005). W celu zbadania różnorodności klimatycznej,
geograficznej i socjoekonomicznej środowiska Europy, do projektu wybrano 6 testowych obszarów
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
22
kopalń w pięciu krajach europejskich (Portugalia, Wielka Brytania, Niemcy, Austria i Finlandia) oraz
jedno pole testowe na Grenlandii.
2.1 Badanie stanu wód
Hiperspektralne dane obrazowe i nieobrazowe są szeroko wykorzystywane w badaniu
parametrów stanu oraz jakości zarówno wód morskich (Lee i in., 1999; Brando i Dekker, 2003), jak
i wód śródlądowych (Dekker i in., 1992; Schalles i in., 1998; Kallio i in., 2001; Koponen i in., 2002;
Kallio i in., 2003; Mannheim i in., 2004). Akweny wód naturalnych zostały podzielone ze względu na
właściwości optyczne wody na dwie klasy tzw. „Case 1” i „Case 2” (Morel i Prieur, 1977). Klasa
„Case 1” obejmuje akweny wodne, w których składnikiem decydującym o charakterystyce
spektralnej wody jest fitoplankton wraz towarzyszącymi pigmentami. Przykładem jest woda
oceaniczna, woda morska oraz czysta woda zbiorników śródlądowych (Morel i Prieur, 1977).
Natomiast klasa „Case 2” dotyczy wód, których właściwości optyczne zależą w głównej mierze od
zawartości cząstek materii nieorganicznej (TSS – Total Suspended Solids) i rozpuszczonej materii
organicznej (CDOM – Colored Dissolved Organic Matter). Do tej kategorii należy większość wód
śródlądowych i przybrzeżnych. Dokładność oceny parametrów jakości wody dla obydwu klas za
pomocą zdalnych metod teledetekcyjnych, zależy od tego, jak aktywne optycznie są wymienione
wyżej składniki i czy odbicie spektralne wody nie jest zakłócane przez dodatkowe parametry
(Liu i in., 2003). Istnieją trzy różne podejścia do ilościowej oceny jakości wody: empiryczne, semi-
empiryczne oraz biooptyczne. Modele empiryczne i semi-empiryczne są oparte na statystycznej
zależności pomiędzy charakterystyką spektralną i pomierzonymi dla niej parametrami
(Morel i Gordon, 1980). Modele empiryczne bazują na danych z pomiaru spektrometrycznego
in situ. Natomiast modele bio-optyczne zwane również modelami analitycznymi wykorzystują
optyczne właściwości wody (Hakvoort i in., 2002; Brando i Dekker, 2003):
• rzeczywiste (np. absorpcja, rozpraszanie),
• pozorne (np. promieniowanie odbite, kolor, przejrzystość).
Teledetekcja akwenów należących do klasy „Case 1” opiera się na metodach i modelach
stosowanych już w latach 80-tych XX wieku dla obrazów multispektralnych (Landsat, Spot,
SeaWiFS, NOAA AVHRR) (Gordon i Clark, 1980). Algorytmy i modele dla drugiej kategorii wód
(Case 2) są znacznie bardziej skomplikowane i trudniejsze do zastosowania ze względu na
różnorodność i specyfikę akwenów śródlądowych.
Dane hiperspektralne ze względu na wysoką rozdzielczość spektralną (zwłaszcza w zakresie
VNIR) odgrywają dużą rolę w wyznaczaniu takich parametrów jakości wody jak: zawieszona
materia nieorganiczna (TSS), rozpuszczona materia organiczna (CDOM), poziom zmętnienia
(Hakvoort i in., 2002; Vos i in., 2003), całkowita zawartość fosforanów (Koponen i in., 2002). Dane
pomierzone in situ z równoległą rejestracją spektrometrem obrazowym są podstawą klasyfikacji
statusu troficznego zbiorników wodnych (Koponen i in., 2002; Thiemann i Kauffman, 2002)
monitorowania zakwitu alg (Stumpf, 2001), szacowania migracji azotanów, poziomu zasolenia
(Tilley i in., 2003). Bardzo duża część opracowań dotyczy możliwości szacowania zawartości
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
23
chlorofilu a, który wykorzystywany jest jako indykator np. występowania koloni alg,
zooplanktonu, fitoplanktonu, bakterioplanktonu, a tym samym do monitorowania jakości wody
(Schalles i in., 1998). Zawartość chlorofilu szacowana jest na podstawie danych ze spektrometrów
polowych (ASD, Spectralon, SpectraColorimeter, PR 650, Ocean Optics ST1000) oraz obrazowych
spektrometrów lotniczych (CAMS, PMI, CAESAR, CASI, AISA and EPS−A) i satelitarnych
(Hyperion, Chris−Proba, MERIS, MODIS) (Brando i Dekker, 2003; Mannheim i in., 2004; Dall'Olmo
i in., 2005; Wang i in., 2005; Jiao i in., 2006). Najlepsze wyniki korelacji pomiędzy zarejestrowaną
odpowiedzią spektralną, a zawartością chlorofilu (r2 = 0,73 − 0,99) uzyskano dla danych z pomiarów
naziemnych (Schalles i in., 1998; Zimba i Gitelson, 2006) oraz dla danych z pułapu lotniczego
(r2 = 0,68 - 0,98) ( Dekker i in., 1992; Kallio i in., 2001; Kallio i in., 2003).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
24
3. Stosowana metodyka przetwarzania obrazów hiperspektralnych na tle bada ń literaturowych
Dostępność danych hiperspektralnych oraz ich potencjał informacyjny powodują intensywny
rozwój technik przetwarzania tego rodzaju danych. O ile zasady spektroskopii są dobrze poznane,
a metody analizy danych spektrometrycznych bardzo dobrze rozwinięte, zwłaszcza dla krzywych
spektralnych pozyskanych w laboratorium (Clark i in., 1992; Clark i Swayze, 1995), to metodyka
przetwarzania obrazowych danych hiperspektralnych nadal jest opracowywana, a algorytmy analizy
tych obrazów są doskonalone.
Stosowane metody powinny być miarodajne i możliwe do zastosowania w różnych aplikacjach
(DeFries i Chan, 2000). Istniejące metody przetwarzania obrazów hiperspektralnych można
podzielić na 3 podstawowe grupy (Varshney i in., 2006):
• przetwarzanie wstępne (preprocessing),
• korekcja atmosferyczna - transformacja wartości promieniowania (radiance) do wartości
odbicia (reflectance)
• analiza danych
W ramach przygotowania obrazów hiperspektralnych do analizy należy uwzględnić także
grupę metod redukcji nadwymiarowości danych. Każda z wymienionych grup przetwarzania danych
hiperspektralnych dysponuje różnymi algorytmami i technikami, które umożliwiają osiągnięcie
poprawnego produktu wynikowego dla danej grupy.
3.1 Przetwarzanie wst ępne
Przed analizą tematyczną obrazów hiperspektralnych wymagane jest przeprowadzenie
czynności przetwarzania wstępnego w celu transformacji danych do odpowiedniego formatu oraz
dalszej ekstrakcji informacji. Jest to warunek konieczny, jeżeli dane mają być podstawą analiz
ilościowych dla obrazów zarejestrowanych przez różne sensory lub detekcji zmian na podstawie
danych pozyskanych w różnych okresach czasowych (van Wagtendonk i Root, 2000;
Lewiński, 2000; van Wagtendonk i in., 2004; Yang i in., 2006; Kruse i Perry, 2007; Michałowska
i Głowienka-Mikrut, 2010). Przetwarzanie wstępne (ang. pre-processing) jest wymagane dla
konwersji pierwotnych wartości promieniowania, zarejestrowanych przez sensor do promieniowania
tzw. at-sensor-radiance. Przetwarzanie takie wykonywane jest przez dostawcę danych (Varshney
i in., 2006). Do etapu tzw. pre-processingu zaliczane są również takie operacje wykonywane
przez użytkownika jak: kalibracja spektralna, korekcja geometryczna i geokodowanie (geometric
pre-processing), de-striping (Datt i in., 2003) oraz szacowanie wartości stosunku sygnału do szumu
(Signal to Noise Ratio − SNR) (Brunn i in., 2003). Korekcja geometryczna i geokodowanie
wymagane jest, aby możliwa była integracja danych z bazą danych GIS, ich dalsze przetwarzanie
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
25
i analizy (Aspinall, 2002, Goodchild, 2003, Grösel i Belocky, 2003). Często wymienianym
w literaturze narzędziem do korekcji geometrycznej jest oprogramowanie PARGE (PARametric
GEocoding) (Brunn i in., 2003; Sobczak i in., 2005) oraz PCI OrthoEngine (Geomatica PCI, 2004),
za pomocą których przeprowadzana jest ortorektyfikacja i geokodowanie. Jeśli dostępne są
precyzyjnie pomierzone parametry lotu i właściwy numeryczny model terenu (NMT), przy korekcji
obrazów takich sensorów jak: HyMap, Probe−1, AVIRIS, DAIS - 7915, ROSIS, CASI, AISA, MIVIS,
PHILLS, Deadalus ATM, możliwe jest osiągnięcie nawet podpikselowej dokładności
(ReSe Application Schlapfer, 2007). Procedura korekcji geometrycznej danych z sensorów
umieszczonych na platformie EO−1, została bardzo dokładnie opisana przez (Dyk i in., 2002;
Goodenough i in., 2003).
Najczęściej podawanym w literaturze wskaźnikiem jakości danych
hiperspektralnych jest stosunek sygnału do szumu tzw. Sigal to Noise Ratio (SNR). Stanowi on
jeden z etapów pre-processingu polegający na szacowaniu poziomu zawartości szumu względem
mocy sygnału. Najpopularniejszym sposobem wyznaczania przybliżonego SNR jest metoda
średnia/odchylenie standardowe (Kruse i in., 2003). Wykorzystanie tej metody przez Kruse’a
w szacowaniu SNR dla kilkunastu scen Hyperiona (Kruse i in., 2002) pozwoliło stwierdzić, iż istnieje
bardzo silna zależność pomiędzy czasem rejestracji sceny, a wartością SNR. Dla scen
rejestrowanych w lecie stosunek sygnału do szumu w zakresie SWIR jest wyższy od wartości SNR
uzyskiwanych dla scen zimowych.
3.1.1 Striping
Podobnie jak obrazy z sensorów multispektralnych, także obrazy hiperspektralne są obarczone
tzw. stripingiem. Występowanie stripingu w obrazie spowodowane jest między innymi
niestabilnością pracy sensora oraz obecnością błędnych pikseli, w niektórych kanałach obrazu
(Goetz i in., 2002). Striping (prążkowanie) jest typem zakłócenia, powstającym w wyniku
rejestrowania sygnału przez wadliwie działający detektor. W rezultacie takiej rejestracji obraz jest
obarczony niepoprawną kolumną lub wierszem (w zależności od rodzaju sensora), w którym
wartości pikseli (DN) dostarczają zafałszowaną lub zerową informację spektralną. Piksele takie są
często nazywane „błędnymi pikselami” (z ang. bad pixels). Dana kolumna posiada striping zwykle
w kilku lub kilkunastu kanałach, oznacza to, że usunięcie tego zakłócenia nawet dla jednej kolumny
w znacznym stopniu wpływa na analizę krzywych spektralnych z obrazu i poprawia jakość wyniku
automatycznej klasyfikacji.
Zniekształcenia stripingu występują w obrazach takich sensorów jak Landsat MSS i TM, Spot
czy Hyperion (Bernstein i in., 1984; Kruse i in., 2002). W literaturze można znaleźć opisy
opracowanych algorytmów i procedur redukcji lub usuwania tego rodzaju zakłóceń, tzw. de-striping.
Jednymi z pierwszych były algorytmy modyfikacji histogramu (Horn i Woodham, 1979)
i dopasowania histogramów (Wegener, 1990). Wraz z rozwojem teledetekcji, wykorzystywano
coraz bardziej zaawansowane techniki. Chander (Chander i in., 2002) do redukcji stripingu
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
26
w kanałach Landsata TM wykorzystał regresję odwrotną. Aizennberg i Butakoff (2002) do
skutecznego usuwania okresowych zniekształceń wykorzystali funkcję częstotliwości.
Przykładem minimalizacji wpływu stripingu w obrazach hiperspektralnych Hyperiona są metody
zaprezentowane przez australijski zespół CSIRO (Commonwealth Scientific and Industrial
Research Organization Earth Observation Centre) (Cudacy i in., 2002; Datt i in., 2003).
Zaproponowana metoda (tzw. „podejście globalne”) jest oparta na dopasowaniu statystyk każdej
kolumny do statystyki całego obrazu. Należy obliczyć średnią i odchylenia standardowego
z wartości pikseli dla każdej kolumny, a następnie zmodyfikować wartości pikseli każdej
kolumny w taki sposób, aby dopasować je do średniej z wartości pikseli dla całego obrazu
(Goetz i in., 2003). Matematycznie proces ten opisany jest następująco: niech ijkX oznacza
wartość piksela (DN) dla wiersza i , kolumny j , należących do kanału k . Jeżeli kµ i kσ są
średnią i odchyleniem standardowym kanału k , to obraz może być zostać poddany de-stripingowi
poprzez zamianę każdego wektora kolumny jkX za pomocą liniowej funkcji:
jkjkjkjk baXX +⋅=' (4.1)
Nowy wektor jkX ' posiada taką samą średnią i odchylenie standardowe dla kanału.
W powyższym wzorze jka stanowi wartość gain, natomiast jkb to wartość offset, zatem:
kjk µµ =' i kjk σσ ='
(4.2)
z pierwszego wzoru:
jkjkkjk ba +⋅= µµ ' (4.3)
jkjkjk a⋅= σσ ' (4.4)
Po podstawieniu
jkjkjkjk bau +⋅= µ (4.5)
jkjkjk a⋅= σσ (4.6)
Stąd:
jk
kjka
σσ
= (4.7)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
27
jkjk
kkjkb µ
σσµ ⋅−= (4.8)
Każdy kanał k może być poddany procedurze de-strippingu poprzez modyfikację wartości DN dla
n–tego piksela w każdej j-tej kolumnie według wzoru:
jkjk
kk
jk
kijkijk XX µ
σσµ
σσ
⋅−+⋅=' i = 1,2,…N (4.9)
gdzie:
N - liczba wierszy
3.1.2 Identyfikacja i usuwanie efektu smile
Spektrometry obrazujące typu pushbroom często są obarczone błędem wynikającym
z nierównomiernej radiancji w obrębie sceny, zwanym z ang. efektem smile lub smilingiem. Źródło
powstania efektu smile jest przypisywane optycznej technice dyspersji światła padającego na siatkę
detektorów w danym zakresie długości fali. W spektrometrach typu pushbroom
rozszczepienie światła na elementach detektorów, prowadzi do przestrzennego niedopasowania
długości fali ( Rys. 4), które nazywane jest widmowym „efektem uśmiechu” (z ang. smile effect)
(Datt i in., 2003). Tego typu błędna rejestracja spektralna jest przesunięciem długości fali w danym
zakresie spektrum i zależy od pozycji pikseli poprzecznych x (cross track) (Yokoya i in., 2010).
Efekt smile dla obrazu Hyperiona zidentyfikowany w pierwszym kanale MNF zaprezentowano na
rysunku ( Rys. 5).
Rys. 4. Powstawanie efektu smile (źródło: Yokoya i in., 2010).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
28
Rys. 5. Przykład obrazu z efektem smile (kanał 1MNF Hyperiona) oraz zależność jasności pikseli od ich pozycji (x) w wybranej lini
obrazu (opracowanie własne).
W optyce obrazowej efekt smile może być także rezultatem abberacji. Powstała „krzywizna
widmowa” (ang. spectral curvature) ma duży wpływ na uzyskiwanie właściwego współczynnika
odbicia dla obiektów. Ma to szczególnie znaczenie dla zakresów spektralnych narażonych na
wpływ występowania pików absorpcyjnych spowodowanych występowaniem gazów, które
wymagają bardzo dokładnej i efektywnej korekcji atmosferycznej. Większość popularnych metod
korekcji atmosferycznej wykorzystuje radiacyjny model transferu (RMT), dlatego ważne jest, aby
dane poddawane korekcji posiadały właściwie pozycje dla centrum zakresu spektralnego kanałów.
Z uwagi na fakt, że efekt smile może zafałszować prawdziwą pozycję piku absorpcyjnego,
przeprowadzona korekcja atmosferyczna może być niepoprawna, a uzyskany produkt klasyfikacji
tematycznej opartej na podejściu spektralnym jest błędny (Radon i in., 2010).
3.2 Korekcja atmosferyczna
W danych przetworzonych do postaci „at-sensor-radiance” występują zniekształcenia
przestrzenne i spektralne spowodowane wpływem topografii i atmosfery. Dane teledetekcyjne
zarejestrowane przez systemy lotnicze i satelitarne nie mogą być od razu porównywane z krzywymi
bibliotek spektralnych, ponieważ sygnał docierający do sensora zostaje zmieniony przez atmosferę.
Atmosfera oddziałuje z energią promieniowania słonecznego: padającego i odbitego. Dla niektórych
długości fal, to oddziaływanie powoduje redukcję ilości promieniowania docierającego i odbitego od
powierzchni Ziemi (Goetz i Boardman, 1997). Transmisja atmosfery jest ograniczona przez
absorpcję gazów i rozpraszanie (z ang. scaterring) spowodowane obecnością molekuł gazów
i cząstek. Zależność transmisji od długości fali przedstawia poniższy wykres ( Rys. 6). Wyraźne piki
absorpcyjne dla długości fali 1400 i 1900 nm spowodowane parą wodną (H2O) oraz dwutlenkiem
węgla (CO2), redukują ilość energii docierającej do powierzchni Ziemi prawie całkowicie. Wpływ
atmosfery ujawnia się także w postaci tzw. „ścieżki promieniowania” (z ang. path radiance). Jest to
zaburzenie spowodowane rozszczepieniem padającego światła w wyższych partiach atmosfery,
które jest dodawane do mierzonego promieniowania w zakresie fal widzialnych i bliskiej
X
Jasn
ość
pik
sela
(D
N)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
29
podczerwieni. Ograniczenie transmisji promieniowania elektromagnetycznego przez rozpraszanie
i pochłanianie go w atmosferze sprawia, że informacja o obiektach powierzchni Ziemi zostaje
zniekształcona (Richter, 2006). Efekt atmosfery może się różnicować pomiędzy obszarami
w obrębie jednej sceny. Jest to spowodowane różnymi warunkami atmosferycznymi lub
występowaniem znaczących różnic wysokości, powodujących zmianę toru promieniowania
(Farrand 1994; Goetz i Boardman 1997; van der Meer, 1994; Richter, 2006).
Ilościowe oznaczenie fizycznych i chemicznych właściwości powierzchni Ziemi wymaga
konwersji danych do fizycznych jednostek tak, aby wyniki analizy obrazu mogły być porównywane
z danymi spektrometrycznymi pomierzonymi in situ lub w laboratorium (Dwyer i in., 1995). Dlatego
rejestrowana przez sensor wartość promieniowania elektromagnetycznego (ang. radiance) musi
zostać znormalizowana w kolejnym kroku przetwarzania, jakim jest wyznaczenie wartości odbicia
spektralnego (reflectance) we wszystkich kanałach obrazu hiperspektralnego czy wielospektralnego
(Berk i in., 1989; Vermote i in., 1997; Ben-Dor i in., 2002; Goetz i in., 2002; Kruse, 2004). Wówczas
krzywe obrazowe mogą być porównywane z krzywymi z pomiarów terenowych lub laboratoryjnych
(Kruse, 1994).
Rys. 6. Wykres zależności transmisji atmosfery od długości fali dla typowych warunków atmosferycznych (źródło:
MicroImages, 2007 - zmieniony).
Ten etap przetwarzania wstępnego obrazów wymaga zastosowania zarówno kalibracji, jak
i korekcji atmosferycznej (Aspinall i in., 2002). Kalibracja polega na konwersji promieniowania na
względne lub bezwzględne wartości odbicia spektralnego. Natomiast korekcja atmosferyczna
dostosowuje otrzymane wartości odbicia dla każdego piksela i długości fali do odpowiednich
kombinacji długości ścieżki (path length) i składu atmosfery. Korekcja atmosferyczna może być
przeprowadzona w dwóch różnych podejściach opisanych poniżej: metodami względnymi lub
bezwzględnymi.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
30
3.2.1 Kalibracja metodami empirycznymi (wzgl ędnymi)
Metody względne korekcji atmosferycznej oparte są na statystycznym obliczeniu parametrów
wykorzystanych do korekcji. Parametry takie mogą być uzyskane bezpośrednio z obrazu
(wykorzystując np. metody Dark-Object-Subtraction Model (DOS) Chavez, 1988, 1996), Flat Field
Correction (FFC), Internal Average Relative Reflectance (IARR)) (Kruse 1988; Green i Craig, 1985)
lub ze spektrometrycznego pomiaru terenowego (np. metoda Empirical Line) (Conel i in., 1987).
Wadą tych metod jest brak uwzględnienia rzeczywistych warunków atmosfery, jakie panują
podczas rejestracji obrazu oraz dodatkowych czynników jak np. kierunek oświetlenia, topografia
powierzchni lub współczynnik dwukierunkowego odbicia (Bi-Directional Reflectance Factor - BDRF)
(Aspinall i in., 2002). Wszystkie wymienione metody nazywane są empirycznymi metodami korekcji
atmosferycznej. Schowengerdt (2007) określa je mianem technik normalizacji. Z uwagi na brak
wykorzystania parametrów i modeli atmosfery, dostarczają one jedynie względnych wyników
kalibracji w sposób empiryczny.
Jedną z częściej stosowanych metod względnych jest metoda Flat Field Correction (FFC),
normalizująca obraz do wartości obszaru o znanej wartości rzeczywistego współczynnika odbicia
spektralnego (np. woda lub teren odkryty) (Schowengerdt, 2007). W algorytmie należy wybrać
grupę pikseli, charakteryzującą się jednorodnym współczynnikiem odbicia. Dla zdefiniowanego
obszaru obliczana jest średnia z wartości DN pikseli w każdym z kanałów i tworzona jest
uśredniona krzywa spektralna dla tego obszaru. Następnie wszystkie DN pikseli we wszystkich
kanałach obrazu podawanego korekcji zostają podzielone przez uzyskaną średnią. Natomiast,
w metodzie IARR (Internal Average Relative Reflectance) dąży się do znormalizowania krzywych
spektralnych w stosunku do wartości średniej odpowiedzi spektralnej dla całego obrazu. Metoda
IARR polega na obliczeniu średniej ze wszystkich wartości jasności pikseli dla danego kanału
i podzieleniu jasności każdego piksela przez tą średnią (Kruse, 1988). Procedura normalizująca
wykonywana jest dla każdego kanału spektralnego. W ten sposób dla każdego piksela otrzymuje
się krzywą spektralną, o względnej wartości odbicia. Uzyskana krzywa może być porównywana do
krzywych z pomiarów spektrometrycznych. Przy stosowaniu metody IARR należy zwrócić uwagę,
na fakt czy spektrum otrzymane ze średniej dla całego obrazu nie posiada wyraźnych,
charakterystycznych pików absorpcyjnych, które wpływają na wynik normalizacji i utrudniają
porównywanie z krzywymi spektralnymi z pomiarów laboratoryjnych lub terenowych (Kruse, 1988).
Metodę IARR często stosuje się dla obrazów obszarów eksplorowanych tylko metodą
teledetekcyjną. Można ją, więc wykorzystywać do kalibracji obrazów, dla których nie zostały
wykonane pomiary terenowe. Najlepsze wyniki przy stosowaniu tej metody uzyskuje
się dla obszarów ze niewielkim pokryciem roślin lub obszarów niepokrytych roślinnością
(Aspinall i in., 2002).
3.2.1.1 Metoda Lini Empirycznej - Empirical Line
W metodzie Empirical Line do obliczenia właściwych parametrów korekcji niezbędny jest
odpowiedni zestaw krzywych spektralnych obrazowych oraz krzywych referencyjnych z pomiaru
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
31
terenowego (Conel i in., 1987). Powinny to być krzywe spektralne reprezentujące obszary
o maksymalnie dużej różnicy odpowiedzi spektralnej. Powinny to być obszary o skrajnych
wartościach zarejestrowanego promieniowania np. woda (minimalne wartości DN) i teren odkryty
(maksymalne wartości DN) ( Rys. 7).
Wartości promieniowania obiektów zarejestrowane na obrazie i wartości współczynnika odbicia
dla tych samych obiektów uzyskane z pomiaru in situ, umożliwiają przeliczenie wartości
promieniowania do wartości współczynnika odbicia λσ przy użyciu regresji liniowej wyrażonej
wzorem:
λλλλσ BLG +⋅= (4.10)
Na podstawie obiektów referencyjnych, dla których znane są wartości współczynnika odbicia
i mocy promieniowania, wyznacza się wartości „wzmocnienia sygnału” λG (z ang. gain) i „poziomu
tła” λB (z ang. offset) (RSI, 2003). Podobne parametry określane są także dla każdego z kanałów
spektralnych, przed rozpoczęciem pracy sensora. Nachylenie wykresu przedstawiającego
zależność między promieniowaniem i odbiciem ( Rys. 7), wyznacza wartość gain, na którą składa
się natężenie promieniowania słonecznego i promieniowania atmosfery (składowe solar irradiance
i path radiance) czyli wzmocnienie sygnału. Natomiast punkt przecięcia wykresu z osią rzędnych
określa poziom tła (offset), tzw. czynniki dodatkowe (ang. adjacency effect) czyli promieniowanie
wtórne odbite od sąsiednich obiektów. Jego wpływ na rejestrowaną wartość piksela jest niewielki,
ale powoduje przestrzenną autokorelację sygnału, zmniejszając np. kontrast obrazu.
Rys. 7. Parametry do konwersji promieniowania dla pojedynczego kanału przy użyciu znanej wartości odbicia
z pomiaru terenowego (opracowanie własne).
Uzyskane wartości gain i offset są wykorzystywane do konwersji promieniowania (radiance)
każdego kanału do właściwej wartości odbicia. Uzyskane wartości odbicia są najbardziej zbliżone
do krzywych spektralnych mierzonych w terenie lub laboratorium. Opisana metoda Empirical Line
nachylenie=gain
Odbicie
jasne piksele
ciemne piksele
punkt przecięcia=offset
Pro
mie
niow
anie
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
32
jako jedyna z wymienionych metod empirycznych uwzględnia wartość ścieżki promieniowania
(view path radiance). Natomiast wadą algorytmu jest brak uwzględnienia wpływu topografii terenu.
3.2.2 Korekcja metodami bezwzgl ędnymi
Druga grupa stosowanych algorytmów do korekcji atmosferycznej to metody bezwzględne,
które pozwalają na zamianę wartości pikseli obrazu (DN) na współczynniki odbicia, na podstawie
oszacowania wpływu atmosfery. Do metod bezwzględnych należą: ATCOR (Richter 1996, 1997,
2004), Atmospheric REMoval program (ATREM) (Gao i Goetz, 1990; Gao i in., 1993), Atmospheric
CORrection Now (ACORN) (Green, 2001; AIG, 2007), Fast Line-of-sight Atmospheric Analysis of
Spectral Hypercubes (FLAASH) (Adler-Golden i in., 1999), High Accuracy Atmospheric Correction
for Hyperspectral data (HATCH) (Qu i in., 2003). Wymienione algorytmy wykorzystują fizyczną
charakterystykę rzeczywistych warunków atmosfery (Adler-Golden, 1999; Kruse, 2004) oraz
zaawansowane modele transferu radiacyjnego takie jak: LOWTRAN, MODTRAN (Berk i in., 1989;
Anderson i in., 2000) i 6S (Second Simulation of the Satellite Signal in the Solar Spectrum)
(Vermote i in., 1997). Przy czym możliwe jest zastosowanie standardowych modeli rodzajów
atmosfery albo obliczenie promieniowania rozproszonego w atmosferze na podstawie konkretnej
zarejestrowanej sceny satelitarnej. Modele transferu radiacyjnego pozwalają na obliczanie
transmitancji atmosfery i radiacji energetycznej (Berk i in., 1989). Na ich podstawie w procesie
korekcji obrazów uzyskuje się składowe bilansu radiacyjnego układu „Ziemia-atmosfera”. Każdy
model atmosfery zawiera zestaw profili definiujących ciśnienie, temperaturę, gęstość powietrza,
parę wodną, ozon jako charakterystyki reprezentujące sezonowe warunki dla poszczególnych
regionów geograficznych (Griffin i Burke, 2003). Zawartości gazów i pionowe profile
parametrów meteorologicznych umożliwiają określenie składowych bilansu promieniowania
w układzie „Ziemia - atmosfera”, co pozwala obliczyć parametry charakteryzujące średni stan
atmosfery.
Algorytm FLAASH The Fast Line-of-sight Atmospheric Analysis of Spectral Hypercubes
rozwijan m.in. przez AFRL/VS (Air Force Research Laborator, służy do korekcji danych
z obrazujących sensorów hiperspektralnych i wielospektralnych. FLAASH wykorzystuje model
transferu radiacyjnego MODTRAN4. Głównym zadaniem algorytmu jest wyeliminowanie efektów
zakłóceń atmosfery spowodowanych przez jej molekuły i cząstki rozpraszające, w trakcie rejestracji
promieniowania przez detektory sensora (radiance-at-detector). W wyniku korekcji uzyskiwane są
rzeczywiste wartości odbicia spektralnego od powierzchni rejestrowanych obiektów (z ang.
reflectance-at-surface).
Algorytm FLAASH używa standardowego równania (4.11) do obliczania luminancji
energetycznej spektralnej L*, zarejestrowanej przez każdy piksel obrazowy w zakresie
promieniowania słonecznego (za wyjątkiem emisji termalnej) z płaskiej powierzchni Lamberta,:
**
11 ae
e
e
LS
B
S
AL +
⋅−+
⋅−⋅=
ρρ
ρρ
(4.11)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
33
gdzie:
ρ - odbicie dla danego piksela
eρ - średnie odbicie dla danego piksela i jego otoczenia
S – sferyczne albedo atmosfery *aL – luminacja energetyczna promieniowania (radiance) odbitego od atmosfery
A, B – współczynniki zależne od warunków atmosferyczno-geometrycznych
Każda z tych zmiennych zależy od kanału spektralnego. Pierwszy człon równania odnosi się
do radiacji, która zostaje odbita od powierzchni terenu i dociera bezpośrednio do sensora.
Drugi człon równania odnosi się do radiacji powierzchni, która dociera do sensora po
odbiciu i rozproszeniu w atmosferze tzw. czynniki dodatkowe (z ang. adjacency effect)
(Matthew i in., 2003). W większości aplikacji do korekcji atmosferycznej np. ACORN, HATCH,
ATREM) używane jest uproszczone równanie, gdzie zmienne ρ i eρ są zastąpione jedną,
zaniedbując w ten sposób wpływ czynników dodatkowych na wynikową wartość radiancji.
Uproszczenie to jest korzystne dla obszarów jednolitych, gdzie występują bardzo dobre warunki
widoczności. Jednakże, w przypadku występowania warunków zachmurzenia lub mgły takie
uproszczenie może spowodować niepoprawny wynik korekcji. W przypadku algorytmu FLAASH,
użytkownik decyduje czy czynniki otoczenia mają być uwzględnione w podczas korekcji. Na
rysunku poniżej ( Rys. 8) przedstawiono przykład poprawnej korekcji danych z sensora DAIS,
przeprowadzony za pomocą algorytmu FLAASH, przy uwzględnieniu wpływu czynników
dodatkowych (Głowienka, 2007).
Rys. 8. Obraz DAISa dla obszaru Machowa a) przed i b) po wykonaniu procesu przetwarzania wstępnego (korekcja
atmosferyczna za pomocą algorytmu FLAASH, usunięcie zakłóceń radiometrycznych) (Głowienka, 2007).
W literaturze opisane zostały przykłady zastosowania metod korekcji zarówno empirycznych,
jak i zaawansowanych modeli atmosfery. Są one wykorzystywane w transformacji wartości
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
34
promieniowania do wartości odbicia/emisyjności (Bateson i in., 2000; Aspinall i in., 2002; Kruse i in.,
2002; Hejmanowska i Głowienka, 2004; Głowienka, 2008 a,b; van Wagtendok i in., 2004; Sommer
i Somer, 2004; Sobczak i in., 2005) oraz do porównania rezultatów korekcji przeprowadzonych za
ich pomocą. Ciekawe wyniki otrzymał Kruse (Kruse, 2004) dokonując porównania krzywych
pomierzonych spektrometrem ASD, do krzywych obrazowych AVIRIS’a po korekcji algorytmami:
ATREM, ACORN, FLAASH. Pomimo, że każdy z algorytmów wykorzystuje inny model transferu
radiacyjnego oraz różne procedury obliczenia stanu atmosfery, uzyskane rezultaty korekcji były
bardzo zbliżone. Skorygowane krzywe obrazowe różniły się od krzywych terenowych mniej niż
o 5%. Podobne wyniki osiągnął Griffin (Griffin i Burke, 2003). Potwierdza to precyzyjne działanie
metod uwzględniających w swoich procedurach radiacyjny model atmosfery. Porównanie
stosowanych metod korekcji przeprowadzili miedzy innymi (Rast i in., 1991; Van der Meer, 1994).
Dwyer (Dwyer i in., 1995) wykorzystał do korekcji obrazu AVIRIS przeznaczonego do badania
składu mineralogicznego, dwie różne techniki: empiryczną (EL) i opartą na modelu radiacyjnym
(ATREM). Przy czym lepsze wyniki korekcji uzyskał dla metody ATREM. Podobne porównanie, ale
dla danych z sensora DAIS przeprowadził Ben-Dor (Ben-Dor i in., 2002), analizując rezultaty
korekcji wykonanej za pomocą metod zarówno empirycznych, jak i tych opartych na
zaawansowanych modelach atmosfery. Znamienne jest jednak to, że najlepsze wyniki uzyskał dla
metody Empirical Line, wykorzystującej w procesie korekcji współczynniki obliczone na podstawie
regresji liniowej, uwzględniającej krzywe obrazowe i krzywe z pomiaru terenowego.
3.3 Redukcja nadwymiarowo ści danych
W literaturze światowej można wyodrębnić grupę artykułów, które dotyczą bardzo ważnego
problemu, jakim jest redukcja nadwymiarowości danych teledetekcyjnych, a ściślej danych
hiperspektralnych (Siedlecki i Sklansky, 1988; Fukunaga, 1990; Bruzzone i Serpico, 2000; Bajcsy
i Groves, 2004; Serpico i Moser, 2007; Zhang i in., 2007). W większości przypadków głównym
celem wykorzystania danych hiperspektralnych jest klasyfikacja obiektów lub ich rozróżnianie.
Można byłoby przypuszczać, iż zwiększenie liczby kanałów prowadzi do zwiększenia dokładności
zarówno klasyfikacji, jak i samej identyfikacji obiektów. Trzeba jednak zadać pytanie czy wszystkie
te dziesiątki, a nawet setki kanałów są niezbędne dla konkretnych zastosowań, jeżeli w procedurze
klasyfikacji wystarczy dokonać prawidłowego wyboru odpowiedniego zestawu kanałów dla
uzyskania właściwego wyniku. Należy rozpatrzyć dwa aspekty. Po pierwsze, w klasyfikacji
nadzorowanej podstawowym warunkiem jest odpowiednia liczba pikseli wzorcowych, która nie
może być mniejsza od liczby kanałów wykorzystywanych do klasyfikacji (efekt Hughes’a)
(Hughes, 1968; Jimenez i Landgrebe, 1998). W przypadku danych hiperspektralnych mamy do
czynienia z tzw. „przekleństwem wymiarowości” (Kempeneers, 2007). Większa liczba kanałów
wymusza zwiększenie liczby pikseli wzorcowych/kontrolnych, co dla danych hiperspektralnych
może stanowić ogromny problem. Po drugie, istotnym problemem jest bardzo duża korelacja, jaka
występuje dla sąsiednich kanałów obrazów hiperspektralnych. Tak, więc zwiększenie rozdzielczości
spektralnej i zasięgu spektralnego niekoniecznie jest tożsame ze wzrostem informacji spektralnej
i poprawą jakości klasyfikacji. Po trzecie, należy również wspomnieć o szumach i zakłóceniach,
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
35
zawartych w danych hiperspektralnych. Kudo (Kudo i Sklansky, 1999) nazywa je „śmieciowymi
danymi”, powodującymi obniżenie dokładności klasyfikacji, a tym samym „zafałszowanie” wyników
analiz.
Wszystkie wymienione aspekty wskazują, że zbyt duża wymiarowość danych zamiast
zwiększać potencjał informacji dostarczanej przez obrazy hiperspektralne, może utrudniać ich
analizę, a w pewnych wypadkach wręcz uniemożliwiać zastosowanie niektórych metod
(np. tradycyjne metody klasyfikacji). Zwłaszcza pierwszy aspekt, może sugerować, iż zupełnie
wystarczające dla większości zastosowań są dane multispektalne. Jest to niewątpliwie mylne
podejście, ponieważ jak do tej pory, sensory wielospektralne nie dostarczają danych o parametrach
dokładnościowych, uzyskiwanych przy użyciu danych hiperspektralnych. W rzeczywistości, tylko
poprawna i oparta na właściwych zasadach redukcja i selekcja kanałów obrazów
hiperspektralnych może sprostać zadaniu poprawnego przygotowania zestawu danych do analizy
(De Backer i in., 2005).
Według (Serpico i Moser, 2007) redukcję nadwymiarowości danych (z ang. feature reduction)
można realizować dwoma drogami. Pierwsza z nich to wybór odpowiedniego zestawu kanałów ze
zbioru kanałów oryginalnych. Redukcja wymiarowości danych realizowana jest przez algorytmy
selekcji kanałów (z ang. feature selection). Drugim podejściem jest wykorzystanie technik
transformacji liniowej lub nieliniowej, które przekształcają dane wejściowe dostarczając nowego
zestawu kanałów o zmniejszonym wymiarze, gdzie właściwości spektralne ulegają zmianie.
Algorytmy te zaliczają się do metod ekstrakcji kanałów (feature extraction).
3.3.1 Selekcja danych
Techniki selekcji kanałów (feature selection) obejmują zarówno algorytmy wyszukiwania
(z ang. exhaustive search), jak i funkcję kryterium (funkcja celu) (Bruzzone i in., 1995). Algorytmy
wyszukiwania generują możliwe „rozwiązania” dla selekcji (określonego zestawu kanałów),
natomiast funkcja kryterium jest miarą efektywności każdego otrzymanego „rozwiązania” i służy do
porównywania rezultatów selekcji (Serpico i Moser, 2007). Według Kudo (Kudo i Sklansky, 1999)
selekcja danych ma trzy podstawowe cele: redukcję liczebności kanałów, poprawę dokładności
klasyfikacji oraz podniesienie wydajności.
Z punktu widzenia sprawności i szybkości przetwarzania, szczegółowe
wyszukiwanie najlepszego z możliwych rozwiązań okazuje się bardzo trudne i nieekonomiczne
(Jain i Zongker, 1997, Zhang i in., 2007). Jedną z metod tego typu jest metoda „Branch-and-Bound”
(Narendra i Fukunaga, 1977; Yu i Yuan, 1993), która wykorzystywana jest do selekcjonowania
optymalnego zbioru danych, w sposób kompleksowy. Metoda ta wymaga jednak dodatkowych
założeń dla funkcji kryterium (Pudil, 2002). W literaturze można znaleźć przykłady zastosowania
metod znacznie wydajniejszych i dostarczających lepszych rezultatów, których zasada działania
oparta jest na mniej skomplikowanych regułach obliczeniowych niż szczegółowe przeszukiwanie
(Bruzzone i Serpico, 2000). Najczęściej wykorzystywane i najprostsze, jeżeli chodzi o procedurę
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
36
przeszukiwania odpowiedniego zestawu danych, uznawane są metody Sequential Forward
Selection (SFS) i Sequential Backward Selection (SBF) (Jain i Zongker, 1997; Pudil i in., 1994 a).
W przypadku SFS dobór kanałów rozpoczyna się od pustego zbioru i poprzez iteracyjne dodawanie
kolejnych kanałów uzyskuje się pożądany zestaw z założoną liczbą kanałów (Wang i in., 2011).
W metodzie SBF kolejne kanały są odejmowane od pełnego zestawu danych, aż do momentu
uzyskania oczekiwanego rezultatu. Pozostałe prezentowane w literaturze światowej techniki
selekcji danych oparte są na różnorodnych założeniach i teoriach takich jak np. sieci neuronowe
(Kavzoglu i Mather, 2000; Verikas i Bacauskiene, 2002), algorytmy przeszukiwania
grafu (Ichnio i Sklansky, 1984) symulowane wyżarzanie (z ang. simulated annealing)
(Kirkpatrick i in., 1983; Siedlecki i Sklansky, 1988; 1989), obliczanie miar odległości
spektralnych (Bruzzone i in., 1995; Ifarraguerri i Prairie, 2004; Wang i in., 2011), autokorelacja
przestrzenna i dzielenie międzykanałowe (Warner i in., 1999), modele finie mixture (Pudil i in.,
1994b; Law i in., 2004), parametryczne wagowanie danych (Huang i He, 2005), pomiar
podobieństwa danych (Du i Yang, 2008; Yuanlei i in., 2010) i wiele innych.
Na szczególną uwagę zasługują prace związane z algorytmami genetycznymi (Siedlecki
i Sklansky, 1989; Goldberg i Deb, 1991; Raymer i in., 2000; Yu i in., 2002; Li i in., 2011), które
wykorzystują analogię do teorii naturalnej selekcji. W algorytmie genetycznym zestaw danych jest
reprezentowany jako „chromosom” w formie łańcucha znaków (0, 1), którego długość jest równa
liczbie kanałów. Bit o wartości „0” oznacza kanał odrzucony, natomiast bit równy „1” to kanał
wybrany. Podczas każdej iteracji za pomocą specjalnych operatorów genetycznych takich jak
mutacja czy skrzyżowanie (crossover) generowane są możliwe rozwiązania – odpowiednie zestawy
wybranych kanałów (Bruzzone i Serpico, 2000). Ciekawe rozwiązanie przedstawiono także
w badaniach zespołu Zhuo (Zhuo i in., 2008), w których zaproponowano aplikację opartą na
algorytmie genetycznym, umożliwiającą klasyfikację etapową. Aplikacja współdziała z metodą SVM
(Support Vector Machine), optymalizując odpowiedni wybór kanałów i parametrów, co znacznie
podnosi dokładność klasyfikacji.
Równie ciekawe rozwiązania metodyczne zostały zaproponowane przez autorów, którzy
w zastosowanych algorytmach naśladują naturalne mechanizmy, jak np. system immunologiczny -
Artificial Immune System (Zhang i in., 2007; Su L. i in., 2008) czy sposób zachowania się roju
pszczół DPSO (Discrete Particle Swarm Optimization) (Xiaogang i Yonghong, 2008). Pierwszy
z nich wykorzystano jako nową metodę redukcji nadwymiarowości danych hiperspektralnych
o nazwie Hyperspectral Dimensional Reduction Model (HDRM) (Su L. i in., 2008), natomiast drugi
służy do kompresji danych. Wśród publikacji przedstawiających metodykę wyboru kanałów do
analizy można wyróżnić również artykuł zespołu z Chin (Su H. i in., 2008), w którym
zaprezentowano algorytm OBI (Optimal Band Index) oparty na wymiarze fraktalnym. W tym
algorytmie wymiar fraktalny charakteryzuje jakość obrazu i wyznacza jego indeks wagowy. Stanowi
to kryterium podziału kanałów na kanały zawierające szum i kanały o lepszej strukturze
przestrzennej, lepszej jakości i cechach spektralnych. Najlepszy kanał zostaje wybrany po
obliczeniu kowariancji i współczynnika korelacji pomiędzy wszystkimi kanałami i obliczeniu
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
37
optymalnego indeksu kanału (OBI). W wyniku porównania z innymi algorytmami selekcji autorzy
uzyskali najlepsze rezultaty dla metody OBI. Na analizie fraktalnej oparte są również metody
redukcji danych, gdzie zastosowano kombinację informacji spektralnej oraz informacji o teksturze
przestrzennej (Junying i Ning, 2008). Zdaniem autorów, takie podejście znacznie ułatwia
przygotowanie odpowiedniego zestawu danych do analizy pikseli mieszanych. Zespół Majaradi
(Mojaradi i in., 2008) zaproponował natomiast metodę selekcji danych opartą na przestrzeni
prototypowej Prototype Space Band Selection (PSBS). Przestrzeń ta pozwala na analizę
wszystkich kanałów na podstawie ich podobieństwa i fizycznych właściwości z uwzględnieniem
wszystkich klas, które biorą udział w klasyfikacji.
Selekcja danych nie może być przeprowadzana bezkrytycznie. Stosowane metody muszą być
opracowywane tak, aby przynosiły korzyści dla uzyskanego zestawu danych, który należy
rygorystycznie ocenić pod względem jakości. Narzędziem używanym do szacowania efektywności
danego zestawu może być jeden z etapów klasyfikacji, a mianowicie matematyczne wyznaczenie
rozdzielności/rozłączności (dywergencja) klas. Algorytm ten stosuje się w celu sprawdzenia czy
zmienia się rozłączność klas po redukcji określonego zestawu danych. Jeżeli rozłączność nie ulega
znacznej zmianie, wówczas badany zestaw danych ze względu na małą wartość informacyjną
może być usunięty (Richards i Jia, 2006). Najczęściej wykorzystywane metody obliczania
rozłączności to: odległość Mahalanobisa (Mahalanobis distance), odległość Bhattacharyyja
(Bhattacharyyja distance), odległość Jeffries–Matusita (Jeffries–Matusita distance), transformowana
dywergencja (transformed divergence). Wymienione miary umożliwiają obliczenie
znormalizowanych odległości pomiędzy wektorami średnimi uzyskanymi dla każdej klasy.
Podstawą do ich obliczenia jest macierz kowariancji (lub macierz korelacji) oraz wartości średnie
z pikseli pól treningowych.
3.3.2 Redukcja danych oparta na transformacji
Duża część użytkowników zajmujących się analizą danych hiperspektralnych w celu uzyskania
zestawu kanałów zawierającego największy ładunek informacji, wykorzystuje drugą grupę metod
zmniejszenia nadwymiarowości danych, a mianowicie algorytmy transformacji danych (feature
extraction). Głównym ich zadaniem jest redukcja nadwymiarowości poprzez odwzorowanie danych
hiperspektralnych do przestrzeni o mniejszym wymiarze niż przestrzeń wejściowa (Serpico i Moser,
2007). Chodzi, więc głównie o odnalezienie właściwego algorytmu transformacji liniowej lub
nieliniowej, która zmniejszy wymiarowość danych, zachowując jednocześnie najistotniejszą
informację transformowanych danych (Zhang i in., 2007). Algorytmy te podobnie jak w przypadku
metod klasyfikacji dzielimy na nadzorowane i nienadzorowane.
Zasada działania metod nadzorowanych oparta jest na informacji zebranej w celu klasyfikacji
obrazu hiperspektralnego (pola treningowe/kontrolne). Na podstawie tej informacji przygotowywany
jest wewnętrzny model prognozowania. Do metod nadzorowanych zaliczamy
np: Regression (Gill i in., 1991), Regression Tree (Joelsson i in., 2005), Linear Discriminant
Analysis (Wennzhi i in., 2011), Discriminant Analysis Feature Extraction (DAFE) (Fukunaga, 1990).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
38
Metody nadzorowane można podzielić ze względu na zdefiniowane kryteria na dwie grupy.
Pierwsza grupa metod nadzorowanych wykorzystuje podejście z zastosowaniem filtrów. Metody
filtrowania działają niezależnie od wybranego klasyfikatora, a więc zbędna informacja jest pominięta
jeszcze przed rozpoczęciem procedury klasyfikacji (Richards i Jia, 2006). Druga kategoria technik
nadzorowanych zwana „funkcjami opakowującymi” (ang. wapper approach) polega na optymalizacji
dokładności klasyfikacji dla konkretnie wybranego klasyfikatora, poprzez odpowiedni wybór
zestawu kanałów do analizy (Mojaradi i in., 2008). Przykładem takiego algorytmu jest „feature
shaving” (Verzakov i in., 2004)
Metody nienadzorowane porządkują kanały danych hiperspektralnych na podstawie ogólnych
procedur przetwarzania danych cyfrowych (obliczanie pierwszej i drugiej pochodnej, analiza
głównych składowych, analiza korelacji) nie wykorzystując w tym celu żadnych informacji
dodatkowych w postaci danych treningowych (Ifarraguerri i Chang, 2000; Serpico i Moser, 2007;
Hossain i in., 2011). Kanały są porządkowane w sposób rosnący, pod względem zawartości
informacji spektralnej. Metody nienadzorowane są zwykle bardzo wydajne, jeśli chodzi o czas
przetwarzania i efektywność. Do ich przeprowadzenia nie jest w ogóle wymagane lub jest
wymagane w bardzo niewielkim zakresie wstępne przetwarzania danych hiperspektralnych (Bajcsy
i Groves, 2004). Do nienadzorowanych technik redukcji kanałów zaliczamy: Principial Component
Analysis (PCA)(Farrell i Mersereau, 2005; Fauvel i in., 2009), Minimum Noise Fraction (MNF)
(Green i in., 1988; Dadon i in., 2010), Information Entropy (Russ, 1999), First Spectral Derivative,
Second Spectral Derivative (Price, 1994; Demir i Erturk, 2008), Principial Component Analysis
Ranking (PCAr) (Bajcsy i Groves, 2004), Independent Component Analysis (Comon, 1994; Wang
i Chang, 2006).
3.3.2.1 Analiza głównych składowych - PCA ( Principial Components Analysis )
Metoda PCA (Principial Components Analysis) umożliwia zmniejszenie ilości analizowanych
danych poprzez poddanie ich transformacji liniowej do nowego układu współrzędnych, w wyniku
której powstają nowe zmienne niezależne zwane składowymi głównymi (ang. principal
components). Działanie procedury PCA można przedstawić na przykładzie 2 kanałów (A i B)
(Adamczyk i Będkowski, 2005). Wartości jasności w poszczególnych kanałach wyznaczają osie
układu prostokątnego (wartości 0−255) ( Rys. 9). Wartości jasności pikseli obrazu w poszczególnych
kanałach reprezentowane są przez punkty w układzie i rozmieszczone są na obszarze o kształcie
zbliżonym do elipsy. Na podstawie takiej „chmury punktów”, dla każdego z kanałów można
wyznaczyć pewien zakres zmienności wartości pikseli ∆A i ∆B. Wzdłuż elipsy można zatem
poprowadzić oś składowej PCA1 (wektor własny - z ang. eigenvalue), która wyznaczy większą
zmienność 'A∆ taką, że:
AA ∆>∆ ' (4.12)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
39
Rys. 9. Zasada działania metody PCA ( źródło: Adamczyk i Będkowski, 2005 - zmieniony).
Osie składowych głównych dobierane są w analizie wariancyjno−kowariacyjnej w taki sposób,
aby wyznaczały kierunki o największej zmienności wartości pikseli (maksymalna wariancja) i stały
się układem współrzędnych, względem którego wyznaczane są nowe wartości wszystkich pikseli
przetwarzanego obrazu. Transformacja liniowa realizowana jest przez wyznaczenie
współczynników a, b, c, d dla równań:
211 xbxaP ++⋅= (4.13)
212 xdxcP ++⋅=
gdzie:
x1, x2 - wartości pikseli w układzie pierwotnym P1, P2 - wartości pikseli w układzie składowych głównych (Adamczyk i Będkowski, 2005).
Pierwsza składowa główna charakteryzuje się największą wartością wariancji (posiada
maksymalna informację spektralną) tzw. wartość własną. Druga składowa zawiera pomniejszoną
w stosunku do pierwszej pojemność informacyjną, a jej oś jest prostopadła do osi pierwszej
składowej. Kolejne składowe charakteryzują się coraz mniejszą wariancją związaną z brakiem
informacji oraz przewagą zakłóceń i szumów występujących w obrazach. Zdecydowana większość
informacji (w zależności od przetwarzanego obrazu 90 - 99%) zawarta jest w kilku pierwszych
składowych głównych. Zatem, w efekcie powstaje nowy zbiór danych, którego możliwie mały
podzbiór jest w stanie dostatecznie dokładnie odzwierciedlić zmienność występującą w oryginalnym
zbiorze danych. Metoda PCA jest także jedną z metod kompresji danych (Richards, 1993).
PCA1 PCA2
P2
P1
X1
X2
Jasność pikseli – kanał 1
Jasn
ość
piks
eli -
kan
ał 2
∆’1
∆2
∆1
∆’2
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
40
3.3.2.2 Metoda minimalnego szumu - MNF ( Minimum Noise Fraction )
Metoda Minimum Noise Fraction (MNF) jest również wykorzystywana do analizy wzajemnej
korelacji obrazów oraz usuwania zakłóceń i szumów, co jest szczególnie istotne, kiedy
przedmiotem badań są dziesiątki, czy setki kanałów. Jako wynik otrzymuje się składowe
uszeregowane rosnąco, jeżeli chodzi o zawartość szumów – wraz ze wzrostem numeru kanału
MNF rośnie także zawartość szumu (Green i in., 1988, Boardman i Kruse, 1994). Metoda ta
umożliwia identyfikację szumów, a następnie klasyfikację kanałów ze względu na ich przydatność
do dalszego przetwarzania: począwszy od obrazów zawierających najwięcej informacji spektralnej
do obrazów silnie zakłóconych przez szumy. Po transformacji MNF uzyskuje się kilka kanałów,
tzw. czystych, nieskorelowanych ze sobą i pozostałe kanały, zawierające główne zakłócenia. W ten
sposób dane wejściowe ulegają kompresji, a kanały o niskim stosunku sygnału do szumu, mało
przydatne np. w metodach klasyfikacyjnych zostają wyeliminowane. Poniżej przedstawiono metodę
MNF w ujęciu matematycznym (Chang, 2013)
Współczynnik szumu (NF−Noise Fraction) l-tego kanału wektora obrazu lb można obliczyć ze
stosunku wariancji szumu2
lnσ w l−tym kanale obrazu do całkowitej wariancji sygnału2lbσ w l−tym
kanale obrazu z wzoru:
2
2
l
l
b
nlNF
σσ
= (4.14)
gdzie:
21
2 )(1
lilNib r
Nlµσ −= ∑ = (4.15)
∑ == Ni ill r
N 1
1µ (4.16)
Przyjmując następujące założenia (Chang, 2013):
1) { }Niir 1= jest zestawem wektorów pikseli całego obrazu hiperspektralnego o wymiarach
N = nrnc, gdzie nr i nc oznaczają odpowiednio liczbę wierszy i kolumn obrazu.
2) wektor każdego piksela obrazu jest reprezentowany przez L-wymiarowy wektor
TiNiii rrrr ),....,( 21= (4.17)
3) l−ty kanał obrazu może być reprezentowany przez n - wymiarowy wektor
TlNlll rrrb ),....,( 21= (4.18)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
41
4) model obserwacji
lll nsb += (4.19)
gdzie:
lb - wektor obserwacji
ls - N−wymiarowy wektor sygnału
ln - N−wymiarowy wektor nieskorelowany z ls
3.4 Analiza danych metodami klasycznymi
Techniki ekstrakcji tematycznej z obrazów wielospektralnych mają na celu wydobycie
pożądanej porcji informacji w wyniku równoczesnej analizy wszystkich kanałów składających się na
obraz teledetekcyjny. Do takich technik zaliczana jest klasyfikacja treści obrazów teledetekcyjnych.
Klasyfikacja jest to procedura ilościowej analizy obrazów, której celem jest uzyskanie w sposób
automatyczny, cyfrowych map tematycznych np. map pokrycia terenu, użytkowania ziemi, stanu
i zmian środowiska przyrodniczego (Mularz S., 2004). Wyróżniamy dwa główne rodzaje klasyfikacji:
nadzorowaną i nienadzorowaną. Metody zarówno klasyfikacji nadzorowanej, jak
i nienadzworowanej oparte są na statystycznej analizie wartości jasności pikseli tworzących obraz
w poszczególnych kanałach spektralnych. Zasadniczą różnicą pomiędzy tymi technikami jest
sposób przyporządkowania pikseli obrazu do odpowiednich klas. Wyniki obydwu procedur należy
zweryfikować na podstawie istniejących danych kartograficznych, ortofotomap lub wizji terenowej.
3.4.1 Metody nienadzorowane
W klasyfikacji nienadzorowanej system komputerowy grupuje piksele na podstawie ich
podobieństwa spektralnego, w tzw., klastry, które mogą służyć jako wstępna ocena materiałów.
Wspólną cechą algorytmów klasyfikacji nienadzorowanej jest iteracyjny sposób obliczeń, którego
celem jest zdefiniowanie grup pikseli tworzących klastry, będące odpowiednikami pól treningowych.
Obliczenia wykonywane są w n−wymiarowej przestrzeni spektralnej. Do najpopularniejszych metod
klasyfikacji nienadzorowanej należą:
• Metoda ISODATA (Interactive Self-Organising Data Analysis Technique) – jest to metoda
iteracyjna. W wyniku pierwszej iteracji, piksele (tzw. centra klas) reprezentujące klasy
obiektów zostają równomiernie rozmieszczone w przestrzeni odpowiedzi spektralnej.
Granice powstałych stref są definiowane jako linie biegnące prostopadle do linii łączącej
centra klas. Dla każdej klasy liczone są wartości średnie oraz odchylenie standardowe,
a następnie obliczana jest odległość każdego piksela od środka klasy. W kolejnych
iteracjach następuje zmiana podziału przestrzeni odpowiedzi spektralnych, a tym samym
zmiana położenia centrów klas. Iteracje są powtarzane do momentu osiągnięcia
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
42
założonego rezultatu lub jeśli przeprowadzona została określona przez użytkownika liczba
iteracji (Adamczyk i Będkowski, 2005).
• Metoda K−means – w metodzie tej oblicza się średnie w klasach równomiernie
rozmieszczonych w przestrzeni spektralnej, a następnie przyporządkowuje się piksele do
najbliższych klas według najmniejszej odległości. W każdej kolejnej iteracji obliczana jest
nowa średnia, a piksele są reklasyfikowane według nowych wartości średnich dla danej
klasy. Procedura powtarzana jest, do momentu, gdy nie występują znaczące zmiany
w położeniu środków klas lub gdy przeprowadzona została zadana przez użytkownika ilość
iteracji (Tou i Gonzalez, 1974)
3.4.2 Metody nadzorowane
W procesie klasyfikacji nadzorowanej użytkownik określa liczbę i charakterystykę spektralną
poszukiwanych klas, tworząc tzw. pola treningowe. Definiowanie wzorców polega na wybraniu
odpowiednich grup pikseli na podstawie analizy dostępnych materiałów np. zdjęć lotniczych, map
topograficznych, kompozycji barwnych obrazów satelitarnych lub wywiadu terenowego. Po
zdefiniowaniu pól treningowych obliczane są sygnatury klas, czyli zestaw parametrów
statystycznych, których rodzaj i liczba zależy od metody klasyfikacji. Dla prostych metod obliczane
są: średnia, minimalna i maksymalna odpowiedź spektralna dla poszczególnych kanałów. Dla
bardziej skomplikowanych: wektory główne klas oraz wariancje i kowariancje pomiędzy wybranymi
kanałami obrazu wielospektralnego (Lewiński, 2007).
Do metod klasyfikacji nadzorowanej zaliczane są klasyfikatory (Richards, 1999):
• Metoda najmniejszej odległo ści (Minimum Distance) – technika klasyfikacyjna, w której
obliczane są średnie wartości jasności pikseli dla poszczególnych wzorców. Następnie
w przestrzeni Euklidesowej sprawdzana jest odległość badanego piksela do średniej danej
klasy. Piksel zostaje zaklasyfikowany do klasy, dla której ta odległość jest najmniejsza.
Metoda jest często stosowana ze względu na prosty algorytm i stosunkowo dobre wyniki.
• Metoda odległo ści Mahalanobisa (Mahalanobis Distance) – algorytm klasyfikacyjny jest
podobny do algorytmu stosowanego w metodzie najmniejszej odległości, z różnicą
polegającą na wykorzystaniu w obliczeniach macierzy kowariancji pikseli dla
poszczególnych klas. W metodzie zakłada się, że rozkłady pikseli są zbliżone do rozkładu
normalnego.
• Metoda najwi ększego prawdopodobie ństwa (Maximum Likelihood) - metoda oparta na
obliczeniu prawdopodobieństwa przynależności każdego piksela do określonej klasy. Piksel
zostaje przyporządkowany do klasy, dla której prawdopodobieństwo przynależenia jest
największe. W metodzie zakłada się, że statystyki wzorców, używane do obliczenia
wartości prawdopodobieństwa przynależności do danej klasy, mają rozkład normalny.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
43
Metoda dostarcza najdokładniejszych wyników spośród wymienionych metod i jest
najbardziej wymagająca obliczeniowo.
Obrazy wielospektralne często są analizowane przy użyciu wymienionych statystycznych
klasyfikatorów mulitiwariacyjnych, które traktują każdy kanał obrazu multispektralnego, jako serie
zmiennych niezależnych. Te standardowe metody klasyfikacji obrazowej mogą być również
wykorzystane dla obrazów hiperspektralnych. Jednakże klasyfikacja tymi metodami danych
o wysokiej rozdzielczości spektralnej często zawodzi, gdyż nie wykorzystuje w pełni głównej zalety
tego rodzaju danych, jaką jest gęsto próbkowane spektrum dla każdego piksela. Dlatego też dane
dostarczane przez skalibrowane obrazy hiperspektralne powinny być klasyfikowane za pomocą
metod wykorzystujących pomierzone dla poszczególnych obiektów krzywe terenowe lub
laboratoryjne (Aspinall i in., 2002).
Dokładność klasyfikacji metodami tradycyjnymi w głównej mierze zależy od poprawnego
wyboru pól treningowych. Ze statystycznego punktu widzenia oznacza to, że w celu właściwego
wyznaczenia sygnatury spektralnej dla każdej klasy należy pozyskać określoną liczbę pikseli,
a wszystkie klasy muszą mieć określoną rozłączność/rozdzielczość spektralną (Hugies, 1968). Na
przykład dla klasyfikacji metodą Maximum Likelihood, gdzie dla klas przyjęto rozkład Gaussa, musi
być obliczony wektor średni próbki oraz macierz kowariancji. Jeżeli do klasyfikacji zostało użytych
K kanałów, wówczas w celu obliczenia macierzy wariancyjno−kowariancyjnej każdy zestaw pikseli
treningowych dla każdej klasy powinien zawierać K+1 pikseli (Schowengerdt, 2007). Według Swain
i Davis (1978) dla uzyskania wiarygodnej statystyki dla klas, należy wykorzystać co najmniej 10 do
100 pikseli na klasę. Przy czym, liczba pikseli treningowych wymagana do osiągnięcia założonej
dokładności sygnatur rośnie, jeżeli występuje duża heterogeniczność wewnątrz klas. Zwiększona
ilość informacji w macierzy wariancyjno−kowariancyjnej obrazu hiperspektralnego wymaga
znacznego zwiększenia zbioru pól treningowych. Wymagania dotyczące odpowiednio dużej próbki
danych treningowych nie są trudne do spełnienia dla obrazów wielospektralnych. Dla obrazów
hiperspektralnych warunek ten, czasami jest niemożliwy albo bardzo trudny do realizacji zwłaszcza
dla klas występujących na niewielkim obszarze (Schowengerdt, 2007). Jest to główne ograniczenie
w próbach zastosowania tradycyjnych procedur klasyfikacji nadzorowanej dla danych
hiperspektralnych. Aby osiągnąć wymaganą dokładność klasyfikacji, należy uzyskać minimalny
stosunek liczby pikseli treningowych do liczby kanałów spektralnych klasyfikowanego obrazu.
Zatem, aby wynik klasyfikacji danych hiperspektralnych np. metodą Maximum Likelihood był
poprawny musi być ona oparta na odpowiednio dużej próbce pikseli wykorzystanych jako dane
treningowe.
3.5 Analiza danych metodami hiperspektralnymi
W literaturze wielu naukowców prezentuje wyniki badań uzyskane na podstawie modelowania
fizycznego i matematycznego, które w sposób optymalny ekstrahuje informację z danych
hiperspektralnych (Varshney i in., 2006). Analiza danych ma na celu ekstrakcję informacji zawartej
w danych hiperspektralnych, dla których zakres i możliwości analiz obrazowych zostały znacznie
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
44
rozszerzone, ze względu na zwiększenie rozdzielczości spektralnej. Metody analizy danych
hiperspektralnych można podzielić ze względu na sposób ekstrakcji informacji zawartej w pikselach
obrazu. Aspinall (Aspinall i in., 2002) dzieli je na metody pikselowe oraz metody podpikselowe.
Pierwsza grupa to procedury, które klasyfikują piksel poprzez identyfikację głównego komponentu
danego piksela. Do nich należą m.in. Spectral Angle Mapper (SAM) (Kruse i in., 1993), Binary
Ecoding (BE) (Mazer i in., 1988), Spectral Feature Fitting (SFF) (Clark i in., 1990, 1991, 1992;
Clark i Swayze, 1995), Continuum Removed (CR) (Clark i Roush, 1984; Kruse i in., 1985;
Green i Craig, 1985). Natomiast do drugiej grupy Aspinall zalicza algorytmy podpikselowe,
pozwalające oszacować skład materiału znajdującego się w obrębie danego piksela, a należą do
nich: Linear Spectral Unmixing (LSU) (Boardman, 1989; 1993), Matched Filtering (MF)
(Boardman i in., 1995), Mixture Tuned Matched Filtering (MTMF) (Boardman, 1998). Podobnego
podziału dokonał Plaza (Plaza i in., 2003) nazywając te dwie grupy procedur technikami całych
pikseli i pikseli mieszanych. Plaza podkreśla także, że obraz należy analizować używając
wszystkich dostępnych metod i algorytmów, ponieważ w obrębie danej sceny znajdują się tereny,
gdzie odpowiedź spektralna może pochodzić od grupy pikseli czystych spektralnie lub od pikseli
silnie zmieszanych.
3.5.1 Pikselowe metody klasyfikacji danych hiperspe ktralnych
3.5.1.1 Spectral Angle Mapper (SAM)
Spectral Angle Mapper (SAM) jest to metoda automatycznego porównywania krzywych
spektralnych uzyskanych z obrazu z krzywymi bibliotek spektralnych utworzonymi na podstawie
pomiarów terenowych lub laboratoryjnych (Kruse i in., 1993). Jako krzywe referencyjne mogą być
wykorzystane także krzywe spektralne uzyskane z obrazu (tzw endmembersy) lub krzywe
spektralne z bibliotek odpowiedzi spektralnych dostępnych z różnych źródeł zewnętrznych
(np. biblioteki laboratoriów USGS, JPL). Wartości odpowiedzi spektralnej dla piksela w n - kanałach
można potraktować jako współrzędne wektora w przestrzeni n - wymiarowej ( Rys. 10). W postaci
wektora może również zostać przedstawiona odpowiedź spektralna wzorca. Algorytm metody SAM
oparty jest na porównaniu wektorów spektralnych dla każdego piksela analizowanego obrazu
z wektorami spektralnymi dla obiektów referencyjnych. Obliczany jest kąt pomiędzy tymi wektorami
według wzoru (4.20). Ostateczna klasyfikacja następuje po porównaniu obliczonego kąta
z określoną wartością graniczną.
Wartości pikseli dla obrazów wynikowych są wartościami kąta pomiędzy wzorcem, a krzywą
spektralną analizowanego piksela. Im mniejszy kąt tym lepsze dopasowanie do krzywej wzorcowej.
Metoda SAM nie jest wrażliwa na różnice oświetlenia powodowane topografią lub własnościami
sensora (tzw gain effect). Czynniki te mogą mieć wpływ na długość wektora spektralnego,
a w metodzie SAM wykorzystuje się kierunek wektora.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
45
Rys. 10. Zasada obliczania kąta pomiędzy wektorem wzorca i piksela
⋅
⋅⋅= −
pw
pw
rr
rr1cosα (4.20)
gdzie:
α – kąt spektralny pomiędzy wzorcem, a krzywą spektralną danego piksela
wr – wektor odpowiedzi spektralnej wzorca
pr – wektor odpowiedzi spektralnej analizowanego piksela
3.5.1.2 Dopasowania krzywych spektralnych - Spectral Feature Fitting (SFF)
Kształt i przebieg krzywych spektralnych można analizować w dwojaki sposób: poprzez
badanie piku absorpcyjnego lub analizując i porównując łagodnie zmieniające się obszary
w ogólnym kształcie krzywych. To rozróżnienie determinuje wybór metody porównywania krzywych
obrazowych z krzywymi referencyjnymi. Analiza piku absorpcyjnego wymaga normalizacji krzywej
spektralnej przez zastosowanie transformacji spektrum do tzw. „continuum” ( Rys. 11).
Transformacja ta polega na zidentyfikowaniu wszystkich lokalnych maksimów danego
spektrum i poprowadzeniu przez nie stycznej zwanej kontinuum ( Rys. 11) (Clark i Roush, 1984;
Kruse i in., 1985; Green i Craig, 1985). Normalizacje krzywej „continuum removed” uzyskuje się
dzieląc oryginalne spektrum przez wyznaczoną styczną (kontinuum) według wzoru:
)(
)()('
i
i
i
cR
RR
λ
λλ = (4.21)
rrww
rrpp
KKaannaałł 11
KKaannaałł 22
KKaannaałł 33
αα
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
46
gdzie:
)(' iR λ – wartość krzywej znormalizowanej (continuum removed) dla długości fali iλ
)( iR λ – wartość kontinuum dla długości fali iλ
)( icR λ – wartość spektrum dla długości fali iλ
Rys. 11. Krzywa spektralna z wyznaczoną styczną (continuum) oraz krzywa spektralna znormalizowana (continuum-removed)
(źródło: RSI, 2003 - zmieniony).
Normalizacja krzywych spektralnych pozwala na ich ujednolicenie i umożliwia ich porównanie
poprzez analizę głębokości pików. Tak znormalizowane charakterystyki spektralne wykorzystywane
są w metodzie Spectral Feature Fitting (SFF).
Procedura SFF polega na analizie porównawczej krzywej referencyjnej i krzywej z obrazu
metodą najmniejszych kwadratów (Clark i in., 1990, 1991, 1992; Clark i Swayze, 1995). Krzywe
spektralne: referencyjna i obrazowa porównywane są po standaryzacji do postaci kontinuum.
W wyniku działania tej procedury uzyskuje się dwa obrazy: stopnia dopasowania i błędu
dopasowania. Piksele wynikowego obrazu dopasowania posiadające duże wartości mogą być
interpretowane jako odpowiadające wzorcowi. Wartości stopnia dopasowania są w takim przypadku
zbliżone do wartości „1”, a błędy bliskie „0”. Występowanie wartości znacznie większych od
1 oznacza zupełnie rozbieżne charakterystyki wzorca i obrazu.
3.5.2 Metody „rozmieszania” spektralnego – spectral unmixing
Metody spektralnej analizy podpikselowej (z ang. sub-pixel methods) są wykorzystywane do
obliczania ilości poszczególnych frakcji materiałów w każdym pikselu obrazu (Adams i in., 1986;
Boardman, 1989). Metody te mogą określać ilość badanego materiału, która jest mniejsza niż
wielkość piksela. W niektórych przypadkach, gdy kontrast pomiędzy szukaną frakcją materiału
i tłem jest wysoki, metody podpikselowe umożliwiają detekcję materiału stanowiącego zaledwie
Odp
owie
dź
spek
tral
na
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
47
1 do 3% powierzchni piksela. Do metod podpikselowych zaliczane są Linear Spectral Unmixing,
Matched Filtering oraz Mixture Tuned Matched Filtering. Wszystkie metody należące do omawianej
grupy (metody podpikselowe) wymagają wcześniejszego przygotowania bibliotek spektralnych,
czyli zestawu krzywych spektralnych dla poszczególnych obiektów występujących
na analizowanym terenie. Mogą to być krzywe z pomiarów terenowych/laboratoryjnych lub
krzywe spektralne uzyskane z obrazu dla pikseli czystych spektralnie (tzw. endmembersy)
(Bordman i in., 1995; Kruse, 1998).
3.5.2.1 Linear Spectral Unmixing (LSU)
Metody rozmieszania spektralnego są alternatywnym sposobem analizy spektrum w stosunku
do metod porównywania krzywych spektralnych (SAM, SFF). Podstawą tej grupy metod jest
założenie, że w zarejestrowanym obrazie występuje niewielka liczba obiektów charakteryzujących
się stałymi własnościami spektralnymi. Dodatkowo, w obrębie piksela własności te ulegają
uśrednianiu i mieszaniu (Singer, 1981; Smith i Adams, 1985). Jeżeli istnieje możliwość identyfikacji
krzywych spektralnych obiektów, to można matematycznie dokonać „unmixingu” (rozmieszania)
spektrum danego piksela, w celu podania udziału występujących w nim frakcji. Procedura Linear
Spectral Unmixing (LSU) zakłada, że wartość współczynnika odbicia dla każdego piksela jest
liniową kombinacją współczynników odbicia każdego z materiałów tworzących dany piksel. Tak,
więc krzywa spektralna piksela jest sumą udziałów poszczególnych frakcji reprezentujących obiekty
zarejestrowane dla tego piksela, z ograniczeniem, że suma równa się 1 (Boardman, 1993).
W algorytmie LSU dla każdego piksela rozwiązywanych jest „n” równań liniowych, gdzie n to liczba
kanałów, natomiast udział poszczególnych frakcji w tworzeniu spektrum dla piksela stanowi zestaw
niewiadomych.
ε+= fEDN * (4.22)
gdzie:
DN – wektor wartości piksela obrazu
E− macierz krzywych spektralnych wzorców
f – wektor frakcji dla każdej krzywej spektralnej piksela
ε – błąd modelu matematycznego
n – liczba kanałów
i − liczba klas (frakcji)
;....
2
1
=
nDN
DN
DN
DN ;.
21
22221
12111
=
ninn
n
n
EEE
EEE
EEE
E
L
LLLLLL
L
L
;....
2
1
=
if
f
f
f ;....
2
1
=
nε
εε
ε (4.23)
Aby możliwe było rozwiązanie otrzymanych równań liniowych konieczne jest, aby liczba
krzywych wzorcowych była mniejsza niż liczba kanałów obrazu. Warunkiem uzyskania poprawnego
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
48
wyniku jest wykorzystanie podczas analizy, charakterystyk spektralnych dla wszystkich obiektów
zarejestrowanych na obrazie (Boardman,1989).
3.5.2.2 Matched Filtering (MF) i Mixture Tuned Matched Filt ering (MTMF)
Matched Filtering jest jedną z metod analizy podpikselowej, w której dokonywana jest
identyfikacja tylko tych obiektów, które zostały wybrane jako przedmiot analizy. Pozostałe obiekty,
występujące na badanym terenie, traktowane są jako tło. Nie są potrzebne charakterystyki
spektralne obiektów wchodzących w skład tła, gdyż w przeciwieństwie do metody LSU nie jest
obliczany ich udział procentowy. Metoda MF często nazywana jest „częściowym rozmieszaniem”
(z ang. partial unmixing), ponieważ rozwiązywanych jest znacznie mniej równań niż w przypadku
LSU. Algorytm Matched Filtering maksymalizuje odpowiedzi spektralne obiektów, uwzględnionych
w referencyjnej bibliotece spektralnej natomiast tłumi odpowiedzi obiektów, dla których nie podano
charakterystyk spektralnych. Obrazy wynikowe przedstawiają stopień dopasowania wartości
odbicia pikseli do wzorcowej biblioteki spektralnej obiektów spektralnie czystych. Wartości pikseli
w obrazie wynikowym są proporcjonalne do udziału w tworzeniu wartości poszczególnych
pikseli przez te obiekty. Każdy piksel z wartością 0 lub mniejszą jest uznawany jako tło
(Boardman i in., 1995).
Algorytm działania metody MTMF (Boardman, 1998) jest oparty na dwóch opisanych wyżej
metodach Matched Filtering (MF) i Spectral Unmixing (SU). Łączy metodę MF, czyli możliwość
identyfikacji pojedynczego obiektu na podstawie jego charakterystyki spektralnej (bez konieczności
wykorzystania wszystkich krzywych z biblioteki dla danej sceny) z jednoczesnym uwzględnieniem
warunku unmixingu (wartość każdego piksela jest liniową kombinacją materiałów tworzących ten
piksel). Dzięki temu MTMF zwiększa możliwości rozpoznawania pikseli zawierających niepoprawnie
wartości. Są to tzw. „false positive”, czyli „fałszywe pozytywy”, które często w metodzie MF błędnie
wskazują na obecność wzorca, niewystępującego w rzeczywistości w danym pikselu.
3.5.3 Metodyka przygotowywania bibliotek spektralny ch na podstawie danych obrazowych
Wszystkie zaawansowane techniki ekstrakcji informacji dedykowane danym hiperspektralnym
opierają się na wykorzystaniu dokładnej charakterystyki odpowiedzi spektralnej obiektów,
zarejestrowanych przez sensory hiperspektralne. Jak wcześniej wspomniano, są to biblioteki
spektralne, które stanowią zbiór danych referencyjnych służących do porównywania spektrum
każdego piksela i przyporządkowaniu go do odpowiedniej klasy lub nadania mu określonej wartości
stanowiącej procent udziału danej klasy w pikselu. W zależności od sposobu prowadzenia badań,
dostępności danych pomierzonych w terenie, ale także w zależności od oczekiwanych wyników
analiz, stosowane są różne zbiory krzywych porównawczych. Mogą to być krzywe spektralne
pomierzone w terenie, w laboratorium lub też spektra uzyskane bezpośrednio z analizowanego
obrazu. Ostatni rodzaj krzywych spektralnych to tzw. endmembersy, identyfikowane na podstawie
obrazu, bez wiedzy a priori odnoszącej się do charakterystyki obiektów należących do danej sceny.
Tworzone są głównie w sytuacjach, gdy dla analizowanego obszaru nie istnieją terenowe dane
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
49
spektrometryczne lub dane nie są skalibrowane ze względu na wpływ atmosfery. Czyste spektralnie
piksele mogą także zostać wykorzystane do tworzenia pól treningowych i stanowić podstawę
przeprowadzenia klasyfikacji nadzorowanej. Endmembersy uzyskiwane są za pomocą takich
metod jak: Pixel Purity Index (PPI) (Boardman i Kruse,1994), N−Finder (Winter, 1999), Orasis
(Bowles i in., 1995), Iterative Error Analysis (IEA) (Neville i in., 1999). W oparciu o endmembersy
tworzone są modele stopnia zmieszania odpowiedzi spektralnej obiektów w obrębie pikseli.
Natomiast ich liniowe i nieliniowe kombinacje umożliwiają oszacowanie udziału danej klasy
w danym pikselu, przy czym dokładność określenia ilościowego w dużej mierze zależy od
dokładności wyznaczenia endmembersów (Bateson i in., 2000). W ramach prezentowanych badań
piksele czyste spektralnie zostały wygenerowane z wykorzystaniem metody PPI.
3.5.3.1 Wskaźnik czysto ści pikseli - PPI ( Pixel Purity Index )
Metoda PPI umożliwia uzyskanie spektralnie czystych pikseli (endmembersów), na podstawie
wartości pikseli przetwarzanego obrazu (Boardman i Kruse,1994). Zasada algorytmu PPI oparta
jest na generowaniu w n−wymiarowej przestrzeni (n - liczba kanałów spektralnych), odpowiednio
dużej liczby niezależnych wektorów, na które odwzorowywane zostają piksele przetwarzanego
zobrazowania ( Rys. 12). Krotność, z jaką położenie danego piksela przestrzeni spektralnej zostało
zarejestrowane na wektorze jako ekstremalne, określa jego wskaźnik czystości spektralnej
(z ang. Pixel Purity Index - PPI). Wartość pikseli zlokalizowanych na krańcach przestrzeni
n−wymiarowej jest tworzona przez jeden obiekt. Ostateczna liczba wyselekcjonowanych pikseli
zależy od przyjętego progu wartości, dla którego piksele uważane są za ekstremalnie położone.
Dokładność całej operacji zależy od liczby przeprowadzonych iteracji. W zależności od liczby pikseli
i wektorów oraz od rozdzielczości spektralnej powinna ona wynosić od kilku do kilkudziesięciu
tysięcy. Z uwagi na czasochłonność algorytm przeprowadzany jest zwykle na danych odpowiednio
zredukowanych np. w wyniku transformacji MNF (Boardman i in.,1995). Piksele czyste spektralnie
uzyskane w wyniku przeprowadzenia algorytmu PPI mogą pełnić rolę lokalnych bibliotek
spektralnych dla przetwarzanego obrazu. Nie powinny być wykorzystywane w analizie innych
obrazów, niż ten na podstawie, którego zostały wygenerowane.
Rys. 12. Rzutowanie pikseli ekstremalnych na wygenerowane osie w n - wymiarowej przestrzeni.
.
.
. .
.
.
.
Piksele ekstremalne
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
50
3.6 Analiza dokładno ści wyników ekstrakcji informacji
Końcowym etapem klasyfikacji danych teledetekcyjnych jest analiza dokładności udziału klas
w treści obrazu. Oszacowanie dokładności wykonywanych procedur klasyfikacyjnych polega na
porównaniu otrzymanych kategorii map tematycznych ze starannie dobranymi do każdej kategorii,
polami testowymi. Dane weryfikacyjne powinny być pozyskane w terenie lub na podstawie analizy
dokładnych materiałów kartograficznych i teledetekcyjnych. Innym sposobem oceny wyniku
przeprowadzonej klasyfikacji może być interpretacja wizualna. Osiągnięcie wysokiej dokładności
wymaga wykorzystania odpowiedniej ilości pikseli do każdego z pól testowych (Jensen, 1986;
Mather, 1999).
3.6.1 Macierz rozbie żności (confusion matrix )
Najbardziej popularną metodą stosowaną do oceny dokładności klasyfikacji jest macierz
rozbieżności (z ang. confusion matrix), zwana także macierzą błędów (z ang. error matrix). Macierz
rozbieżności [ ]ijaA = to macierz kwadratowa, której wiersze i przedstawiają klasy analizowanej
mapy uzyskanej po klasyfikacji. Natomiast kolumny j macierzy stanowią klasy referencyjne
względem, których dokonywana jest analiza dokładności klasyfikacji. W celu określenia, z jaką
dokładnością piksele z pól testowych zostały przypisane do odpowiednich klas, obliczana jest
całkowita dokładność klasyfikacji (overall accuracy - OA). Dokładność całkowita D jest to stosunek
liczby pikseli sklasyfikowanych prawidłowo do całkowitej liczby pikseli. Liczbę pikseli
przyporządkowanych właściwie dla poszczególnych klas, otrzymuje się odczytując wartości na
przekątnej macierzy ( Tab 11).
N
aD
pp∑= (4.24)
gdzie:
∑ ppa - suma wartości na przekątnej macierzy rozbieżności
N – liczba wszystkich pikseli we wszystkich klasach referencyjnych
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
51
Tab 11. Macierz rozbieżności (Adamczyk i Będkowski, 2005).
Macierz rozbieżności jest bardzo efektywną metodą oceny dokładności, nie tylko otrzymanej
mapy klasyfikacyjnej, ale także oceny dokładności poszczególnych klas. Na podstawie wartości
macierzy, w metodzie określa się dokładność użytkownika (user accuracy), dokładność producenta
(producer accuracy) oraz błędy pominięcia (omission error) i przeszacowania (comission error)
(Adamczyk i Będkowski, 2005). Dokładność producenta Ap jest to stosunek liczby pikseli poprawnie
sklasyfikowanych przez klasyfikator, jako dana klasa do liczby wszystkich pikseli referencyjnych
w tej klasie. Natomiast dokładność użytkownika Au to stosunek liczby pikseli, które zostały
sklasyfikowane właściwie jako dana klasa do wszystkich pikseli przyporządkowanych przez
klasyfikator do tej klasy.
∑=
ij
jjp
a
aA (4.25)
∑=
ij
iiu
a
aA (4.26)
W przypadku błędu pominięcia cE liczony jest procent pikseli, które według danych
referencyjnych powinny należeć do wskazanej klasy, a zostały błędnie przyporządkowane do
innych klas. Natomiast błąd przeszacowania oE (8.9) wskazuje na procent pikseli, które zostały
poprawnie zaklasyfikowane do danej klasy wśród wszystkich pikseli do niej należących.
∑−=
ij
iic
a
aE 1 (4.27)
Klasy referencyjne
Klasa 1 Klasa 2 Klasa 3 Klasa k suma
Klasa 1 a11 a12 a13 a1k ∑ ja1
Klasa 2 a21 a22 a23 a2k ∑ ja2
Klasa 3 a31 a32 a33 a3k ∑ ja3 W
ynik
kla
syfik
acji
Klasa k ak1 ak2 ak3 akk ∑ kja
suma ∑ 1ia ∑ 2ia ∑ 3ia ∑ ika N
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
52
∑−=
ij
jjo
a
aE 1 (4.28)
Innym sposobem wyznaczenia dokładności klasyfikacji jest współczynnik kappa (z ang. kappa
coefficient). W metodzie wykorzystującej ten współczynnik zakłada się, że poddawane analizie
klasyfikacje referencyjna i badana są statystycznie niezależne. Indeks ma za zadanie określić
różnicę zgodności danych referencyjnych i wyniku sprawdzanej klasyfikacji, z uwzględnieniem ich
przypadkowych zgodności. Współczynnik przyjmuje wartości od 0 do 1, przy czym im wyższa
wartość tym lepsza zgodność (dokładność). Współczynnik kappa obliczany jest według
następującego wzoru (RSI, 2003):
∑
∑ ∑
ΣΣ
ΣΣ
−
−=
kkk
k kkkkk
xxN
xxxN
2κ (4.29)
gdzie:
N -– liczba wszystkich pikseli we wszystkich klasach referencyjnych
kkx – suma wartości na przekątnej macierzy rozbieżności
Σkx – suma pikseli w danej klasie referencyjnej
kxΣ – suma pikseli sklasyfikowanych w danej klasie
3.6.2 Szacowanie dokładno ści dla metod podpikselowych
Dane treningowe i dane referencyjne występujące w postaci pikselowej trudno zastosować do
obliczeń dokładności wyników klasyfikacji podpikselowej. Klasyfikacja podpikselowa definiuje udział
poszczególnych frakcji w obrębie danego piksela, tak więc w jej rezultacie nie uzyskuje się
jednoznacznego przyporządkowania pikseli do konkretnej klasy (w przypadku metod tradycyjnych
każdy piksel zostaje w całości przyporządkowany do danej klasy), a zatem nie otrzymuje się
bezpośrednio mapy tematycznej w tradycyjnej postaci. W celu jej uzyskania należy poddać wyniki
klasyfikacji odpowiedniej procedurze przetwarzania. W przypadku oceny dokładności klasyfikacji
przeprowadzonej zaawansowanymi metodami (SFF, LSU, MF, MTMF), dedykowanymi danym
hiperspektralnym, wyniki klasyfikacji należy odpowiednio przygotować do analizy. Obrazy
klasyfikowane za pomocą tych metod podlegają tzw „progowaniu” (Emami i Mojaradi, 2009). Jest to
pierwszy etap oceny dokładności, w którym dokonuje się określenia wartości granicznej zwanej
„progiem”, powyżej której wybrany piksel zostanie zakwalifikowany do danej klasy. Na podstawie
takiego zakwalifikowania uzyskuje się pochodny obraz klasyfikacji, gdzie każdy piksel zostaje
przyporządkowany do konkretnej klasy. W kolejnym etapie wynik progowania wykorzystuje się do
porównania z mapą referencyjną i przeprowadzana jest typowa analiza zgodności
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
53
sklasyfikowanych klas z klasami mapy referencyjnej. Z uwagi na trudność oszacowania właściwej
wartości granicznej, etap progowania zwykle należy wykonać kilkakrotnie, a dla nowych progów
ponownie zastosować odpowiednią metodę kontrolną (Zagajewski i in., 2009). Niestety,
przedstawiony sposób szacowania dokładności jest bardzo pracochłonny, czasochłonny
i uzależniony od subiektywnej interpretacji operatora. Zatem, takie podejście może być obarczone
błędami, które zależą od doświadczenia i wiedzy osoby dokonującej oceny wyników klasyfikacji.
Dlatego też metody szacowania dokładności wykorzystywane dla metod pikselowych (macierz
rozbieżności i współczynnik kappa) nie są efektywnym sposobem obliczeń dokładności klasyfikacji
przeprowadzonej metodami podpikselowymi. Najczęściej cytowanymi autorami, zajmujący się
zagadnieniem związanym z szacowaniem dokładności klasyfikacji metodami pospikselowymi są
Foody (1996, 2002), Emami i Mojaradi (2009). Foody (1996) przedstawił przegląd dostępnych
metod szacowania dokładności rezultatów klasyfikacji podpikselowej, których zdecydowana
większość wymaga zastosowania mapy referencyjnej o charakterze „rozmytym” (uzyskanej
w wyniku analiz rozmytych). Tego typu dane są jednak trudno dostępne, więc często zachodzi
konieczność konwersji wyników o charakterze podpikselowym do postaci pikselowej. Maselli
(Maselli i in., 1996) wskazuje iż często stosowany parametr entropii posiada szereg ograniczeń
przy szacowaniu dokładności metod podpikselowych. Jest to związane z tym, że dla pikseli
mieszanych entropia i stosunek entropii jest bardzo wysoki, tak więc wskaźnik dokładności oparty
o taki parametr może być znacznie zawyżony, fałszując rzeczywiste wyniki dokładności klasyfikacji.
Poza tym, dokładność klasyfikacji uzyskana w takim podejściu nie nadaje się do porównania
z wynikami szacowania dokładności innymi metodami. Foody (1996) zaproponował metodę Cross
Entropy, polegającą na wykorzystaniu „rozmytej mapy referencyjnej”, gdzie entropię uzyskuje się
stosując następujące równanie:
∑∑ +−= )('log*)()(log*)()( 22 pppppc xpxPxpxPxE (4.30)
gdzie:
)( pxp - prawdopodobieństwo a’posteriori wyniku klasyfikacji piksela px
)(' pxp - prawdopodobieństwo a’posteriori wystąpienia klasy na mapie referencyjnej dla
piksela px
Inną metodą określenia dokładności w metodach podpikselowych jest
szacowanie i porównanie powierzchni uzyskanych w wyniku klasyfikacji map poszczególnych frakcji
(Zhu i in., 2000). W metodzie tej uzyskane powierzchnie na mapach klasyfikacyjnych porównuje się
z powierzchniami klas pozyskanymi na podstawie wiarygodnych materiałów (mapy, bazy danych,
inne wyniki klasyfikacji). Im większe podobieństwo tym wyższa dokładność. Niestety w takim
podejściu sumuje się jedynie powierzchnie danej klasy, nie biorąc pod uwagę poprawności jej
przestrzennego rozmieszczenia w obrębie uzyskanej mapy.
Emami i Mojaradi (2009) zaproponowali współczynnik poprawności klasyfikacji
(z ang. Correctness Coefficient − CC) jako metodę szacowania dokładności klasyfikacji metod
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
54
podpikselowych. Koncepcyjnie parametr CC wyraża stopień dopasowania wyników klasyfikacji
metodami zaawansowanymi do danych referencyjnych. W celu obliczenia współczynnika CC dla
każdej z klas mapy referencyjnej wykorzystuje się obraz binarny Bi , gdzie wartość 1 wskazuje
piksele należące do danej klasy, natomiast wartość 0 pozostałe piksele.
)1 ,0 , ' ' ( ,, LiGifBi kjkj == i = 1...N , j = 1…r, k = 1…c (4.30)
gdzie:
Bi − obraz binarny i-tej klasy
G – obraz referencyjny
Li − etykieta i−tej klasy
N − liczba klas
r − liczba wierszy
c − liczba kolumn
Obraz dokładności dla i-tej klasy AMi uzyskuje się w wyniku operacji mnożenia obrazu
frakcyjnego Fi uzyskanego dla danej klasy (o wartościach z przedziału od 0 do 1) przez obraz
binarny tej klasy Bi .
FiBiAMi kjkj ∗= ,, (4.31)
gdzie:
AMi – obraz dokładności dla i−tej klasy
Fi – obraz frakcji i−tej klasy
Rezultatem mnożenia obrazów jest obraz ( AMi) o wartościach od 0 do 1. Dla obliczenia
współczynnika CC wykorzystywana jest suma pikseli obrazu wynikowego iS podzielona przez
liczbę pikseli każdej klasy iNP z obrazu referencyjnego. Wynik dzielenia stanowi wartość
nazywaną współczynnikiem poprawności klasyfikacji dla danej klasy iCC .
∑∑= =
=r
j
c
kkji AMiS
1 1, (4.32)
i
ii NP
SCC = (4.33)
gdzie:
iNP – liczba znanych pikseli i-tej klasy dla mapy referencyjnej
Współczynnik mieści się w przedziale od 0 do 1. Wartość współczynnika CC równa 1, oznacza,
że wszystkie piksele zostały sklasyfikowane poprawnie i dokładność klasyfikacji wynosi 100%.
Jeżeli współczynnik CC uzyska wartość 0, wówczas oznacza to, że żaden piksel mapy
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
55
referencyjnej i odpowiadający mu piksel mapy frakcyjnej nie został opatrzony tą samą etykietą
danej klasy, w związku z tym dokładność klasyfikacji wynosi 0%. Parametr poprawności klasyfikacji
CC obliczony dla całego obrazu na podstawie sum pikseli sklasyfikowanych jako poszczególne
klasy ∑=
N
iiS
1
i sumy pikseli wszystkich wzorców gN , stanowi dokładność całkowitą klasyfikacji
(odpowiednik Overall Accuracy w macierzy rozbieżności).
∑∑= =
=r
j
c
kkji AMiS
1 1, (4.34)
g
N
ii
N
S
CC∑== 1
(4.35)
gdzie:
gN – liczba znanych pikseli dla mapy referencyjnej
W celu obliczenia błędów przeszacowania i pominięcia należy wykonać operację odejmowania
obrazów: od binarnego obrazu wzorca Bi (0,1) odjąć obraz frakcji Fi w wyniku, której uzyskuje
się obraz różnicowy dla i−tej klasy Di .
kjkjkj FiBiDi ,,, −= (4.36)
W obrazie wynikowym piksele o wartości 0 wskazują na dokładność 100% natomiast wartości
różne od 0 stanowią błąd przeszacowania CEi (dla wartości ujemnych) lub pominięcia OEi (dla
wartości dodatnich). Błąd przeszacowania liczony jest jako iloraz obrazu różnicowego sumę pikseli
dla wszystkich klas w obrazie referencyjnym. Natomiast błąd pominięcia jest wynikiem dzielenia
liczby pikseli o wartościach większych od zera ( 0, >kjD ) przez liczbę pikseli danej klasy w obrazie
referencyjnym.
i
c
kkj
r
j
NP
Di
OEi∑∑
=== 1,
1
jeżeli 0, >kjD (4.37)
g
c
kkj
r
j
N
Di
CEi∑∑
=== 1,
1
jeżeli 0, >kjD i ∑
==
N
ikjBi
1, 1 (4.38)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
56
3.7 Symulacja sensorów
Symulacja danych teledetekcyjnych jest stosowana często na etapie projektowania
nowych sensorów w celu testowania algorytmów rejestracji i przetwarzania danych
(Jacquemoud i in., 2000) lub też w celu określenia ich przydatności do różnego typu zastosowań
(Steven i in., 2003). Coraz częściej do szczegółowych analiz konieczne są dane teledetekcyjne
o różnej rozdzielczości spektralnej i przestrzennej. W takich przypadkach alternatywą do zakupu
nowych obrazów o żądanej rozdzielczości jest ich symulacja. Jest to proces często stosowany do
generowania/symulowania obrazów, które mogą być pozyskiwane przez nowe, niedostępne
jeszcze sensory satelitarne.
W literaturze światowej znajdują się przykłady wykorzystania oraz konkretne implementacje
symulacji danych. Przy czym, należy tu odróżnić dwa aspekty omawianego zagadnienia. Pierwszy
aspekt, to projektowanie nowych systemów i narzędzi do przeprowadzania symulacji dla nowych
sensorów na podstawie istniejących danych lub danych generowanych właśnie w trakcie symulacji.
Drugi aspekt, to wykorzystanie właściwych produktów symulacji, czyli obrazów po odpowiednim
resamplingu spektralnym i/lub przestrzennym. W pierwszym przypadku, mamy do czynienia
z systemami, które zostały stworzone właśnie w celu symulacji sensorów, mające na celu
zoptymalizowanie możliwości już istniejących lub planowanych sensorów. Do takich
systemów zaliczamy np. The Application Research Toolbox (ART) (Zanoni i in., 2002), SENSOR
(Börner i in., 2001) The Remote Sensing Commercial Satellite (RSCOMSAT) (Griffice i in., 1998).
Systemy symulacji składają się z matematycznych i fizycznych modeli do symulacji przejścia
promieniowania elektromagnetycznego od źródła emisji do sensora (Reulke i in., 1994). W ramach
eksperymentów przeprowadzane są specjalistyczne testy i symulacje konfiguracji sensorów,
sprawdzanie błędów wynikowych obrazów, projektowanie i optymalizacja sensorów optycznych
przeznaczonych do specyficznych zastosowań.
W drugim podejściu przedmiotem badań naukowców są produkty uzyskane w wyniku
symulacji. Już w roku 1987 Gallo i Daughtry (Gallo i Daughtry, 1987) badali różnice w indeksach
wegetacji policzonych na podstawie obrazów Landsat MSS, Landsat TM, NOAA–9, AVHRR, SPOT
otrzymanych w wyniku symulacji danych ze spektrometru. Najczęściej symulowane są dane
multispektralne (np. Landsat) na podstawie danych hiperspektralnych zarówno lotniczych np. DAIS
(Kavzoglu, 2004), AVIRIS (Kalman i Pelzer, 1993), jak i satelitarnych (np. HYPERION (Jarecke i in,
2002, Barry i in., 2002)). Przykładem może być projekt realizowany przez zespół Griffice’a
(Griffice i in.,1998), który badał użyteczność obrazów rejestrowanych przez działające i planowane
sensory multispektralne. W pierwszym etapie z lotniczego obrazu hiperspektralnego HYDICE
(210 kanałów spektralnych) zasymulowano 6-kanałowy obraz multispektralny. Przy czym cztery
pierwsze kanały (1 - 4) miały rozdzielczość przestrzenną 5m, natomiast pozostałe kanały (5−6)
20m. Następnie z uzyskanych obrazów policzono dokładność klasyfikacji ML (Maximum Likelihood)
dla poszczególnych klas (drzewa, trawa, gleba, odkryte, żwir jasny i ciemny). Wyniki klasyfikacji
porównano dla różnych kombinacji kanałów Landsata TM. Najlepszą dokładność (OA = 88,6%)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
57
uzyskano dla klasy żwir jasny, dla kombinacji kanałów 1,2,3 oraz dla 2,3,4. Natomiast najniższą
dokładność otrzymano dla klasy żwir ciemny (OA = 34,5%), dla kombinacji kanałów 1−6.
Ciekawe rozwiązanie zaproponowali naukowcy z Włoch (Richter K. i in., 2008). W celu
uzyskania wskaźnika LAI, na podstawie danych spektrometrycznych pomierzonych spektrometrem
ASD FieldSpec (350−1050 nm), zasymulowali dane sensorów: Landsat, Spot, Ikonos i ESA
Sentinel–2 (wówczas sensor w fazie konstrukcji). Dla każdego symulowanych zestawów danych
obliczono wskaźnik LAI. Uzyskane wartości wskaźnika zostały porównane z wartościami wskaźnika
otrzymanymi dla danych oryginalnych. Najlepszy rezultat uzyskano dla symulowanego sensora
ESA Sentinel–2.
Teillet (Teillet i in., 1997) wraz ze swoim zespołem przebadał wpływ położenia kanałów
czerwonego i podczerwonego na wartości wskaźnika NDVI dla kilku typów sensorów satelitarnych
SPOT HRV, Landsat TM, NOAA AVHRR, MODIS, Envisat MERIS. Obrazy testowanych sensorów
zasymulowano w wyniku agregowania kanałów z sensora hiperspektralnego AVIRIS. Obrazy
charakteryzowały się zróżnicowaną rozdzielczością przestrzenną (od 20 do 1110 m) i różną
szerokością analizowanych kanałów czerwonego i podczerwonego (10–150 nm). Według autorów
wskaźnik NDVI jest nieczuły na położenie środka zakresu, jeżeli szerokość spektralna kanału nie
jest większa niż 50 nm. Kruse i Perry (2007) opisują próbę modelowania (symulacji) charakterystyki
odpowiedzi spektralnej Astera na podstawie danych hiperspektralnych AVIRIS’a i Hyperiona.
Głównym celem było rozszerzenie możliwości badania obszarów geologicznych za pomocą danych
Astera o większym zasięgu sceny i dobrej rozdzielczości przestrzennej oraz przy użyciu danych
hiperspektralnych pozyskanych dla niewielkiego obszaru.
Niejednokrotnie dane hiperspektralne są bardzo istotne lub niemal konieczne do pewnego typu
opracowań. Jednakże ze względu na wysokie koszty lub trudności techniczne, nie mogą być
pozyskane. W takich wypadkach, wydaje się być zrozumiałym, zasymulowanie danych o większej
rozdzielczości spektralnej z istniejących obrazów wielospektralnych (Chen i in., 2008). Przykład
takiego rozwiązania przedstawił w swoim artykule zespół naukowców z Uniwersytetu w Pekinie
(Liu i in., 2009). Artykuł dotyczy zasymulowania obrazu hiperspektralnego Hyperion, na podstawie
obrazu multispektralnego ALI. Celem autorów było uzyskanie obrazu hiperspektralnego w taki
sposób, aby nie utracić żadnej informacji obrazu wyjściowego, ani też nie tworzyć żadnej
dodatkowej informacji. Symulacja przeprowadzono za pomocą metody UDPM (Universal Pattern
Decomposition Method). Jest to metoda matematycznie zbliżona do metody Spectral Unmixing.
Wynikowy obraz uzyskany po symulacji posiadał bardzo wysoki współczynnik korelacji
z rzeczywistym obrazem Hyperiona (>0,95). Autorzy uzyskali również bardzo dobre wyniki
klasyfikacji zasymulowanego obrazu (OA = 88%). Przy czym, dokładność klasyfikacji dla ALI,
z którego symulowano Hyperiona wynosiła 87%, co może dowodzić, że w obrazie symulowanym
została zachowana właściwa informacja obrazu ALI.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
58
3.7.1 Symulacja funkcj ą odpowiedzi spektralnej ( Spectral Response Function )
Symulacja danych teledetekcyjnych jest zwykle przeprowadzana, jako proces degradacji
rozdzielczości przestrzennej/spektralnej obrazów (Kavzoglu, 2004). Aby symulacja dostarczała
wiarygodnych wyników konieczne jest wyznaczenie odpowiednich parametrów związanych
z: optyką instrumentów, charakterystyką detektorów, a także z wpływem atmosfery na rejestrowany
sygnał. Do takich parametrów należą m.in. PSF (Point Spread Function), MTF (Modular Transfer
Function) (Townshend i in., 2000) oraz odpowiedź spektralna sensora SRF (z ang. Spectral
Response Function) (Kavzoglu, 2004). Ostatni z parametrów charakteryzuje tzw. czułość
spektralną sensora (z ang. spectral sensivity), która wyrażona jest za pomocą funkcji odpowiedzi
spektralnej SRF, jako względna odpowiedź sensora na radiację monochromatyczną dla różnych
długości fali. Funkcja odpowiedzi spektralnej definiowana jest przez podanie długości fali dla środka
zakresu spektralnego oraz przez tzw. szerokość połówkową (Full Width at Half Maximum − FWHM)
każdego kanału. Szerokość połówkowa - szerokość w połowie maksymalnej wysokości - jest to
wielkość liczbowa używana do opisu szerokości wypukłości krzywej lub funkcji i równa się
odległości między dwoma punktami na krzywej, w których funkcja przyjmuje połowę swojej
maksymalnej wartości ( Rys. 13) (Wikipedia, 2012).
Rys. 13. Szerokość połówkowa (Full Width at Half Maximum) (źródło: Wikipedia, zmieniony).
Funkcje odpowiedzi spektralnej są wykorzystywane do zmiany rozdzielczości spektralnej
zestawu danych wejściowych, który jest używany do symulacji konkretnych sensorów. Natomiast
resampling spektralny jest formą „splotu funkcji”, który pozwala na symulowanie obrazu
charakterystycznego dla sensorów, już funkcjonujących, jak również dla sensorów, które są w fazie
projektowej. Jeżeli taka funkcja nie jest znana dla danego sensora, wówczas przy założeniu, że
odpowiedź spektralna ma rozkład normalny, można dokonać jej aproksymacji za pomocą funkcji
Gaussa ),( iig σλ , która jest wykorzystywana do modelowania odpowiedzi spektralnej
poszczególnych detektorów sensora (Schläpfer i in., 1999). Funkcja ),( iig σλ jest reprezentowana
przez „centrum długości fali” oraz przez szerokość zakresu spektralnego danego kanału, który jest
funkcją szerokości połówkowej FWHM. Przy założeniu, że pik funkcji Gaussa dla środka
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
59
zakresu spektralnego ma wartość 1, funkcja Gaussa ),( iig σλ może być wyrażona wzorem
(Milton i Choi, 2004):
( )exp),( 2
2
2σλλ
σλ−
=i
iig (4.39) gdzie:
),( iig σλ – funkcja Gaussa
iλ – długość fali dla środka zakresu spektralnego i-tego kanału sensora
iσ – szerokość zakresu spektralnego lub odchylenie standardowe i-tego kanału sensora
2ln22
FWHMi =σ
(4.40) gdzie:
FWHM – szerokość połówkowa
Funkcje odpowiedzi spektralnej dostępnych sensorów są publikowane i wykorzystywane do
porównywania charakterystyki spektralnej danych zarejestrowanych przez poszczególne sensory
oraz symulowania nowych obrazów (Teillet i in., 1997; Steven i in., 2003) lub modelowania
(Vermote i in., 1997). Na rysunku ( Rys. 14) przedstawiona została prezentacja graficzna funkcji
odpowiedzi spektralnej dla dwóch sensorów multispektralnych Landsat i ALI.
Rys. 14. Porównanie funkcji odpowiedzi spektralnej (Spectral Response Function - SRF) dla sensorów Landsat i ALI
(opracowanie własne).
….. Landsat
___ ALI
Długość fali [nm]
Od
po
wie
dź
spe
ktr
aln
a
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
60
4. Sformułowanie problemu badawczego, postawienie tezy
Obecnie dostępne są obrazy teledetekcyjne o zróżnicowanej rozdzielczości: przestrzennej,
radiometrycznej i spektralnej. Nie zawsze wiadomo, które byłyby najwłaściwsze, przy opracowaniu
konkretnego zadania. Rzadko zdarza się, aby obrazy teledetekcyjne spełniały wszystkie kryteria,
które stawia użytkownik podczas realizacji danego projektu (zadania badawczego). Dane, które są
analizowane w ramach różnych opracowań muszą przejść fazę swego rodzaju adaptacji, a więc
odpowiedniego przystosowania do celów założonych w eksperymencie. W celu dokonania
właściwego wyboru danych należy przeprowadzić odpowiednią analizę prowadzącą do
sprawdzenia właściwości obrazów w kontekście możliwości ich efektywnego przetwarzania.
Oczywiście, powstało wiele technik selekcji i doboru odpowiedniego zestawu danych
wielospektralnych. Ponad czterdziestoletnie doświadczenie w przetwarzaniu danych
wielospektralnych sprawiło, że kwestia właściwego opracowania danych z konkretnego sensora
wielospektralnego np. Landsata, Spota, Astera itd., jest oparta na wyborze odpowiedniej procedury
przygotowania oraz analizy danych. W przypadku danych hiperspektralnych o zwiększonej
rozdzielczości spektralnej i zasięgu spektralnym, etap adaptacji danych jest bardzo trudny i stanowi
cel wielu prac badawczych. Wybór pomiędzy dokładnością a wydajnością obliczeniową jest
powiązany z odpowiednim wyborem kanałów oraz metody klasyfikacji tematycznej.
Analiza obrazów służy różnego rodzaju zastosowaniom i wykorzystywana jest w detekcji
bardzo różnorodnych obiektów. Metody przedstawione w literaturze mogą być użyteczne dla
konkretnego typu obiektu, na jakim były testowane określone algorytmy. Nie można ich jednak
traktować w sposób uniwersalny i wykorzystać dla każdego obiektu, który poddany jest analizie
z wykorzystaniem danych teledetekcyjnych, zwłaszcza hiperspektralnych. Dodatkowo, oprócz
specyfiki obiektu, należy wziąć pod uwagę również różnorodność konstrukcyjną sensorów
rejestrujących obraz. Metody testowane na podstawie danych zarejestrowanych przez określony
sensor, często nie mogą być zaimplementowane do przetwarzania danych o zupełnie innej
charakterystyce spektralnej. W metodyce przetwarzania danych hiperspektralnych istnieje
konieczność wyboru odpowiednich kanałów, które dostarczają właściwej, ale nie nadwymiarowej
informacji dla algorytmów klasyfikacji lub prognozowania. Wiele zespołów badawczych jest
w trakcie tworzenia optymalnych metod odpowiedniej redukcji nadwymiarowych danych,
umożliwiającą znaczną poprawę dokładności ekstrakcji informacji tematycznej. Metody i algorytmy,
o których mowa często są testowane w ściśle określonych warunkach i dla konkretnych danych
obrazowych. Dlatego też, mając na uwadze specyfikę i ogromny potencjał informacyjny danych
hiperspektralnych (zależny w dużej mierze od rodzaju sensora, jakim została
zarejestrowana odpowiedź spektralna), należy z dużą rozwagą i ostrożnością stosować dostępne
algorytmy pre-processingu (w tym selekcji kanałów). Zastosowanie danego algorytmu dla innych
obrazów niż testowane nie może być, wykonywane w sposób automatyczny.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
61
Tworząc, odpowiedni zestaw danych należy mieć na uwadze, że jeśli selekcja kanałów
wykonywana jest za pomocą metod automatycznych (feature selection), wówczas może to
spowodować usunięcie kanałów, które zawierają cenne spektralnie informacje. Natomiast skutkiem
zastosowania metod transformacji (feature extraction) mogą być zmiany informacji spektralnej,
która może okazać się bardzo istotna w analizie, będącej przedmiotem badań. Dlatego też, zawsze
należy brać pod uwagę bilans kosztów do zysków redukcji nadwymiarowości danych. Każdorazowo
pojawia się pytanie: czy uzyskanie lepszej wydajności sprzętowej bądź też możliwość zastosowania
tradycyjnych metod klasyfikacji nie spowoduje utraty zbyt dużego ładunku danych, jaki oryginalnie
niosą ze sobą dane hiperspektralne? Należy zastanowić się czy lepszym wyjściem nie byłoby
wykorzystanie technik klasyfikacji dedykowanych stricte danym hiperspektralnym typu: LSU, MF,
SFF. Metody te są oparte na porównywaniu analizowanych obrazów hierspektralnych z krzywymi
referencyjnymi. W związku z tym, nie mają one ograniczenia związanego z wymiarowością danych,
jak w przypadku tradycyjnych metod klasyfikacji.
Z metodycznego punktu widzenia automatyczna analiza danych hiperspektralnych nie jest
zadaniem prostym. Wynika to z szeregu czynników takich jak: 1) duża przestrzenna różnorodność
sygnatur hiperspektralnych dla klas pokrycia terenu, 2) zakłócenia związane z wpływem atmosfery
3) nadwymiarowość danych.
W kontekście klasyfikacji nadzorowanej główną przeszkodę stanowi mały stosunek dostępnych
próbek pól treningowych do liczby kanałów. To sprawia, iż niemożliwe jest uzyskanie wiarygodnego
oszacowania za pomocą funkcji gęstości prawdopodobieństwa, która jest używana
w standardowych klasyfikatorach statystycznych. Zatem paradoksalnie konsekwencją wzrastającej
liczby kanałów jest malejąca dokładność klasyfikacji (Melgani i Bruzzone, 2004).
W literaturze można znaleźć wiele publikacji, w których autorzy podjęli próby rozwiązania tego
problemu. Dotychczasowe prace można podzielić na 4 główne nurty: 1) normalizacja próbek
macierzy kowariancji 2) oszacowanie statystyki adaptacyjnej poprzez wykorzystanie próbek
sklasyfikowanych 3) techniki przetwarzania wstępnego oparte na selekcji/ekstrakcji kanałów,
mające na celu redukcję/transformację oryginalnej przestrzeni spektralnej do innej przestrzeni
o zmniejszonym wymiarze 4) analizy sygnatur spektralnych w celu modelowania klas.
Rozwiązanie problemu redundancji danych oparte jest w głównej mierze na zastosowaniu
technik selekcji danych oraz na transformacji. Selekcja kanałów przeprowadzana jest na podstawie:
wyboru odpowiedniego reprezentatywnego zestawu kanałów, wykonanego według wybranego
kryterium selekcji, a następnie zastosowaniu właściwej strategii selekcji. Kryterium określa się na
podstawie właściwości różnic pomiędzy kanałami, które oceniania się w oparciu o statystyczne
miary odległości pomiędzy klasami (np. J−M, BD, TD). Natomiast drugi etap, czyli strategia selekcji
odgrywa istotniejszą rolę w hiperwymiarowej przestrzeni, ponieważ definiuje podejście
optymalizujące, które jest niezbędne do identyfikacji najlepszego (lub dobrego) zestawu kanałów
zgodnie z użytym kryterium wyboru. W praktyce identyfikacja optymalnego rozwiązania jest
niemożliwa, przeprowadzane są zatem procedury oparte na technikach umożliwiających
znalezienie rozwiązania dostosowanego do określonych danych.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
62
Nie ulega wątpliwości, że pomimo dbałości o jak najmniejszą utratę informacji spektralnej
w technikach selekcji/redukcji danych hiperspektralnych, w rzeczywistości często ta strata jest
nieunikniona i może mieć negatywny wpływ na dokładność klasyfikacji. Problematyka właściwego
przygotowania danych hiperspektralnych do detekcji określonych cech charakterystycznych dla
danego typu obiektu, ma ogromne znaczenie ze względu na dużą różnorodność (spektralną
i przestrzenną) danych hiperspektralnych. Obrazy zarejestrowane przez różne sensory
hiperspektralne, należy rozpatrywać w sposób indywidualny.
Po przeanalizowaniu literatury krajowej i światowej można stwierdzić, że występuje
stosunkowo niewiele opracowań, w których została przeprowadzona dokładna analiza wpływu
poszczególnych kanałów na jakość i dokładność klasyfikacji obrazów. Zatem, uzasadnione jest
przeprowadzenie badań związanych ze szczegółową analizą zestawu danych, które mogą stanowić
dobre źródło danych wejściowych do prawidłowej detekcji i klasyfikacji określonych obiektów
zarejestrowanych na obrazach hiperspektralnych
Przedmiotem badań przedstawionych w niniejszej pracy jest proces właściwego doboru
zestawu danych umożliwiających badanie właściwości spektralnych wybranych form pokrycia
terenu. Głównym celem badawczym było sprawdzenie w jakim stopniu zmniejszenie wymiarowości
danych hiperspektralnych za pomocą algorytmów selekcji/ekstrakcji i symulacji kanałów, spowoduje
zwiększenie lub obniżenie dokładności klasyfikacji wybranych klas pokrycia terenu ze szczególnym
uwzględnieniem klasy wody. Biorąc po uwagę doświadczenia związane z przetwarzaniem danych
hiperspektralnych przedstawione w literaturze światowej i krajowej sformułowano następującą tezę:
• Kluczowy etap w procesie przetwarzania danych hiper spektralnych o ró żnej
rozdzielczo ści spektralnej stanowi prawidłowo dobrana technolog ia przetwarzania
wst ępnego ( pre-processing ) zastosowana dla konkretnego typu obrazów źródłowych
• Identyfikacja cech okre ślonego typu obiektów na podstawie danych
hiperspektralnych zale ży od zastosowania wła ściwego dla tego obiektu zestawu
kanałów spektralnych poddanych ekstrakcji tematyczn ej, wyselekcjonowanych za
pomoc ą odpowiedniego algorytmu redukcji nadwymiarowo ści i nie zale ży od liczby
kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
63
5. Obszar bada ń
Obszar opracowania znajduje się w województwie małopolskim na terenie powiatów:
krakowskiego (gmina Kraków), wielickiego (gminy: Wieliczka, Biskupice, Niepołomice)
i myślenickiego (gminy: Dobczyce, Myślenice, Siepraw). Według podziału fizjograficznego Polski
Kondrackiego (Kondracki, 2002) obszar obejmuje fragmenty dwóch makroregionów
i 4 mezoregionów fizjograficznych ( Rys. 15). Północna część obszaru należy do zachodniej części
makroregionu Kotliny Sandomierskiej, która dzieli się na dwa mezoregiony ułożone
równoleżnikowo: Nizina Nadwiślańska i Pogórze Bocheńskie. Południowa część analizowanego
obrazu obejmuje Pogórze Zachodniobeskidzkie z mezoregionami: Pogórze Wielickie i Pogórze
Wiśnickie.
Rys. 15. Obszar opracowania według podziału Kondrackiego (opracowanie własne).
Północna część analizowanego obszaru zdominowana jest występowaniem obiektów
pochodzenia antropogenicznego związanych z infrastrukturą miejską i działalnością przemysłową
Krakowa. Do terenów przemysłowych należą: Kombinat Huty im. Tadeusza Sędzimira (około
1700 ha), hałda żużlu o powierzchni ponad 200 ha (składowisko Pleszów i przeładownia), należąca
do firmy Slag Recycling Sp. z o.o., przetwarzającej żużel hutniczy na kruszywa drogowe, hale
produkcyjno-magazynowe zlokalizowane w zachodniej część dzielnicy XII Prokocim-Bieżanów
(powierzchnia ok. 300 ha), hałda poprodukcyjna firmy Madrohut (ok. 50 ha), składowisko popiołów
– Mogiła Niwy (40 ha) oczyszczalnia ścieków Kujawy (70 ha) wraz ze stawami osadowymi
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
64
(ok. 130 ha). Tereny zabudowane obejmują swym zasięgiem zachodnią część miasta Krakowa -
dzielnica XVIII (Nowa Huta) oraz zachodnia część dzielnic XII (Bieżanów Prokocim),
XIII (Podgórze), jakrównież miasto Wieliczka i Dobczyce, 45 wsi należących do powiatu wielickiego
oraz 30 wsi leżących w powiecie myślenickim. Kompleksy osiedlowe na całym analizowanym
terenie zajmują łącznie około 7500 ha w tym 600 ha to tereny miejskie z zabudową blokową
i miejską jednorodzinną, natomiast 6900 ha stanowi zabudowa wiejska jednorodzinna zwarta
i luźna.
Na terenie w centralnej i południowej części obszaru opracowania występują liczne kompleksy
leśne, gdzie dominują głównie lasy państwowe (kompleksy o powierzchni 150−450 ha) oraz
niewielkie lasy prywatne (powierzchnia do 50 ha) (Kajtoch, 2002). Największe drzewostany
(różnowiekowe z przewagą 40−80 letnich) występują w okolicach Koźmic Małych (Czarny Las),
Raciborska (lasy: Brzezinka, Zapołowice, Bania, Wolnik), Grajowa, Biskupic (Las Wielki), Kornatki
(lasy: Pod Bukiem, Lemiesz, Gajecki, Bukowina Leśniakówka, Glichowiec), Osieczan, Droginii
(Lasy: Droginiak, Bagniska) (Przyroda ziem wielicko-limanowskich, 2013). W skład drzewostanów
wchodzą: grądy (na niżej położonych terenach), bory sosnowe (stoki południowe) i modrzewiowe,
buczyny, olsy i łęgi (w dolinach) oraz bory świerkowe i jodłowe (na zboczach ocienionych dolin).
Tereny rolnicze występują głównie na obszarze Płaskowyżu Proszowickiego, Pogórza
Bocheńskiego i Wielickiego skupiając się na mniej stromych zboczach. Dawniej na pogórzach
znajdowało się dużo łąk, między 2000 a 2005 r. wiele z nich, a także pól zostało pozostawionych
odłogiem i wykształciły się tam tereny półotwarte (np. Dzielizny w okolicach Sułowa na Pogórzu
Wielickim). Struktura pól uprawnych występujących na terenie Pogórza Wielickiego jest bardzo
rozdrobniona, natomiast na Pogórzu bocheńskim bardziej rozległa. Tereny trawiaste to głównie łąki
kośne, nieużytki oraz młaki i turzycowiska (Przyroda ziem wielicko-limanowskich, 2013). Na
południu obszar zlewni zbiornika Dobczyckiego charakteryzuje się dużym zróżnicowaniem terenu
(wzniesienia o zróżnicowanym nachyleniu i płaskich grzbietach - 250−1000 m n.p.m.), na którym
występują gleby gliniaste z małą lub średnią zawartością szkieletu w górnej warstwie
(Starmach i Mazurkiewicz-Boroń, 2000). Sprzyja to wychodzeniu z uprawami rolnymi na duże
wysokości, co wzmaga erozję. W zlewni zbiornika tereny rolnicze stanowią ponad 50% całkowitej
powierzchni.
Sieć hydrograficzna obszaru opracowania stanowią: rzeka Wisła wraz z dopływami (Wilga,
Dłubnia, Długa Drwinia, Serafa, Podłężka, Zakrzówek) oraz rzeka Raba i jej dopływy. Analizowany
obszar obejmuje odcinek rzeki Raby pomiędzy Myślenicami a Dobczycami, na którym
zlokalizowany jest Zbiornik Dobczycki. W dolinie Wisły w rejonie miejscowości Grabie znajduje się
zbiorniki żwirowni oraz kilka basenów poeksploatacyjnych piasku i kruszywa wypełnionych wodą,
które obecnie są wykorzystywane jako stawy hodowlane i rekreacyjne (Kajtoch, 2002).
W odległości 350 m na północ od Wisły w Przylasku Rusieckim występują zbiorniki wodne żwirowni
K.Z.E.K. (Krakowskich Zakładów Eksploatacji Kruszywa). Podobne zbiorniki eksploatowane przez
Żwirownię Brzegi znajdują się po obydwu brzegach rzeki Drwinia w miejscowości Brzegi. Natomiast
na południu obszaru opracowania znajduje się największy zbiornik wodny - Zbiornik Dobczycki.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
65
Jest to jezioro powstałe w wyniku sztucznego spiętrzenia wód Raby przez przegrodzenie rzeki
zaporą na 60 km jej biegu (Starmach i Mazurkiewicz-Boroń, 2000). Zlewnia własna zbiornika
posiada powierzchnię 78,2 km2 (zlewnia Raby wynosi 1537 km2). Dorzecze zbiornika składa się
(oprócz rzeki Raby, jako głównego dopływu) z siedmiu mniejszych dopływów. Dopływy
prawobrzeżne to: Trzemeśnianka, Bulinka, Bratanica, Brzezówka, natomiast dopływy lewobrzeżne
to: San, Dębnik, Wolnica. Największym dopływem bezpośrednim jest potok Trzemeśnianka
o zlweni 29,1 km2 i długości 10,5 km.
Pojemność zbiornika przy maksymalnym poziomie piętrzenia wynosi 125 mln m3, długość
ok. 10 km, szerokość 0,8−1,3 km (średnia głębokość zbiornika 11,7 m) (Starmach i Mazurkiewicz-
Boroń, 2000). Czasza zbiornika została ukształtowana w trakcie budowy przez przegrodzenie
doliny rzeki Raby zaporą czołową i wykonanie zapór bocznych oraz nieznaczne pogłębienie doliny
rzeki. Kształt czaszy zbiornika jest ściśle związany z kształtem doliny rzeki Raby i dolinami potoków
wpływających bezpośrednio do zbiornika. Dno czaszy stanowi płaski taras o spadku, w kierunku
zapory, odpowiadający spadkowi rzeki. Czasza zbiornika została podzielona na 3 baseny
(Starmach i Mazurkiewicz-Boroń, 2000):
1. Basen Myślenicki – tworzy dolina Raby od cofki zbiornika do linii wyznaczonej przez
zachodni stok Góry Jałowcowej
2. Basen Dobczycki – od zapory do lini wyznaczonej przez ujęcie wody i cypel Gaiku
3. Basen (Zatoka) potoku Wolnica – tworzy dolina potoku Wolnica wpływającego do
zbiornika
Brzegi zbiornika są na znacznej długości strome, tworzą je wzniesienia o wysokości 60 do 100
m w stosunku do poziomu dna doliny. Nieregularna linia brzegowa przy maksymalnym poziomie
piętrzenia wynosi około 42 km (Starmach i Mazurkiewicz-Boroń, 2000). W brzegach istnieje kilka
zatok, w których znajdują się ujścia potoków. Zbiornik Dobczycki jest głównym rezerwuarem wody
pitnej dla aglomeracji Krakowa i okolicznych gmin. Pobór wody dla wodociągu krakowskiego
rozpoczął się w 1986 roku. Ponad 55% wody wykorzystywanej w Krakowie dla różnych celów
pochodzi z tego zbiornika. Obecnie dostęp do jeziora ze względów sanitarnych (pobór wody pitnej)
jest zablokowany (Wagner i in., 2008). Z uwagi na konieczność zachowania rygorów higienicznych
dotyczących dobrej jakości wody wykluczono lub drastycznie ograniczono działalność gospodarczą,
przemysłową i rekreacyjną hodowlę ryb, wędkarstwo, sporty wodne, a także kąpiel. Wokół
Zbiornika Dobczyckiego utworzono strefy ochronne. W strefie ochrony bezpośredniej – 10 m od
brzegu zabronione są wszelkie formy aktywności niezwiązane z retencją wody pitnej. Oddanie do
użytku Zbiornika rozwiązało również problem powodzi spowodowanych wylewami rzeki Raby.
Okolice jeziora charakteryzuje bogactwo fauny i flory (Jezioro Dobczyckie, 2013). Wybudowanie
sztuczne jeziora stworzyło dogodne warunki życia dla ptactwa wodnego.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
66
6. Charakterystyka danych
W celu realizacji zadań pracy doktorskiej i zbadania postawionej tezy wykorzystano zestaw
danych teledetekcyjnych obrazowych i nieobrazowych, które zostały zarejestrowane za pomocą
sensora hiperspektralnego satelitarnego Hyperion oraz przy wykorzystaniu spektrometru
naziemnego. Poniżej przedstawiona została charakterystyka każdego rodzaju wykorzystanych
danych.
6.1 Hiperspektralne dane obrazowe
Jako hiperspektralne dane obrazowe, wykorzystano obraz zarejestrowany dnia 25 czerwca
2006 roku przez satelitarny sensor Hyperion. Obraz zarejestrowano w ramach projektu KBN3T09D
09429 „Badania procesów akumulacji i przemian związków chemicznych w osadach Dobczyckiego
Zbiornika wody pitnej dla miasta Krakowa w celu oceny jego stanu jako ekosystemu”
(Hejmanowska i in., 2006).
Rejestracja odbywała się w 242 kanałach tj. 70 kanałach VNIR (357−1058 nm) oraz
172 kanałach SWIR (852−2576 nm) ( Tab 12), z rozdzielczością spektralną około 10 nm.
Rozdzielczość przestrzenna zarejestrowanego obrazu wynosiła 30 m (USGS, 2012). Dla celów
projektu KBN wielkość pozyskanej sceny wynosiła 180 km x 7,7 km, obejmując swym zasięgiem
pas terenu wynoszący około 2 stopnie szerokości geograficznej (od 48,842 N do 50,769 N), obszar
między miastami Brezno (Słowacja) i Chęciny w województwie świętokrzyskim (Polska). Niewielka
część zarejestrowanej sceny (około 4%) była zakłócona występowaniem chmur. W celu realizacji
postawionych w ramach pracy doktorskiej zadań, do testów i przetwarzania został wybrany
fragment zarejestrowanej sceny obejmujący obszar pomiędzy Zbiornikiem Dobczyckim, a Hutą
im.T. Sędzimira (H.T.S.) w Krakowie ( Rys. 16).
Dane Hyperione zostały dostarczone przez USGS (United States Geological Survey), jako
zestaw danych złożony z plików:
o EO1H1880252006176110KY_SGS_01.MET - plik zawierający metadane obrazu,
o EO1H1880252006176110KY_SGS_01. L1R - plik obrazowy w formacie hdf
(Hierarchical Data Format) wraz z plikami pomocniczymi
Obraz Hyperiona poziomu 1R posiadał jedynie wstępną kalibrację radiometryczną ( Tab 12),
(brak korekcji geometrycznej) i został zapisany jako format Band-Interleaved-by-Line (BIL)
z rozdzielczością radiometryczną 16 bitów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
67
Rys. 16. Zasięg obszarowy całej zarejestrowanej sceny Hyperiona oraz jej fragment wybrany do analizy i przetwarzania.
Część kanałów poziomu 1R Hyperiona nie podlega kalibracji radiometrycznej USGS. Jest to
spowodowane słabą odpowiedzią detektorów, zarówno spektrometru rejestrującego w przedziale
widzialnym i bliskiej podczerwieni (VNIR), jak i spektrometru średniej podczerwieni (SWIR).
Tab 12. Charakterystyka spektralna Hyperiona.
Przedział spektralny [nm]
Kanały kalibrowane
Kanały bez kalibracji
Pokrycie zakresów rejestracji: VNIR
i SWIR VNIR 357−1058 8−56 1−7, 58−70 56−57 SWIR
852−2576 77−221 71−76,
225−242 77−78
Kanały, które nie podlegają kalibracji wstępnej to: 1−7, 58−70 oraz 71−76,
225−242 odpowiednio dla zakresów długości fal 356–417 nm i 936–1058 nm oraz 852–902 nm
i 2406–2578 nm ( Tab 12). Wymienione kanały należało usunąć ze zbioru przeznaczonego do
przetwarzania i analizy, ponieważ w takiej postaci nie wnoszą żadnej informacji spektralnej
do analizowanego zestawu danych obrazowych. Wyeliminowano także kanały 56−57 (VNIR) oraz
77−78 (SWIR) ( Tab 12), dla których zakresy rejestracji promieniowania elektromagnetycznego
nakładają się na siebie ( Rys. 17). Zatem z 242 kanałów Hyperiona, do dalszego przetwarzania
wykorzystano 48 kanałów VNIR i 148 kanałów (łącznie 196).
Wieliczka
Dobczyce
H.T.S
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
68
Rys. 17. Krzywa spektralna dla surowych danych Hyperiona przedstawiająca zakresy bez kalibracji:
A – kanały 1−7 (356–417 nm); C – kanały 225−242 (2406–2578 nm) oraz zakres spektralny B, w którym rejestrowane są
kanały zarówno spektrometru VNIR, jak i SWIR: kanały 56−78 (852–1058 nm).
Rys. 18. Wykres wartości SNR w zależności od długości fali.
Dane Hyperiona w zależności od zakresu spektralnego dostarczają sygnałów o jakości, która
jest ściśle uzależniona od charakterystyki spektrometru rejestrującego natężenie promieniowanie
elektromagnetycznego. Miarą jakości sygnału dla sensorów jest wartość SNR (Signal to Noise
Ratio) określająca moc sygnału użytecznego dla zadanej długości fali do mocy szumów dla tej
samej długości fali. Rysunek ( Rys. 18) przedstawia wykres wartości SNR dla spektrometrów VNIR
i SWIR sensora Hyperion w zależności od długości fali. Dla spektrometru VNIR wynosił około
150: 1, natomiast dla spektrometru SWIR wartość SNR była znacznie niższa i wynosiła około 60:1.
VNIR SWIR
długo ść fali
VNIR SWIIR
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
69
6.2 Dane spektrometryczne
Jako dane referencyjne, wykorzystane zostały dane z pomiaru spektrometrycznego in situ.
Pomiar został przeprowadzony dwukrotnie 8 i 26 czerwca 2006. W przypadku pomiaru 8 czerwca
pogoda ulegała ciągłym zmianom i bardzo trudno było przeprowadzić właściwy pomiar, pomimo
bardzo częstej kalibracji spektrometru. Pomiar wykonany 26 czerwca odbywał się w dużo bardziej
sprzyjających warunkach pogodowych (prawie bezchmurne niebo) i stałej temperaturze otoczenia.
Pomiar trwał znacznie krócej i warunki oświetleniowe, nie zmieniały się dla każdego punktu.
Pomiar spektrometryczny został przeprowadzony z jednodniowym opóźnieniem w stosunku do
rejestracji obrazu tj. 26 czerwca 2006 roku, spektrometrem FieldSpec HH ASD (Analytical Spectral
Devices), należącym do Uniwersytetu Warszawskiego. Spektrometr ten rejestruje promieniowanie
elektromagnetyczne w zakresie od 325 do 1075 nm, w 512 kanałach spektralnych o szerokości
połówkowej około 1,6 nm. W trakcie pomiaru rozdzielczość spektralna została podwyższana tak,
aby pomiary współczynnika odbicia były pobierane co 1 nm. Pomiary krzywych odbicia
spektralnego dla poszczególnych punktów wykonano w warunkach naturalnego oświetlenia
słonecznego. Przed pomiarem każdorazowo dokonywano kalibracji spektrometru polegającej na
pomiarze wzorca bieli (tzw. spektralon), który powinien charakteryzować się stuprocentowym
współczynnikiem odbicia promieniowania elektromagnetycznego. Spektrometr był prawidłowo
skalibrowany, jeżeli współczynnik odbicia dla spektralonu w całym zakresie rejestrowanych długości
fali mieścił się w przedziale od 90 do 100 %.
Z uwagi na to, że kalibracja spektrometru nie zawsze dostarczała oczekiwanych rezultatów,
zwłaszcza w zakresach absorpcji wody, niektóre z pomierzonych krzywych mogły zawierać
niepoprawne wartości współczynnika odbicia. Dlatego dla każdego punktu pomiarowego wykonano
kilka lub kilkanaście pomiarów krzywych spektralnych, które zostały uśredniane dla każdego punktu
pomiarowego ( Rys. 20).
Pomiaru krzywych spektralnych wody dla wcześniej wyznaczonych punktów dokonano
z pokładu motorówki wodnej. Lokalizacja punktów pomiarowych na zbiorniku ( Rys. 19) była ściśle
związana z właściwościami wody i charakterystyką dna. Równolegle do pomiaru
spektrometrycznego (8 i 26 czerwca) zespół chemików i biologów pobierał próbki wody
przeznaczone do badań laboratoryjnych. Na podstawie pobranych ze zbiornika prób
wody, laboratoryjnie oznaczano: zawiesinę, części mineralne, części organiczne, ABS
(absorbancję), fosforany (PO3)4, fosfor (P), chlorofil ogólny, feofitynę, chlorofil-a. Ponadto
pomierzony został stopień zmętnienia (dysk Secchi’ego), temperatura, pH, potencjał i przewodność.
Niestety poprawne wyniki oznaczeń uzyskano tylko dla pierwszego pomiaru wykonanego
8 czerwca (Hejmanowska i in., 2006), a rejestrację obrazu Hyperiona wykonano 25 czerwca.
Niemniej jednak położenie punktów pomiarowych wybrano w charakterystycznych strefach
zbiornika, w miarę nie zmiennych w czasie. W trakcie pomiaru spektrometrem FieldSpec HH ASD
uzyskano zestaw krzywych spektralnych pomierzonych w pięciu różnych punktach Zbiornika
Dobczyckiego ( Rys. 19):
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
70
• Punkt 1 – pomierzone punkty nr p1: 1 – 60
− 2 kalibracje
− 60 krzywych spektralnych
• Punkt 2 – pomierzone punkty nr p2: 0 – 111, usunięte punkty nr p2: 0 – 100
− 3 kalibracje
− 11 krzywych spektralnych
• Punkt 3 – pomierzone punkty nr p3: 0 – 37
− 2 kalibracje
− 37 krzywych spektralnych
• Punkt 4 – pomierzone punkty nr p4: 0 – 41
− 3 kalibracje
− 42 krzywe spektralne
• Punkt 5 – pomierzone punkty nr p5:0 – 43
− 2 kalibracje
− 44 krzywe spektralne ( Rys. 20)
Uśrednione krzywe stanowią charakterystykę spektralną mierzonych obiektów i tworzą
bibliotekę spektralną wody Zbiornika Dobczyckiego ( Rys. 21).
Rys. 19. Lokalizacja punktów do pomiaru spektrometrycznego, rozmieszczonych na obszarze Zbiornika Dobczyckiego,
przedstawiona na podkładzie ortofotomapy (opracowane na podstawie usługi WMS Geoportal, 2012).
Ponadto przed datą rejestracji obrazu wybrane zostały pola testowe, w których
przeprowadzony został pomiar spektrometryczny dostarczający danych do kalibracji obrazu
Hyperiona. Wyboru punktów pomiarowych dokonano na podstawie wizualnej analizy obrazu
przeglądowego tzw. quicklook’a dostarczonego przez USGS. Jednym z pól testowych było
składowisko z żużlu kruszywa wielkopiecowego i konwertorowego (kruszywa hutnicze) w Nowej
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
71
Hucie. Składowisko firmy Slag Recycling oddalone jest od Zbiornika Dobczyckiego o około 25 km.
Na obrazie reprezentuje zespół jednolitych pikseli o największej jasności (współczynniku odbicia).
Według danych literaturowych (Brylicki i in., 1991) 95% masy żużla wielkopiecowego stanowią
glinokrzemiany z grupy mellitu o składzie mieszanym z gelenitu (2CaO.Al2O3.SiO2) i akermanitu
(2CaO.MgO.2SiO2) oraz ortokrzemiany. Podrzędnie w skład żużlu wchodzą tlenki pierwiastków
dwuwartościowych: FeO, Fe2O3 CaO, MgO, MnO, jak również niewielka ilość szkliwa. Zestalony
żużel wielkopiecowy ma powierzchnię chropowatą i jamistą (Brylicki i in., 1991).
Pomiar spektrometryczny wybranego pola kalibracyjnego został wykonany w tym samym dniu,
w którym dokonano pomiaru punktów zlokalizowanych na Zbiorniku Dobczyckim. Uzyskane krzywe
spektralne zostały wykorzystane w późniejszym etapie, jako krzywe referencyjne w procesie
korekcji atmosferycznej ( Tab 13). Ponadto, pomierzone zostały dodatkowe obiekty tj. roślinność,
beton, gleba odkryta ( Tab 13). Z wszystkich krzywych spektralnych uzyskanych w wyniku pomiaru
spektrometrycznego, utworzona została biblioteka spektralna, którą przedstawiono na rysunku
( Rys. 21). Krzywe z utworzonej biblioteki spektralnej stały się podstawą zadań porównawczych
opartych na analizie krzywych spektralnych posłużyły m.in. do porównania i znormalizowania
krzywych obrazowych Hyperiona, uzyskanych w wyniku przetwarzania wstępnego.
Rys. 20. Wynik pomiaru spektrometrycznego przed uśrednieniem dla punktu pomiarowego nr 5.
Rys. 21. Wybrane krzywe spektralnej należące do biblioteki spektralnej utworzonej w wyniku pomiaru in situ.
wsp
ółcz
ynni
k od
bici
a
długość fali [nm]
żużel
teren odkryty
woda p1
woda p2
woda p3
woda p4
woda p5
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
72
Tab 13. Charakterystyka danych pomiarowych – zestawienie krzywych spektrometrycznych oraz próbek obrazowych Hyperiona dla pomierzonych obiektów.
Opis Zdjęcie Krzywa spektralna in situ Próbka z obrazu
Hyperiona T
eren
odk
ryty
(gl
eba
odkr
yta)
Gleba
odkryta, bez
roślinności
Hut
a
(skł
adow
isko
żuż
lu) Żużel
Bet
on
Betonowy
parking
Roś
linność
Roślinność
trawiasta,
niska (m.in.
mniszek
lekarski,
wiechlina
łąkowa)
Wod
a
Woda
słodka
zbiornika
śródlądowe-
go
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
73
7. Metodyka badawcza
W niniejszym rozdziale przedstawiono metodykę badawczą zastosowaną w ramach
prowadzonych prac. Realizacja badań została podzielona na cztery główne etapy.
1. Przetwarzanie wstępne danych Hyperiona.
2. Redukcja danych - przygotowanie zestawów kanałów jako danych wejściowych do dalszej
analizy.
3. Klasyfikacja obrazów zredukowanych metodami tradycyjnymi i zaawansowanymi oraz
porównanie wyników analiz dokładności.
4. Testowanie wpływu eliminacji kanałów spektralnych na dokładność klasyfikacji wody.
Poszczególne etapy metodyki badań zostały przedstawione na schemacie ( Rys. 22).
W pierwszym etapie prac wykonano przetwarzanie wstępne danych źródłowych Hyperiona,
które obejmowało następujące procedury:
• usunięcie zakłóceń stripingu występujących z powodu błędnie działających detektorów,
• eliminacja zakłóceń smilingu,
• korekcja atmosferyczna.
Do celów porównawczych każda z procedur usuwania stripingu i smilingu przeprowadzona
została przynajmniej dwoma metodami. Korekcję atmosferyczną wykonano za pomocą metod
względnych i bezwzględnych.
Drugi etap badań polegał na przygotowaniu na podstawie przetworzonego obrazu Hyperiona,
zestawów danych złożonych z odpowiedniej liczby kanałów o określonych właściwościach
spektralnych. W tym celu wykorzystane zostały procedury redukcji i symulacji danych. Redukcję
danych przeprowadzono w dwóch podejściach:
• nadzorowana selekcja kanałów (feature selection),
• transformacja liniowa (feature extraction).
Selekcję kanałów wykonano manualnie w sposób iteracyjny bez użycia aplikacji do selekcji.
Transformacje wykonano wykorzystując algorytmy PCA i MNF. Procedury symulacji
przeprowadzono w taki sposób, aby zamodelować odpowiedzi spektralne charakterystyczne dla
wielospektralnych sensorów: ALI, Aster, Landsat i Spot. Poszczególne symulacje polegały na:
• symulacja I – wyborze grup kanałów Hyperiona reprezentujących zakresy spektralne
obrazów wielospektralnych (obrazy symulowane posiadały zasięg spektralny
i rozdzielczość spektralną charakterystyczne dla obrazów hiperspektralnych),
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
74
• symulacja II – wyborze pojedynczych kanałów z zakresów charakterystycznych dla
obrazów wielospektralnych (obrazy symulowane posiadały zasięg spektralny
charakterystyczny dla obrazów wielospektralnych, natomiast rozdzielczość spektralną
właściwą obrazom hiperspektralnym),
• symulacja SRF – modelowaniu odpowiedzi spektralnej na podstawie danych funkcji
odpowiedzi spektralnej SRF(Spectral Responce Function) (zasięg spektralny
i rozdzielczość spektralna uzyskanych obrazów symulowanych charakterystyczne dla
obrazów wielospektralnych)
Po każdej symulacji uzyskano zestaw 4 obrazów symulowanych.
Kolejny etap prac badawczych polegał na zastosowaniu reguł klasyfikacyjnych do wszystkich
obrazów uzyskanych w procedurach selekcji, transformacji i symulacji. W tym celu wykorzystano:
• metody tradycyjne (Maximum Likelihood - ML, Minimum Distance - MD, Mahalanobis
Distance - MhD), stosowane dotychczas w klasyfikacji obrazów wielospektralnych,
• metody zaawansowane dedykowane danym hiperspektralnym (Spectral Angle Mapper -
SAM, Spectral Feature Fitting - SFF, Linear Spectral Unmixing - LSU, Matched Filtering -
MF).
. Klasyfikacja zaawansowana przeprowadzona została z podziałem na dwie grupy:
• metody pikselowe (SAM, SFF),
• metody podpikselowe (LSU, MF).
Dla metod klasycznych przygotowano pola treningowe o odpowiedniej charakterystyce
statystycznej, natomiast dla metod zaawansowanych z obrazu Hyperiona wygenerowane zostały
wzorcowe krzywe spektralne. W tym celu zastosowano procedury PPI (Pixel Purity Index)
i N-Visualiser. Dodatkowo, w celach porównawczych klasyfikacja metodami podpikelowymi
przeprowadzona została dla dwóch zestawach krzywych referencyjnych:
• wariant I – krzywe wygenerowane na podstawie pól treningowych,
• wariant II – krzywe uzyskane w procedurze PPI (endmembersy).
W dalszej części badań dokonano oszacowania dokładności dla wszystkich obrazów
uzyskanych w wyniku klasyfikacji, zarówno tradycyjnej, jak i zaawansowanej. Przy czym,
ze względu na różny format wynikowych obrazów klasyfikacyjnych, wykorzystane zostały inne
procedury szacowania dokładności. Dokładność wyników klasyfikacji z wykorzystaniem metod
tradycyjnych oraz półautomatycznej metody pikselowej SAM została obliczona przy wykorzystaniu
macierzy rozbieżności (CM - Confusion Matrix) oraz współczynnika zgodności kappa.
Dokładność klasyfikacji podpikselowej oszacowano za pomocą współczynnika poprawności
klasyfikacji (CC – Correctness Coefficient). W obydwu przypadkach do obliczenia dokładności
klasyfikacji wykorzystano ten sam obraz referencyjny. Obraz został przygotowany do celów
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
75
szacowania dokładności na podstawie klasyfikacji obrazu Hyperiona przeprowadzonej w sposób
iteracyjny, przy wykorzystaniu materiałów z wizji terenowej. Takie podejście umożliwiło uniknięcie
dodatkowych błędów związanych z różnym pochodzeniem danych referencyjnych i sposobem ich
uzyskania.
Porównanie wyników analiz dokładności pozwoliło wskazać metody klasyfikacji dostarczające
informacji tematycznej na określonym poziomie dokładności oraz wytypować obiekty pokrycia
terenu, uzyskujące najlepszą dokładność przy określonym zestawie kanałów rejestrujących
odpowiedź spektralną dla zdefiniowanych pasm widma elektromagnetycznego.
W ostatnim etapie badań przeprowadzono testowanie wpływu eliminacji kanałów z zestawu
danych na dokładność klasyfikacji wody. Ze względu na właściwości spektralne wody wszystkie
operacje na obrazach wykonywane były dla zestawu kanałów z zakresu VNIR. Testy wykonano
tylko dla obszaru zbiornika Dobczyckiego, wykorzystując następujące obrazy:
• Hyperion (47 kanałów),
• symulowane obrazy ALI (6 kanałów), Aster (3 kanały), Landsat (4 kanały), Spot (3 kanały).
Do klasyfikacji wód Zbiornika wykorzystano metodę klasyfikacji tradycyjnej ML oraz metodę
półautomatyczną SAM. Jako dane referencyjne zastosowano krzywe z pomiaru terenowego,
wykonane dla wód zbiornika oraz krzywe spektralne wody wygenerowane na podstawie obrazu
Hyperiona.
W celu realizacji zadań badawczych wykorzystano następujące oprogramowanie:
• ENVI 4.1 – do przetwarzania wstępnego danych z Hyperiona (usuwanie zakłóceń smilingu,
korekcja atmosferyczna metodami względnymi), redukcji nadwymiarowości danych
(selekcja i transformacja PCA, MNF), symulacji SRF, klasyfikacji tradycyjnej
i zaawansowanej oraz szacowania dokładności CM,
• ENVI 4.3 z modułem FLAASH (wersja 30-dniowa) – do korekcji obrazu Hyperiona metodą
bezwzględną za pomocą algorytmu FLAASH ,
• Hyperion Tools (aplikacja USGS) – do odczytu surowych danych Hyperiona i częściowego
usunięcia zakłócenia stripingu ,
• MS Excel – usuwanie zakłóceń stripingu,
• Matlab – szacowanie dokładności klasyfikacji przeprowadzonych metodami
podpikselowymi.
76
R
ys. 2
2. S
chem
at p
rzed
staw
iają
cy p
oszc
zegó
lne
etap
y pr
zetw
arza
nia
i ana
lizy
dany
ch H
yper
iona
.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
77
8. Przetwarzanie obrazu Hyperiona
8.1 Metodyka przetwarzania wst ępnego - usuwanie szumów i zakłóce ń
Przetwarzanie wstępne obejmuje korekcję radiometryczną obrazu w celu usunięcia zakłóceń
spowodowanych wadliwym działanie sensorów (usuwanie stripingu i smilingu) oraz zakłócającego
wpływu atmosfery ( Rys. 23).
Rys. 23. Procedura pre-processingu dla danych Hyperiona (Głowienka, 2008a).
Zakłócenia stripingu i smilingu były identyfikowane wizualnie nie na oryginalnych obrazach, ale
na obrazach po transformacji z wykorzystaniem metody Minimum Noise Fraction (MNF)
(rozdz. 3.3.2.2), na których zakłócenia te są znacznie lepiej widoczne. Stąd też na wstępie
wykonano transformację MNF.
Usuwanie efektu prążkowania (stripingu) przeprowadzono następnie w dwóch etapach:
− wizualna analiza składowych MNF w celu identyfikacji kolumn, w których znajdują się
zakłócenia,
− usuwanie efektu prążkowania w oparciu o dwie metody,
− interpolacja wartości jasności pikseli dla wadliwych kolumn na podstawie pikseli
sąsiednich, wykorzystując narzędzie oprogramowania ENVI „Hyperion_tools”,
Destriping
VNIR, SWIR
Usuwanie smilingu
VNIR
Korekcja atmosferyczna VNIR, SWIR
faza I
faza II
Obraz surowy „at-sensor-radiance”
Obraz przetworzony „reflectance”
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
78
− dopasowanie statystyk każdej kolumny do statystyki całego obrazu, za pomocą własnej
aplikacji.
Wyniki przed i po korekcji prążkowania analizowano wizualnie.
Efekt smilingu usuwano z wykorzystaniem transformacji Minimum Noise Fraction (MNF) oraz
transformacji odwrotnej Inverse Minimum Noise Fraction (IMNF) w dwóch etapach:
− analiza wizualna kanałów uzyskanych w wyniku transformacji MNF w celu identyfikacji
kanałów z zakłóceniem smile,
− wykonanie transformacji odwrotnej IMNF bez kanałów z zakłóceniem smile.
Procedurę usuwania smilingu przeprowadzono iteracyjnie w celu uniknięcia usunięcia zbyt
dużej liczby kanałów.
Po usunięciu efektu stripingu i smilingu przystąpiono do usunięcia zakłócającego wpływu
atmosfery wykorzystując 4 metody (3 względne i 1 bezwzględną) (rozdz. 3.2) dostępne
w oprogramowaniu ENVI:
− FFC - Flat Field Correction,
− IARR - Internal Average Relative Reflectance,
− EL – Empirical Line,
− metodę FLAASH (Fast Line-of-sight Atmospheric Analysis of Spectral Hypercubes).
W celu przeprowadzenia korekcji metodą FFC należy przygotować odpowiednią próbkę pikseli,
która charakteryzuje się jednorodnym współczynnikiem odbicia. W przypadku analizowanego
obrazu Hyperiona, najlepszym obiektem, który spełniał założenia metodyczne korekcji FFC było
składowisko żużlu Slag (okolice H.T.S.) ( Rys. 24a, Rys. 25a). Jest to duży obiekt pochodzenia
antropogenicznego, bez form roślinnych i naturalnych. Podczas korekcji, wszystkie kanały są
dzielone przez średnią odpowiedź spektralną, która została obliczona dla wybranej grupy pikseli.
W ten sposób uzyskany obraz wynikowy zawierał kanały znormalizowane ze względu na
zakłócenia atmosferyczne występujące w każdym z kanałów.
Rys. 24. a) zdefiniowany obszar pikseli o jednorodnym współczynniku odbicia w metodzie FF b) uśredniona krzywa spektralna dla
tego obszaru.
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
79
Metoda IARR jest oparta o wartości statystyk obliczonych dla każdego kanału i nie wymaga
wykorzystania specjalnych obszarów referencyjnych.
Ostatnią z zastosowanych metod względnych była metoda EL (Empirical Line). W metodzie tej
wykorzystuje się krzywe spektralne wygenerowane na podstawie obrazu poddawanego korekcji
oraz odpowiadające im krzywe spektralne pozyskane w terenie. Wybrano dwa obszary, jeden
o najmniejszej jasności pikseli (woda Zbiornika Dobczyckiego) ( Rys. 25b), a drugi o największej
jasności pikseli (składowisko żużlu Slag) ( Rys. 25a). Analizując przebieg krzywych spektralnych
obrazowych ( Rys. 26a) i pomierzonych in situ ( Rys. 26b) można zauważyć znacząco różny
przebieg tych krzywych dla obszarów referencyjnych, co uwidacznia zakłócający wpływ atmosfery.
Rys. 25. Próbki pikseli wykorzystane do korekcji atmosferycznej EL reprezentujące: a) wartości maksymalne (składowisko żużlu
Slag), b) wartości minimalne (Zbiornik Dobczycki).
Rys. 26. Krzywe spektralne wody i żużlu wykorzystane w metodzie Empirical Line a) krzywe obrazowe b) krzywe z pomiaru in situ.
a
b
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
80
Bezwzględne metody korekcji wpływu atmosfery wymagają znajomości szeregu parametrów
fizyko-chemicznych atmosfery. Chmury i aerozole atmosferyczne stanowią istotne elementy bilansu
energetycznego Ziemi. Ze względu na oddziaływanie promieniowania elektromagnetycznego
z cząstkami materii (w szczególności - rozpraszanie promieniowania) w obliczeniach uwzględnia
się m.in. parametry charakteryzujące wpływ areozoli na wynik korekcji, tj. model aerozolu,
efektywna wysokość profilu pionowego aerozolu, widoczność. Dla testowanego fragmentu sceny,
jako model aerozolu wybrany został model „urban”, który w 80% reprezentuje model aerozolu dla
terenów rolnych i w 20% model aerozolu charakterystyczny dla obszaru o zabudowie miejsko-
przemysłowej. Przy czym, wybór modelu aerozolu nie ma istotnego wpływu na wynik korekcji, jeżeli
widoczność dla sceny jest większa niż 40 km. Widoczność V jest wielkością zależną od
współczynnika ekstynkcji β :
β192,3=V
Współczynnik ekstynkcji β jest to horyzontalna głębokość optyczna na 1 kilometr. Dla pogody
bezchmurnej przyjmuje się widoczność od 40 do 100 km, natomiast w przypadku występowania
umiarkowanego zachmurzenia i zamglenia widoczność przyjmuje wartości od 20 do 30 km, przy
dużym zamgleniu i zachmurzeniu, mniejsze niż 15 km. Bardzo ważnym parametrem jest również
stężenie dwutlenku węgla w atmosferze ziemskiej notowane w okresie rejestracji obrazu
poddawanego korekcji atmosferycznej. Według danych Centrum Informacji Analiz Dwutlenku
Węgla (The Carbon Dioxide Information Analysis Center) stężenie CO2 w roku 2006 wyniosło
średnio około 390 ppm i taka wartość została uwzględniona w algorytmie FLAASH. Sumaryczne
zestawienie wszystkich przyjętych parametrów znajduje się w tabeli ( Tab 14).
Tab 14. Parametry wykorzystane do korekcji atmosferycznej w programie FLAASH. Data rejestracji 25 czerwiec 2006 Współrzędne centrum sceny 20° 02 34.08, 49°51 54.01 Wysokość orbity satelity 705 km Rozdzielczość przestrzenna obrazu 30 m Wysokość terenu nad poziomem morza 200 m Widoczność 40 km Model aerozolu Urban Model atmosferyczny Sub-Arctic Summer Efektywna wysokość profilu pionowego areozolu 2 km
Kanał absorpcji wody 1135 nm
Stężenie CO2 390 ppm Modtran resolution 1 cm-1
Poprawność procedury usuwania efektu atmosfery określano dwoma metodami:
− wizualnie porównując przebieg krzywej referencyjnej (in situ, lub z biblioteki) i obrazowej po korekcji,
− na podstawie odchylenia standardowego oraz RMS odchyłek pomiędzy krzywą
spektralną pomierzona in situ lub z wykorzystaniem bibliotek krzywych spektralnych,
a krzywą obrazową.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
81
8.2 Wyniki przetwarzania wst ępnego
W przypadku przetwarzanego obrazu Hyperiona striping zidentyfikowano poprzez analizę
wizualną poszczególnych kanałów. Analizując kanały spektralne oraz pierwszą składową MNF
można zaobserwować, że w zakresie VNIR zakłócenia dominują w trzech kolumnach ( Rys. 27a,
Rys. 28a). W celu wyeliminowania efektu prążkowania należało ponadto zidentyfikować kanały,
w których to zakłócenie miało najsilniejszy charakter. W wyniku przeprowadzonej analizy wizualnej
zidentyfikowano 48 kanałów ( Tab 15). Kanały, w których występuje to zjawisko poddane zostały
procedurze korekcji.
Tab 15. Numery kanałów, w których zidentyfikowano zakłócenie prążkowania. Zakres VNIR 8−34, 55
Zakres SWIR 77, 120−130, 132, 165, 168,174, 178, 181, 186, 191, 221
Po przeprowadzeniu de-stripingu metodą interpolacji sąsiednich pikseli uzyskano obraz
z częściowym wyeliminowaniem prążkowania ( Rys. 27b). W wyniku tej korekcji zadowalający
rezultat uzyskano tylko dla niektórych kolumn. Przy czym, za zadowalający wynik, uznano korekcję
co najmniej jednej z wadliwych kolumn dla danego kanału. Taki rezultat otrzymano dla
następujących kanałów: 11−26, 28−34.
W drugim podejściu opartym na dopasowaniu statystyk poszczególnych kolumn do statystyki
z całego obrazu uzyskano zadowalający rezultat korekcji stripingu ( Rys. 28b).
Rys. 27. Obraz przed (a) i po (b) usunięciu stripingu metodą interpolacji sąsiednich pikseli.
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
82
Rys. 28. Obraz przed (a) i po (b) usunięciu stripingu metodą dopasowania statystyk.
Efekt smile, ujawnia się w obrazach hiperspektralnych w postaci gradientu jasności ( Rys. 29a).
Należy zaznaczyć, że w przypadku HYPERIONA, smilingiem obarczony jest zakres VNIR, gdzie
przesuniecie długości fal wynosi 2,6−3,6 nm. Dla zakresu SWIR przesunięcie to jest mniejsze niż
1 nm, dlatego też efekt ten ujawnia się w dużo mniejszym lub niezauważalnym stopniu. Ze względu
na odmienność zakłóceń występujących w obydwu zakresach, kanały 8−57 (zakres VNIR)
zapisane zostały w osobnym pliku, a następnie poddane dalszemu przetwarzaniu.
Procedury transformacji MNF i transformacji odwrotnej IMNF umożliwiły usuniecie efektu smile
dla obrazu z zakresu VNIR ( Rys. 29b). Po dokładnej analizie kanałów poddanych transformacji
MNF, wybrane zostały cztery kanały MNF (1, 4, 5, 6), które w największym stopniu obarczone były
smilingiem. Po usunięciu trzech z nich, przeprowadzona została transformacja odwrotna MNF
(IMNF) na dwunastu pierwszych kanałach MNF. Wynik przedstawiono na rysunku ( Rys. 29b).
Rys. 29. Kanał 1MNF przed korekcją (a) i po (b) korekcji efektu smile.
Po wykonaniu testów eliminacji poszczególnych kanałów stwierdzono, że w przypadku
wyeliminowania wszystkich czterech kanałów MNF (1, 4, 5, 6) zawierających zakłócenie smile,
informacja spektralna zostałaby w istotny sposób zdeformowana. Jest to spowodowane tym, że
usunięte kanały należą do pierwszych składowych transformacji MNF, które oprócz zniekształcenia
radiometrycznego smile zawierają również największą porcję informacji spektralnej. Dlatego też,
a) b)
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
83
wskazane było usunięcie tylko dwóch lub trzech kanałów MNF (np. 1, 4, 5). Ich eliminacja
spowodowała zminimalizowanie smilingu w stopniu, który umożliwia poprawne wykonywanie
automatycznej klasyfikacji na uzyskanych obrazach.
8.2.1 Korekcja atmosferyczna (porównanie metod)
Po korekcji atmosferycznej wykonanej wszystkimi metodami przeprowadzona została
procedura wygładzenia uzyskanych krzywych spektralnych tzw. polishing, co w znacznym stopniu
poprawiło kształt krzywych spektralnych ( Rys. 33) wykorzystywanych do dalszej analizy danych
Hyperiona.
Z uwagi na fakt, że dysponowano referencyjną biblioteką spektralną uzyskaną w wyniku
pomiaru in situ tylko z zakresu VNIR, dokładną analizę porównawczą dopasowania krzywych
spektralnych przeprowadzono właśnie dla tego zakresu. Porównane zostały obrazowe krzywe
spektralne uzyskane w wyniku metod korekcji FFC, IARR, EL, FLAASH. Zestawienie krzywych
spektralnych w zakresie VNIR, uzyskanych w oparciu o obrazy skorygowane różnymi metodami,
sporządzono na rysunku ( Rys. 30). Natomiast obrazowe krzywe spektralne otrzymane dla całego
zakresu rejestracji Hyperiona (VNIR i SWIR) zostały porównane do krzywych spektralnych
z biblioteki JPL, na podstawie wizualnej oceny zgodności przebiegu. W tym przypadku porównano
rezultaty korekcji FFC, IARR i FLAASH ( Rys. 31, Rys. 32). Analizę porównawczą uzyskanych
wyników w obydwu przypadkach przeprowadzono dla krzywej roślinności trawiastej.
Analiza wynikowych krzywych spektralnych z zakresu VNIR wykazała, że dla kanałów
z przedziału 400−500 nm obrazowe krzywe spektralne po korekcji IARR i FFC wykazują znacznie
wyższe wartości współczynnika odbicia w stosunku do jego wartości w tym zakresie dla krzywej
referencyjnej ( Rys. 30). Oznacza to, że w zakresie promieniowania niebieskiego efekt atmosfery nie
został do końca usunięty. W przypadku obu analizowanych krzywych spektralnych (po korekcji FFC
i IARR) w przedziale 500 - 600 nm występuje widoczny pik, wskazujący na obecność chlorofilu. Dla
zakresu promieniowania czerwonego (600−700 nm) zaznacza się właściwy dla roślin spadek
wartości odbicia ( Rys. 30). Analizując przebieg obrazowych krzywych spektralnych uzyskanych
metodami IARR i FFC, można stwierdzić, iż w zakresach niebieskim, zielonym, czerwonym mają
one bardzo podobny przebieg, natomiast występuje różnica co do wartości współczynnika odbicia.
Wartość ta jest wyższa dla krzywych uzyskanych po przeprowadzeniu korekcji IARR, zarówno
w stosunku do wartości współczynnika odbicia dla referencyjnej krzywej spektralnej roślinności, jak
i obrazowej krzywej spektralnej uzyskanej w wyniku korekcji metodą FFC. Dla kanałów z zakresu
podczerwonego przebieg i kształt krzywej spektralnej roślinności po korekcji FFC jest bardzo
zbliżony do przebiegu i kształtu referencyjnej krzywej spektralnej. Największe różnice wartości
współczynnika odbicia występują dla długości fal ok. 700 nm, natomiast najmniejsze różnice dla
przedziału długości fal 750−810 nm. W przypadku krzywej spektralnej uzyskanej po korekcji IARR,
wartości współczynnika odbicia w zakresie bliskiej podczerwieni, są znacznie niższe niż wartości
współczynnika odbicia z pomiaru terenowego ( Rys. 30).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
84
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
400 500 600 700 800 900długość fali [nm]
wsp
ółcz
ynni
k od
bici
a
krzyw a referencyjna
FF
IARR
EL
FLAASH
Rys. 30. Zestawienie obrazowych krzywych roślinności po korekcji atmosferycznej wykonanej metodami FF, IARR, FLAASH i EL
z krzywą referencyjną roślinności dla zakresu VNIR.
Natomiast dla metody EL uzyskano największą zgodność kształtu i przebiegu obrazowych
krzywych spektralnych z krzywą referencyjną ( Rys. 30), można powiedzieć najlepszą, jaką udało
się uzyskać w dotychczasowych badaniach autorki. Poprawny wynik korekcji jest związany
z prawidłowo dobranymi krzywymi referencyjnymi z pomiaru terenowego i próbkami pikseli z obrazu
wykorzystanymi w korekcji. Należy zaznaczyć, iż w przypadku omawianej sceny pomiar krzywych
referencyjnych był planowany pod kątem pozyskania danych do kalibracji właśnie metodą Empirical
Line. Bardzo dobre wyniki korekcji w zakresie VNIR otrzymano również po wykorzystaniu metody
FLAASH ( Rys. 30). Dla kanałów pasma niebieskiego (400–500 nm) uzykano poprawne usunięcie
wpływu atmosfery, natomiast dla długości fal 550–900 nm można zaobserwować bardzo dobre
dopasowanie krzywych po korekcji FLAASH i referencyjnej ( Rys. 30).
W tabeli ( Tab 16) znajdują się wartości odchylenia standardowego i RMS obliczone w oparciu
o odchyłki pomiędzy krzywymi referencyjnymi i obrazowymi dla roślinności (zakres VNIR),
uzyskane dla testowanych metod korekcji wpływu atmosfery (FCC, IARR, EL, FLAASH).
Tab 16. Zestawienie błędów uzyskanych po porównaniu krzywej referencyjnej roślinności z obrazowymi krzywymi spektralnymi roślinności po korekcji atmosferycznej.
FFC IARR FLAASH EL
Odchylnie
Standardowe 0,067 0,154 0,023 0,019
RMS 0,072 0,160 0,037 0,020
Różnice pomiędzy RMS i odchyleniem standardowym wynikają z błędu systematycznego,
przesunięcia całej krzywej obrazowej w stosunku do referencyjnej w górę lub w dół. Największe
błędy zaobserwowano w metodzie IARR (odchylenie standardowe 0,154 i RMS 0,160), a
najmniejsze w metodzie EL (odchylenie standardowe 0,019 i RMS 0,020). Na podstawie wartości
zestawionych w tabeli ( Tab 16) można stwierdzić, że wynik korekcji metodami EL i FLAASH jest
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
85
znacząco lepszy niż metodami FFC i IARR. Uzyskany rezultat potwierdza wyniki znane z literatury
(Kruse, 2004, Griffin i Burke, 2003).
Na podstawie analizy krzywych spektralnych w zakresie VNIR i SWIR stwierdzono, iż w wyniku
korekcji metodami empirycznymi FFC i IARR uzyskano obrazowe krzywe spektralne, których
ogólny przebieg jest zbliżony do krzywej roślinności z biblioteki spektralnej JPL ( Rys. 31). Przy
czym, krzywa po korekcji FFC wykazuje znacznie lepsze dopasowanie do krzywej JPL, jeżeli
chodzi o wartość współczynnika odbicia. Dla wynikowych krzywych spektralnych, w niektórych
kanałach SWIR, otrzymano nierzeczywiste wartości współczynnika odbicia. Są to zaburzenia
charakterystyki spektralnej spowodowane tłumieniem atmosfery (przez cząsteczki H2O i CO2) dla
długości fal około 1400 nm, 1900 nm ( Rys. 31). Kanały obarczone tym zakłóceniem, mogą
powodować fałszowanie wyników. W związku z tym, po przeprowadzeniu dokładnej analizy
krzywych spektralnych, stwierdzono konieczność usunięcia z obrazu 22 kanałów zwierających
opisane zakłócenia. W konsekwencji obraz Hyperiona wykorzystany do dalszego przetwarzania
i analiz zawierał 174 kanały.
Rys. 31. Zestawienie obrazowych krzywych spektralnych roślinności po korekcji wykonanej metodami FF i IARR z krzywą
spektralną roślinności z biblioteki JPL
Wynik porównania krzywej spektralnej roślinności z biblioteki JPL z krzywą obrazową po
korekcji metodą FLAASH znajduje się na rysunku ( Rys. 32). Na podstawie wizualnej oceny
przebiegu tych krzywych można stwierdzić, że korekcja z wykorzystaniem tego modułu została
wykonana poprawnie. Wyraźnie zaznacza się zgodność obu porównywanych krzywych w całym
zakresie rejestracji analizowanego obrazu Hyperiona (VNIR i SWIR). Na rysunku ( Rys. 33)
zaprezentowano także obrazowe krzywe spektralne po wykonaniu korekcji metodą FLAASH dla
pozostałych form pokrycia terenu.
odpo
wie
dź
spek
tral
na
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
86
Rys. 32. Zestawienie obrazowych krzywych spektralnych roślinności po korekcji wykonanej metodą FLAASH z krzywą spektralną
roślinności z biblioteki JPL.
Rys. 33. Obrazowe krzywe spektralne po korekcji atmosferycznej FLAASH dla zakresów VNIR i SWIR.
Ze względu na to, że najlepsze dopasowanie obrazowych krzywych spektralnych Hyperiona do
krzywych referencyjnych uzyskano po przeprowadzeniu korekcji metodą FLAASH, do dalszego
przetwarzania i analiz (w zakresach VNIR + SWIR) wykorzystano obraz skorygowany tą metodą.
8.2.2 Wnioski dotycz ące wst ępnego przetwarzania danych hiperspektralnych
W wyniku przeprowadzonych procedur przetwarzania wstępnego uzyskano obraz Hyperiona
gotowy do dalszych analiz, z którego usunięte zostały zakłócenia związane z wadliwie działającymi
detektorami oraz tłumieniem sygnału przez atmosferę. Na rysunku poniżej przedstawiono
potencjalny wpływ przetwarzania wstępnego na ocenę wizualną zawartości informacyjnej kanałów
MNF oraz na wynik klasyfikacji nienadzorowanej ISODATA. Na podstawie kompozycji barwnej
trzech pierwszych kanałów MNF (1MNF, 2MNF, 3MNF), wykonanej dla obrazu Hyperiona przed
i po eliminacji smilingu, można zauważyć różnice co do możliwości interpretacji wizualnej obiektów
występujących na danym obszarze. Dla danych po przetwarzaniu wstępnym zupełnie został
zredukowany błąd gradientu jasności przejawiający się strefowością barw, który powodował
wsp
ółcz
ynni
k od
bici
a
woda
żużel
lasy
tereny zielone
teren odkryty
długość fali [nm]
wsp
ółcz
ynni
k od
bici
a 0
0.1
0.2
0.3
0.4
0.5
0.6
400 900 1400 1900 2400
JPL
FLAASH
JPL
FLAASH
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
87
całkowite zafałszowanie informacji tematycznej zarejestrowanej na obrazie. Zarówno kompozycja
barwna ( Rys. 34 c), jak i wyniki klasyfikacji ( Rys. 34 e) uzyskane po korekcji są wizualnie znacznie
lepsze niż przed korekcją ( Rys. 34 b i d).
Rys. 34. a) kanał 1 MNF b) kompozycja z kanałów MNF (1, 2, 3) przed usunięciem efektu smile c) kompozycja z kanałów
MNF (1, 2, 3) po usunięciu efektu smile d) Wynik klasyfikacji nienadzorowanej ISODATA Hyperiona przed przetwarzaniem wstępnym
e) wynik klasyfikacji nienadzorowanej ISODATA po usunięciu efektu smile.
8.3 Redukcja nadwymiarowo ści danych
W niniejszym podrozdziale opisano redukcję danych hiperspektralnych przeprowadzoną w dwóch
różnych podejściach. W pierwszym podejściu zastosowano selekcję kanałów obrazu źródłowego
( 8.3.1), natomiast drugie podejście było oparte na transformacji danych hiperspektralnych do nowej
przestrzeni spektralnej ( 8.3.2).
8.3.1 Selekcja danych ( feature selection )
W celu sprawdzenia jak liczebność kanałów wpływa na dokładność klasyfikacji dokonano
selekcji kanałów, która nie uwzględniała kryterium wyboru opartego na statystycznych obliczeniach
rozdzielności klas. Selekcję danych wykonano w dwóch wariantach, w oparciu o losowy wybór
poszczególnych kanałów, przeznaczonych do usunięcia z analizowanego zestawu danych.
Pierwszy wariant (selekcja I) zakładał wybór kanałów na podstawie eliminacji co drugiego
kanału źródłowego obrazu Hyperiona, zwierającego 174 kanały. W następnym kroku obraz
o zredukowanej o połowę liczbie kanałów (87) został poddany kolejnej eliminacji kanałów.
Procedurę redukcji powtórzono do momentu uzyskania liczby kanałów mniejszej < 10,
a) b) c) d) e)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
88
charakterystyczną dla obrazów wielospektralnych. W wyniku takiego postępowania z obrazu
źródłowego o liczebności kanałów równej 174, stanowiącego podstawę wszelkich analiz
przeprowadzanych w ramach niniejszej pracy, otrzymano 5 obrazów pochodnych o następującej
liczbie kanałów: 87, 44, 22, 11, 6. Wynikowe obrazy (H87, H44, H22, H11, H6) ( Tab 17− Tab 19)
wykorzystane zostały, jako dane testowe do procedur klasyfikacji przeprowadzanej metodami
tradycyjnymi i zaawansowanymi.
Drugi wariant eliminacji kanałów (selekcja II) uwzględniał liczebność kanałów, która nie
kwalifikuje obrazu do obrazów hiperspektralnych, ale jest większa lub zbliżona do tej, jaką
posiadają sensory wielospektralne. Na podstawie obrazu H22 uzyskanego w poprzednim wariancie
(22 kanały), przygotowano 6 obrazów pochodnych o następującej liczbie kanałów: 20, 18, 16, 14,
12, 10. Wybór kanałów polegał na eliminacji 2 kanałów z każdego kolejno redukowanego obrazu.
Eliminacja przeprowadzana była bez uwzględnienia zakresu spektralnego usuwanych kanałów.
Takie podejście miało na celu przeanalizowanie wpływu liczebności kanałów (bez rozpatrywania
zakresów spektralnych) na poprawę lub pogorszenie parametrów dokładności klasyfikacji opartej
na procedurach statystycznych oraz sprawdzenie jak w przypadku takiej liczebności kanałów
zmienia się dokładność klasyfikacji przeprowadzonej metodami zaawansowanymi. Charakterystyka
spektralna przygotowanych obrazów: H20, H18, H16, H14, H12, H10 została przestawiona w tabeli
( Tab 20).
Tab 17. Charakterystyka spektralna obrazu H87 uzyskanego po selekcji I. Obraz H87
nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm]
1 424,06 23 872,36 45 1295,29 67 1981,38
2 444,44 24 892,74 46 1315,49 68 2001,58
3 464,82 25 913,11 47 1335,59 69 2021,78
4 485,19 26 911,83 48 1446,59 70 2041,98
5 505,57 27 932,02 49 1466,79 71 2062,08
6 525,95 28 952,20 50 1486,99 72 2082,28
7 546,32 29 972,38 51 1507,19 73 2102,48
8 566,70 30 992,56 52 1527,38 74 2122,68
9 587,08 31 1012,69 53 1547,48 75 2142,88
10 607,46 32 1032,89 54 1567,68 76 2162,98
11 627,83 33 1053,09 55 1587,88 77 2183,18
12 648,21 34 1073,29 56 1608,09 78 2203,38
13 668,59 35 1093,49 57 1628,28 79 2223,58
14 688,96 36 1113,59 58 1648,38 80 2243,78
15 709,34 37 1133,79 59 1668,58 81 2263,88
16 729,72 38 1153,99 60 1688,78 82 2284,08
17 750,10 39 1174,19 61 1708,98 83 2304,28
18 770,47 40 1194,39 62 1729,18 84 2324,48
19 790,85 41 1214,59 63 1749,28 85 2344,68
20 811,23 42 1234,69 64 1769,48 86 2364,78
21 831,60 43 1254,89 65 1789,68 87 2384,98
22 851,98 44 1275,09 66 1961,18
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
89
Tab 18. Charakterystyka spektralna obrazu H44 uzyskanego po selekcji I. Obraz H44
nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm]
1 424,06 12 872,36 23 1295,29 34 1981,38
2 464,82 13 913,11 24 1335,59 35 2021,78
3 505,57 14 932,02 25 1466,79 36 2062,08
4 546,32 15 972,38 26 1507,19 37 2102,48
5 587,08 16 1012,69 27 1547,48 38 2142,88
6 627,83 17 1053,09 28 1587,88 39 2183,18
7 668,59 18 1093,49 29 1628,28 40 2223,58
8 709,34 19 1133,79 30 1668,58 41 2263,88
9 750,10 20 1174,19 31 1708,98 42 2304,28
10 790,85 21 1214,59 32 1749,28 43 2344,68
11 831,60 22 1254,89 33 1789,68 44 2384,98
Tab 19. Charakterystyka spektralna obrazów H22, H11, H6 uzyskanych po selekcji I. Obraz H 22 Obraz H11 Obraz H6
nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm] nr kanału dł. fali [nm]
1 424,06 12 1295,29 1 424,06 1 424,06
2 505,57 13 1466,79 2 587,08 2 750,10
3 587,08 14 1547,48 3 750,10 3 1053,09
4 668,59 15 1628,28 4 913,11 4 1466,79
5 750,1 16 1708,98 5 1053,09 5 1789,68
6 831,6 17 1789,68 6 1214,59 6 2263,88
7 913,11 18 2021,78 7 1466,79
8 972,38 19 2102,48 8 1628,28
9 1053,09 20 2183,18 9 1789,68
10 1133,79 21 2263,88 10 2102,48
11 1214,59 22 2344,68 11 2263,88
Tab 20. Charakterystyka spektralna obrazów uzyskanych w wyniku selekcji II (H20, H18, H16, H14, H12, H10).
Obraz H20 Obraz H18 Obraz H16 Obraz H14 Obraz H12 Obraz H10 nr
kanału dł. fali [nm]
nr kanału
dł. fali [nm]
nr kanału
dł. fali [nm]
nr kanału
dł. fali [nm]
nr kanału
dł. fali [nm]
nr kanału
dł. fali [nm]
1 424,06 1 424,06 1 424,06 1 424,06 1 424,06 1 424,06
2 505,57 2 505,57 2 505,57 2 505,57 2 505,57 2 505,57
3 587,08 3 587,08 3 587,08 3 587,08 3 587,08 3 587,08
4 668,59 4 668,59 4 668,59 4 668,59 4 668,59 4 668,59
5 750,10 5 750,10 5 750,10 5 750,10 5 750,10 5 1214,59
6 831,60 6 831,60 6 831,60 6 831,60 6 1214,59 6 1295,29
7 913,11 7 913,11 7 913,11 7 1214,59 7 1295,29 7 1466,79
8 972,38 8 972,38 8 1214,59 8 1295,29 8 1466,79 8 1547,48
9 1053,09 9 1214,59 9 1295,29 9 1466,79 9 1547,48 9 2263,88
10 1214,59 10 1295,29 10 1466,79 10 1547,48 10 1628,28 10 2344,68
11 1295,29 11 1466,79 11 1547,48 11 1628,28 11 2263,88
12 1466,79 12 1547,48 12 1628,28 12 1708,98 12 2344,68
13 1547,48 13 1628,28 13 1708,98 13 2263,88
14 1628,28 14 1708,98 14 1789,68 14 2344,68
15 1708,98 15 1789,68 15 2263,88
16 1789,68 16 2021,78 16 2344,68
17 2021,78 17 2263,88
18 2102,48 18 2344,68
19 2263,88
20 2344,68
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
90
8.3.2 Redukcja danych oparta na transformacji ( feature extraction )
Jak już wspomniano kanały obrazów hiperspektralnych są ze sobą silnie skorelowane w dużo
większym stopniu niż kanały obrazów multispektralnych. W celu dekorelacji kanałów oraz
wyeliminowania nadwymiarowości danych w przypadku obrazu Hyperiona zastosowano metodę
analizy składowych głównych (ang. Principial Components Analysis - PCA), której podstawy
metodyczne zostały szczegółowo omówione w podrozdziale 3.3.2.1. Dla źródłowego obrazu
Hyperiona (174 kanały) wykorzystano moduł „Transform” zaimplementowany w oprogramowaniu
ENVI, w którym dostępna jest procedura transformacji PCA.
Rys. 35. Kompozycja barwna dla kanałów 1, 2, 3 PCA oraz kanały Hyperiona po transformacji PCA (kanały 1−10).
Funkcja „Transform” umożliwiła wykonanie transformacji opartej na macierzy kowariancji
utworzonej ze zbioru wyjściowego. Procedurę transformacji wykonywano w dwóch etapach.
W pierwszym etapie wyznaczona została macierz kowariancji, a następnie obliczone zostały
wartości własne macierzy. Na podstawie analizy wartości własnych przystąpiono do drugiego
etapu, czyli generowania wektorów własnych macierzy kowariancji. W wyniku analizy wartości
własnych wybrano następujące liczby składowych głównych: 3, 5, 6, 10, 50. W ten sposób
dokonano redukcji obrazu wyjściowego, uzyskując pięć obrazów zredukowanych PCA: 3PCA,
5PCA, 6PCA, 10PCA, 50PCA ( Tab 21).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
91
Następnie, w celu wyboru odpowiednich kanałów PCA do przeprowadzenia transformacji
odwrotnej dokonano analizy wizualnej zredukowanych obrazów pod kątem zawartości
informacyjnej poszczególnych kanałów PCA ( Rys. 35). Wykonano również wstępne testy
klasyfikacji nienadzorowanej ISODATA oraz klasyfikacji nadzorowanej Maximum Likelihood dla
wszystkich uzyskanych obrazów PCA. Na podstawie analizy wizualnej i wstępnych wyników
klasyfikacji do transformacji odwrotnej wybrany został obraz zawierający 10 kanałów PCA.
Procedurę transformacji odwrotnej wykonano wykorzystując statystykę obrazu, policzoną podczas
standardowej transformacji PCA. Dzięki temu uzyskano obraz z początkowym wymiarem
przestrzeni spektralnej - 174 kanały (H_inv_10PCA − Tab 21).
Redukcję wymiarowości danych przeprowadzono również za pomocą transformacji Minimum
Nosie Fraction (MNF), opisanej w podrozdziale 3.3.2.2. W pierwszym etapie, na podstawie różnic
jasności obliczony został szum dla każdego kanału analizowanego obrazu Hyperiona. Następnie
obliczony szum został wykorzystany w celu transformacji danych do układu, w którym szum jest
nieskorelowany i równy dla każdego komponentu. W drugim etapie wykonana została standardowa
transformacja PCA, zastosowana do danych skorygowanych ze względu na szum. W rezultacie,
uzyskano obrazy, które zawierały kanały uszeregowane od tych zawierających największą
porcję informacji do kanałów posiadających znaczną przewagę szumów lub tylko szum i zakłócenia
( Rys. 37).
Rys. 36. Wartości własne dla kanałów MNF.
Wartości własne uzyskanych kanałów MNF reprezentowały pojemność informacyjną kanałów,
obliczoną na podstawie macierzy kowariancji w trakcie transformacji MNF. Liczba kanałów MNF dla
obrazów wynikowych została określona po analizie wartości własnych. Selekcji docelowych
kanałów o największym potencjale informacyjnym przeznaczonych do dalszego przetwarzania
dokonano korzystając z wykresu zależności wartości własnych od numeru kanału MNF ( Rys. 36).
Wybrane zostały kanały o najlepszej charakterystyce statystycznej. Analiza wartości własnych
wykazała dużą zbieżność z wynikami analogicznej analizy wykonanej dla kanałów po transformacji
PCA. W celu porównania skuteczności redukcji dla wykorzystanych metod PCA i MNF,
przygotowano zestawy kanałów o identycznej liczbie kanałów transformowanych, jaką wybrano
w przypadku transformacji PCA. Uzyskano w ten sposób pięć obrazów zredukowanych
kanały MNF
War
tośc
i wła
sne
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
92
o liczbie kanałów równej 3, 5, 6, 10, 50. Obrazy wynikowe to 3MNF, 5MNF, 6MNF, 10MNF, 50MNF
( Tab 21).
Rys. 37. Kanały Hyperiona po transformacji MNF (kanały 1-10).
Tab 21. Zestawienie obrazów redukowanych uzyskanych po transformacji PCA i MNF.
Liczba kanałów PCA/MNF Nazwa obrazu po redukcji PCA Nazwa obrazu po redukcji MNF
3 3PCA 3MNF
5 5PCA 5MNF
10 10PCA 10MNF
50 50PCA 50MNF
10* H_inv_10PCA H_inv_10MNF
* - kanały poddane transformacji odwrotnej PCA/MNF
8.4 Symulacja obrazów wielospektralnych na podstawi e danych hiperspektralnych
W celu zbadania założeń wysuniętych w ramach niniejszej pracy doktorskiej,
przeprowadzonych zostało szereg procedur umożliwiających uzyskanie obrazów symulowanych.
Symulacja wykonana została zarówno przy użyciu parametru SRF (rozdz. 3.7.1), jak i na zasadzie
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
93
wyboru konkretnych kanałów obrazu hiperspektralnego o określonych właściwościach spektralnych,
charakterystycznych dla sensorów wielospektralnych ALI, Landsat, Aster i Spot, powszechnie
wykorzystywanych we współczesnej teledetekcji.
8.4.1 Symulacja na podstawie doboru zakresów rejest racji kanałów sensorów wielospektralnych
Symulacja obrazów polegająca na wybraniu odpowiednich kanałów obrazu hiperspektralnego
Hyperiona przeprowadzona została w dwóch różnych podejściach. Ten sposób przygotowania
obrazów miał dać przyczynek do odpowiedzi na pytanie:
Czy na dokładność klasyfikacji ma wpływ: liczebność kanałów w danym zakresie spektralnym
czy jedynie obecność informacji spektralnej dla danego zakresu spektralnego (niezależnie od liczby
kanałów)?
Pierwszy wariant symulacji danych (symulacja I) opierał się na założeniu, iż wybrane kanały
reprezentują zakresy spektralne kanałów rejestrowanych przez sensory wielospektralne ALI,
Landsat, Spot, Aster. Takie podejście uwzględniało informację spektralną zarejestrowaną w całym
zakresie charakterystycznym dla danego kanału sensora wielospektralnego, która ma swój udział
w sygnale rejestrowanym przez określoną liczbę kanałów obrazu hiperspektralnego
(od 3 do 28 kanałów). Z uwagi na bardzo dużą rozdzielczość spektralną Hyperiona (ok. 10 nm)
w stosunku do rozdzielczości wymienionych sensorów wielospektralnych (rozdzielczość
spektralna 30−270 nm), uzyskane w wyniku symulacji obrazy zawierały zróżnicowaną liczbę
kanałów ( Tab 22). W wyniku opisanej powyżej procedury symulacji otrzymano obrazy
o następującej liczbie kanałów: 94 (ALI), 85 (Landsat), 45 (Spot), 63 (Aster).
Tab 22. Zestawienie kanałów Hyperiona wykorzystanych do przygotowania obrazów symulujących odpowiedź spektralną charakterystyczną dla sensorów wielospektralnych (symulacja I). ALI
[nm]
Nr kanału
Hyperiona
LANDSAT [nm]
Nr kanału
Hyperiona
SPOT [nm]
Nr kanału
Hyperiona
ASTER [nm]
Nr kanału
Hyperiona
1’ 433-453 1-3 x x x x x x
1 450-515 4-10 450-515 4-10 x x x x
2 525-605 11-19 525-605 11-19 500-590 9-17 500-590 9-18
3 630-690 21-27 630-690 21-27 610-680 19-26 610-680 21-27
4 775-805 36-38 760-900 34-47 790-890 37-47 790-890 36-44
4’ 845-890 42-47 x x x x x x
5’ 1200-1300 78-87 x x x x x x
5 1550-1750 112-132 1550-1750 112-132 1580-1750 116-132 1600 - 1700 117-127
6 x x x x x x 2145-2185 171-175
7 2080-2350 165-192 2090-2350 166-192 x x 2185-2225 176-179
8 x x x x x x 2235-2285 180-185
9 x x x x x x 2295-2365 186-193
10 x x x x x x 2360-2430 194-196
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
94
W przypadku wymienionych konfiguracji symulowanych sensorów Landsat (85) i Spot (45),
można zauważyć dużą zbieżność, jeżeli chodzi o liczbę kanałów, jaką uzyskano podczas selekcji
kanałów metodą nadzorowaną (rozdz. 8.3.1), gdzie obrazy po selekcji I posiadały 87 i 44 kanały.
Wyniki klasyfikacji dla tych obrazów zostały w dalszym etapie badań wykorzystane w celu ich
porównania. Biorąc pod uwagę zupełnie różne podejście do konfiguracji kanałów tworzących obraz
tj.: zupełnie przypadkowy dobór kanałów (selekcji I) i ściśle zamierzony wybór (symulacji I) - rezultat
porównania powinien dać cząstkową odpowiedzieć na postawione wyżej pytanie.
Drugi wariant symulacji (symulacja II) polegał na przygotowaniu obrazów o liczbie kanałów
odpowiadającej liczbie kanałów, dla której następuje rejestracja odpowiedzi spektralnej przez
sensory wielospektralne tj.
− ALI – 9 kanałów (6 VNIR, 3 SWIR),
− LANDSAT – 6 kanałów (4 VNIR, 2 SWIR),
− ASTER – 9 kanałów (3 VNIR, 6 SWIR) kanałów,
− SPOT – 4 kanały (3 VNIR, 1 SWIR).
Przy czym, kanały wybierano w ten sposób, aby długość fali danego kanału Hyperiona była
najbliższa średniej długości fali dla zakresu promieniowania elektromagnetycznego, w którym
odbywa się rejestracja odpowiedzi spektralnej danego sensora.
Tab 23. Zestawienie kanałów Hyperiona wykorzystanych do przygotowania obrazów symulujących odpowiedź spektralną charakterystyczną dla sensorów wielospektralnych (symulacja II).
ALI (zakresy
spektralne) [nm]
Nr kanału Hyperiona dł. fali [nm]
Landsat (zakresy
spektralne) [nm]
Nr kanału Hyperiona dł. fali [nm]
SPOT (zakresy
spektralne) [nm]
Nr kanału Hyperiona dł. fali [nm]
ASTER (zakresy
spektralne) [nm]
Nr kanału Hyperiona dł. fali [nm]
1’ 433-453 3 (444,44) x x x x x x
1 450-515 7 (485,19) 450-515 6 (475,01) x x x x
2 525-605 15 (566,70) 525-605 15 (566,70) 500-590 13 (546,32) 520-600 14 (556,51)
3 630-690 24 (658,40) 630-690 24 (658,40) 610-680 23 (648,21) 630-690 24 (658,40)
4 775-805 37 (790,85) 750-900 41 (831,60) 790-890 41 (831,60) 780-860 40 (821,42)
4’ 845-890 45 (872,36) x x x x x x
5’ 1200-1300 82 (1244,79) x x x x x x
5 1550-1750 121(1638,28) 1550-1750 121(1638,28) 1580-1750 120(1628,28) 1600-1700 123(1658,48)
6 x x x x x x 2145-2185 173(2162,98)
7 2080-2350 179(2223,58) 2090-2350 177(2203,38) x x 2185-2225 177(2203,38)
8 x x x x x x 2235-2285 183(2263,88)
9 x x x x x x 2295-2365 189(2324,48)
10 x x x x x x 2360-2430 196(2395,08)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
95
W przypadku przeprowadzonej symulacji z zakresu VNIR i SWIR dla 174 kanałów
wyjściowego obrazu Hyperiona, w wyniku zastosowania powyższego kryterium uzyskano 4 obrazy
pochodne o liczbie kanałów odpowiednio 9, 6, 4, 9. Dla sensora ALI wyselekcjonowano 9 kanałów
o numerach: 3 (444,44 nm), 7 (485,19 nm), 15 (566,70 nm), 24 (658,40 nm), 37 (790,85 nm),
45 (872,36 nm), 82 (1244,79), 121 (1638,28), 179 (2223,58). Dla Landsata wybrano 6 kanałów:
6 (475,01 nm), 15 (566,70 nm), 24 (658,40 nm), 41 (831,60 nm), 121(1638,28), 177 (2203,38 nm),
Natomiast w celu symulacji danych Astera wyselekcjonowanych zostało następujące 9 kanałów:
14 (556,51 nm), 24 (658,40 nm), 40 (821,42 nm), 123 (1658,48 nm), 173 (2162,98 nm),
177 (2203,38 nm), 183 (2263,88 nm), 189 (2324,48 nm), 196 (2395,08 nm). Do symulacji obrazu
Spota wykorzystano następujące 4 kanały Hyperiona: 13 (546,32 nm), 23 (648,21 nm),
41 (831,60 nm), 120 (1628,28 nm). Wykaz kanałów poszczególnych sensorów wykorzystanych
podczas symulacji zestawiono w tabeli ( Tab 23).
8.4.2 Symulacja funkcj ą odpowiedzi spektralnej ( Spectral Response Function )
W ramach prowadzonych badań przygotowane zostały odpowiednie pliki zawierające funkcje
SRF (rozdz. 3.7.1) zgodne z charakterystyką spektralną (spectral responce) poszczególnych
kanałów wszystkich analizowanych w pracy sensorów ALI, Landsat, Spot, Aster. Na ich podstawie
w programie ENVI przeprowadzony został resampling spektralny obrazu Hyperiona, w wyniku,
którego uzyskano zasymulowane obrazy. Przy czym ze względu na rodzaj wykorzystanej w tym
celu informacji, symulacja przeprowadzona została dwoma różnymi sposobami.
W pierwszym podejściu do resamplingu spektralnego wykorzystane zostały tylko średnie
wartości długości fal dla zakresu spektralnego każdego kanału. Funkcję odpowiedzi spektralnej
zasymulowano używając modelu Gaussa. Szerokość połówkowa FWHM została obliczona na
podstawie odległości między średnimi wartościami długości fal dla sąsiednich kanałów (odległość
między środkami zakresów sąsiednich kanałów).
Natomiast w drugim podejściu do procedury „przepróbkowania” spektralnego wykorzystano
obydwa parametry, a mianowicie środki zakresów oraz rzeczywiste wartości szerokości połówkowej
FWHM, uzyskane ze strony internetowej dostawców obrazów z poszczególnych sensorów. W tym
przypadku modelowanie odpowiedzi spektralnej wykonane zostało przy użyciu modelu Gaussa,
który wykorzystywał odpowiednie wartości FWHM dla każdego z sensorów.
W wyniku obydwu opisanych powyżej podejść uzyskano dwa zestawy obrazów „markujących”
odpowiedzi spektralne analizowanych sensorów wielospektralnych. W celu sprawdzenia
poprawności przeprowadzonej symulacji dla poszczególnych obrazów policzona została korelacja
pomiędzy odpowiadającymi sobie kanałami danych oryginalnych i danych symulowanych.
Nieznacznie lepsze wyniki uzyskano dla drugiej opcji, dlatego do testowania metod ekstrakcji
informacji wykorzystano drugi zestaw obrazów. Ich charakterystyka spektralna została
przedstawiona w tabeli ( Tab 24).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
96
Tab 24. Charakterystyka spektralna obrazów (ALI, Landsat, Spot, Aster) uzyskanych w wyniku symulacji SRF na podstawie obrazu Hyperiona. ALI
[nm] ALI_SRF
[nm] LANDSAT
[nm] Lan_SRF
[nm] SPOT [nm]
Spot_SRF [nm]
ASTER [nm]
Aster_SRF [nm]
1’ 433-453 443 x x x x x x
1 450-515 482 450-515 479 x x x x
2 525-605 565 525-605 561 500-590 542 500-590 555
3 630-690 660 630-690 661 610-680 652 610-680 658
4 775-805 790 760-900 835 790-890 835 790-890 805
4’ 845-890 867 x x x x x x
5’ 1200-1300 1250 x x x x x x
5 1550-1750 1650 1550-1750 1651 1580-1750 1629 1600 - 1700 1655
6 x x x x x x 2145-2185 2166
7 2080-2350 2215 2090-2350 2209 x x 2185-2225 2207
8 x x x x x x 2235-2285 2264
9 x x x x x x 2295-2365 2333
10 x x x x x x 2360-2430 2396
8.5 Ekstrakcja informacji
W niniejszym rozdziale przedstawiona zostanie metodyka ekstrakcji informacji wykonanej za
pomocą metod tradycyjnych ( 8.5.1) oraz metod dedykowanych danym hiperspektralnym ( 8.5.2).
8.5.1 Klasyfikacja metodami tradycyjnymi
W celu zbadania działania poszczególnych klasyfikatorów dla różnej konfiguracji i liczebności
kanałów, klasyfikację nadzorowaną dla wszystkich obrazów uzyskanych w wyniku redukcji
i symulacji przeprowadzono metodami Maximum Likelihood (ML), Mahalanobis Distance (MhD),
Minimum Distance (MD). Do celów klasyfikacji przygotowany został odpowiedni zestaw danych
referencyjnych. Jako materiały ułatwiające identyfikację podstawowych form pokrycia terenu
wykorzystano ortofotomapę i mapę topograficzną udostępnione przez Geoportal.gov.pl. jako usługa
WMS. Dla źródłowego obrazu Hyperiona wykonano także klasyfikację nienadzorowaną metodami
ISODATA oraz K-means w celu uzyskania dodatkowych informacji na temat liczby i rodzaju klas
przewidzianych w klasyfikacji nadzorowanej. Wszystkie procedury klasyfikacyjne (nadzorowane
i nienadzorowane) łącznie z wyborem pól treningowych przeprowadzone zostały za pomocą
oprogramowania ENVI. Ze względu na charakter prowadzonych w pracy analiz liczba klas została
ograniczona do następujących pięciu klas:
1. wody,
2. tereny odkryte/rolne,
3. lasy,
4. tereny zielone,
5. tereny przemysłowe zabudowa.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
97
Klasa „wody ” obejmowała wszystkie wody płynące (rzeka Wisła, Raba) i stojące (Zbiornik
Dobczycki oraz pozostałe zbiorniki m.in. żwirownia K.Z.E.K., zbiorniki w Przylasku Rusieckim,
osadniki oczyszczalni ścieków, stawy Kępa, inne). Grunty orne oraz tereny odkryte zostały
przyporządkowane do klasy „tereny odkryte ”. Natomiast jako klasę „tereny zielone ” wybrane
zostały piksele reprezentujące łąki, pastwiska, uprawy (m.in. zboża, kukurydza, tytoń). Z uwagi na
słabą rozdzielczość przestrzenną analizowanych obrazów (30m), jak również na cel
przeprowadzanej klasyfikacji przyjęto, że obszar zabudowy miejskiej i wiejskiej (zwartej) oraz
obszary o zagospodarowaniu przemysłowym (w tym teren kompleksu H.T.S. oraz składowisko
żużlu „Slag”) będą reprezentowane przez klasę „tereny przemysłowe/zabudowa” . W podobny
sposób zdefiniowana została klasa „lasy” . Ze względu na porównawczy charakter badań nie
rozróżniano obiektów typu drzewa. Roślinność krzaczasta, obszary lasów oraz zagajników, zostały
wydzielone jako klasa „lasy ” . Liczba pozyskanych pikseli dla wszystkich klas została dopasowana
do wymogów jakie muszą być spełnione dla obrazu o największej liczbie pikseli czyli dla obrazu
Hyperiona (174 kanały) (rozdz. 3.4.2).
Dla wszystkich przygotowanych pól treningowych przeprowadzono kontrolę jakości polegającą
na obliczeniu rozłączności sygnatur zdefiniowanych klas uzyskanych na podstawie poszczególnych
konfiguracji i zestawów analizowanych obrazów. Do obliczeń separatywności klas zastosowano
dwa algorytmy: odległość Jeffries-Matusita (JM) oraz transformowaną dywergencję (TD). Obydwie
miary (JM, TD) mogą przyjmować wartości z przedziału od 0 do 2. Według Swain i King (1978)
zadawalający wynik klasyfikacji można uzyskać przy wartościach powyżej 1,75. W przypadku
prowadzonej kontroli rozłączności klas analiza wyników dla poszczególnych klas umożliwiła
wyeliminowanie błędów powstałych w procesie pozyskiwania pól treningowych. Dla wszystkich miar
JM oraz TD, które nie spełniały warunku otrzymania wystarczająco dokładnej klasyfikacji,
przygotowano nowe, poprawione zestawy pikseli treningowych i przeprowadzono ponownie
procedurę obliczenia rozłączności klas.
8.5.2 Zaawansowane metody klasyfikacji obrazów
Obraz Hyperiona oraz jego pochodne (obrazy po selekcji, transformacji, symulacji) zostały
sklasyfikowane za pomocą metod zaawansowanych SAM (Spectral Angle Mapper), SFF (Spectral
Feature Fitting), LSU (Linear Spectral Unmixing), MF (Matched Filtering). Klasyfikacja została
podzielona na dwie grupy. Podział związany jest ze specyfiką metod, wykorzystanych do
klasyfikacji. Pierwszą grupę stanowiły metody pikselowe (SAM, SFF) (rozdz. 3.5.1), natomiast
drugą grupę metody rozmieszania spektralnego tzw. metody podpikelowe (LSU, MF) (rozdz. 3.5.2).
Procedura klasyfikacyjna różniła się w zależności od stosowanej metody. Dla wszystkich
metod klasyfikacji użyto tego samego zestawu danych referencyjnych. W tym celu niezbędne było
przygotowanie właściwych bibliotek spektralnych, na podstawie których możliwa była ekstrakcja
informacji (rozdział 3.5.3). Z uwagi na brak terenowych danych spektrometrycznych dla całego
zakresu VNIR i SWIR, należało przygotować referencyjne krzywe spektralne bazujące na danych
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
98
obrazowych. W ramach prowadzonych badań wykorzystano 2 sposoby generowania krzywych
wzorcowych.
Pierwszy zestaw krzywych referencyjnych uzyskano w wyniku zastosowania procedury
indeksu pikseli czystych spektralnie tzw. indeksu PPI (Pixel Purity Index) (rozdz. 3.5.3.1).
Procedura PPI została przeprowadzona dla obrazu po transformacji MNF, wykonanej dla Hyperiona
(po pre-processingu). Wartości pikseli uzyskanego obrazu PPI stanowiły krotność, z jaką dany
piksel został zarejestrowany jako ekstremalny (spektralnie czysty). Procedurę wykonano w 20 0000
iteracji, z progiem znakowania pikseli równym 2,5. W oparciu o statystykę obliczoną dla
uzyskanego obrazu PPI, wybrane zostały grupy pikseli reprezentujące określone formy pokrycia
terenu (zgodne z klasami wykorzystywanymi w klasyfikacji metodami tradycyjnymi – podrozdz.
8.5.1).
W celu sprawdzenia poprawności uzyskanych krzywych, zastosowano dodatkowo procedurę
wizualizacji chmury punktów w N-wymiarowej przestrzeni tworzonej przez kanały spektralne obrazu
(N − liczba kanałów obrazu hiperspektralnego). W przestrzeni N−wymiarowej czyste
piksele znajdowały się na zewnętrznych obszarach „chmury spektralnej”. Przy użyciu narzędzia
N−visualiser zaimplementowanego w oprogramowaniu ENVI, przeprowadzono analizę położenia
pikseli i ich zakresów wartości, a następnie dokonano selekcji poszczególnych grup pikseli
należących do określonych klas. Technika wizualizacji N−wymiarowej w znacznym stopniu ułatwiła
selekcję czystych pikseli w przestrzeni spektralnej. Uzyskane z czystych pikseli krzywe spektralne
poddano analizie za pomocą narzędzia Spectral Analyst, umożliwiającego identyfikację obiektów na
podstawie ich charakterystyk spektralnych. Krzywe spektralne (endmembersy), które otrzymano
w wyniku przeprowadzenia procedur MNF, PPI i N−visualiser, Spectral Analyst zostały
przedstawione na rysunku ( Rys. 38).
Drugi sposób przygotowania referencyjnych krzywych spektralnych był oparty na
wykorzystaniu wzorców z klasyfikacji nadzorowanej. Wykorzystano zbiory pikseli, które posłużyły,
jako pola treningowe w procedurach klasyfikacji ML, MhD, MD. Dla poszczególnych grup pikseli
wzorcowych policzone zostały statystyki, na podstawie, których wygenerowano charakterystyki
spektralne klas zdefiniowanych do celów klasyfikacji nadzorowanej.
Krzywe uzyskane w wyniku uśrednienia odpowiedzi spektralnej pikseli wzorcowych
przedstawiono na rysunku ( Rys. 39). Zastosowanie tych samych danych referencyjnych dla
różnych procedur klasyfikacyjnych (tradycyjnych i zaawansowanych) umożliwiło porównanie
wydajności i dokładności zastosowanych metod.
W każdej procedurze klasyfikacyjnej z wykorzystaniem metod zaawansowanych krzywe
spektralne zastosowane jako wzorzec podlegały procedurze resampligu spektralnego do zakresów
spektralnych obrazu poddawanego klasyfikacji. Na rysunkach poniżej przedstawione zostały
krzywe uzyskane po „przepróbkowaniu” wartości odpowiedzi spektralnej do odpowiednich
długości fal dla poszczególnych zestawów danych: symulacji I ( Rys. 40), symulacji II ( Rys. 41),
selekcji I ( Rys. 42), selekcji II ( Rys. 43). Wizualizacja krzywych spektralnych po resamplingu do
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
99
charakterystyki spektralnej obrazów symulacji SRF jest bardzo zbliżona do krzywe referencyjnych
po procedurze resamplingu wykonanej dla symulacji II ( Rys. 41). W przypadku obrazów po
transformacji MNF wszystkie krzywe spektralne wykorzystane jako krzywe referencyjne zostały
przetransformowane do postaci MNF ( Rys. 44).
Rys. 38. Krzywe spektralne (endmembersy) uzyskane na podstawie procedury PPI.
Rys. 39. Krzywe spektralne uzyskane w wyniku uśredniania pikseli należących do pól treningowych wykorzystanych w metodach
nadzorowanej klasyfikacji tradycyjnej.
Rys. 40. Krzywe referencyjne (z pól treningowych) poddane procesowi resamplingu spektralnego do zakresów spektralnych
obrazów symulacji I (Hyperion, ALI, Aster, LAN, Spot) biorących udział w klasyfikacji metodami zaawansowanymi.
Hyperion ALI_SI Landsat_SI Spot_SI
1 - Wody
2 - Tereny przemysłowe
/zabudowane
3 - Lasy
4 - Tereny zielone
5 - Grunty orne
Odp
owie
dź
spek
tral
na
1 - Wody
2 - Tereny przemysłowe
/zabudowane
3 - Lasy
4 - Tereny zielone
5 - Tereny okryte/ grunty
orne/
Odp
owie
dź
spek
tral
na
Aster_SI
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
100
Rys. 41. Krzywe referencyjne (z pól treningowych) poddane procesowi resamplingu spektralnego do zakresów spektralnych
obrazów symulacji II (Hyperion, ALI, Aster, LAN, Spot) biorących udział w klasyfikacji metodami zaawansowanymi.
Rys. 42. Krzywe referencyjne (z pól treningowych) poddane procesowi resamplingu spektralnego do zakresów spektralnych
obrazów selekcji I (H87, H44, H22, H11, H6) biorących udział w klasyfikacji metodami zaawansowanymi.
Rys. 43. Krzywe referencyjne (z pól treningowych) poddane procesowi resamplingu spektralnego do zakresów spektralnych
obrazów selekcji II (H20, H18, H16, H14, H12, H10) biorących udział w klasyfikacji metodami zaawansowanymi.
Rys. 44. Krzywe spektralne przetransformowane do postaci MNF wykorzystane jako dane referencyjne w klasyfikacji
zaawansowanej obrazów poddanych transformacji MNF.
Oprócz danych referencyjnych dla każdej z metod należało wskazać wartości odpowiednich
parametrów, które pozwalały na prawidłową klasyfikację obrazów. W metodzie SAM należy wybrać
odpowiednią wartość kąta granicznego (rozdz 3.5.1.1). Kąty podawane w radianach wskazywały
Hyperion ALI_SII Aster_SII Landsat_SII Spot_SII
H20 H18 H14 H10
H87 H44 H22 H11 H6
H16 H12
MNF_ Wody
MNF_Tereny przemysłowe
/zabudowane
MNF_Lasy
MNF_Tereny zielone
MNF_Grunty orne
Nr kanału MNF
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
101
maksymalną różnicę kątową, dla której piksel został sklasyfikowany jako dana klasa. W przypadku
analizowanych obrazów kąty graniczne miały różną wartość w zależności od wzorca oraz ze
względu na obraz, który poddawany był procedurze klasyfikacji SAM (tylko obrazy po selekcji
i symulacji). Wartości kąta granicznego dla wykorzystywanych wzorców zawierały się w przedziale
od 0,1 do 0,5 rad. Procedura właściwego doboru wartości kąta granicznego okazała się bardzo
czasochłonna i wymagała dobrej znajomości klasyfikowanego obszaru.
W przypadku metody SAM dodatkowo przeprowadzono test mający na celu zbadanie czy
forma zapisu obrazu wynikowego klasyfikacji wpływa na szacowanie dokładności całkowitej
klasyfikacji. Wyniki klasyfikacji zapisane zastały jako ( Rys. 45):
1) pojedynczy obraz klasyfikacji pikselowej przedstawiający przyporządkowanie pikseli do
poszczególnych klas reprezentowanych przez krzywe wzorcowe ( Rys. 45 a),
2) n - kanałowy obraz wyniku klasyfikacji (Rule Image), w którym każdy kanał zawiera piksele
o wartościach od 0 do 1, stanowiące prawdopodobieństwo dopasowania do danej krzywej
wzorcowej (n - liczba wzorców) ( Rys. 45 b).
Rys. 45. Forma zapisu wyników klasyfikacji SAM a) pikselowy obraz klasyfikacji b) Rule Images - obrazy stopnia dopasowania
krzywych pikselowych do krzywych wzorcowych (kolor biały – 100% dopasowanie, kolor czarny – 0% dopasowania): 1 - wody,
2 - tereny przemysłowe/zabudowa,3 - lasy, 4 - tereny zielone, 5 - tereny odkryte.
Dla drugiego wariantu zastosowano procedurę progowania wartości uzyskanych dla
poszczególnych klas/frakcji (obrazy Rule). Procedurę wykonano za pomocą narzędzia Rule
Classifier zaimplementowanego w oprogramowaniu ENVI. Każdy z obrazów klas/frakcji został
przeanalizowany indywidualnie ze względu na wartości pikseli stanowiących stopień dopasowania
do wzorcowej krzywej spektralnej. Do analizy wykorzystano histogramy oraz statystykę (wartości
maksymalne, minimalne, średnie oraz odchylenie standardowe) poszczególnych obrazów frakcji.
5 a) b) 1 2 3 4
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
102
Klasyfikacja została przeprowadzona według minimalnych wartości progów wybranych
indywidualnie dla każdego obrazu Rule.
W klasyfikacji SFF (rozdz. 3.5.1.2), krzywe spektralne: referencyjna i obrazowa porównywane
są po standaryzacji do postaci kontinuum, w pierwszej fazie utworzony został obraz Continuum
Removed (CR). Następnie, krzywa spektralna każdego piksela obrazu była porównana z krzywą
referencyjną za pomocą metody najmniejszych kwadratów. Z uwagi na brak możliwości
przeprowadzenia procedury usunięcia kontinuum dla obrazów transformowanych, dane po
transformacji PCA i MNF nie były klasyfikowane za pomocą metody SFF.
W przypadku metod podpikselowych (LSU, MF) bardzo duży wpływ na dokładność wyników
spektralnego rozmieszania liniowego pikseli ma wybór referencyjnych krzywych spektralnych
przyjętych jako spektralnie czyste. W ramach testów ustalono 2 warianty postępowania:
− Wariant I - opierał się na wzorcach spektralnych uzyskanych na podstawie pól
treningowych wykorzystywanych w metodach tradycyjnych ( Rys. 39).
− Wariant II - polegał na wykorzystaniu do klasyfikacji krzywych z biblioteki spektralnej,
zawierającej czyste spektralnie piksele (endmembersy) ( Rys. 38) uzyskane po
przeprowadzeniu procedury PPI i N−Visualiser.
8.5.3 Szacowanie dokładno ści wyników ekstrakcji informacji
W ramach prezentowanych w niniejszej pracy badań dla wszystkich obrazów poddanych
procedurze klasyfikacji, zarówno tradycyjnej, jak i zaawansowanej wykonano szereg obliczeń
zmierzających do oceny dokładności uzyskanych wyników. Zważywszy na brak odpowiedniej mapy
tematycznej, która stanowiłaby zestaw danych referencyjnych dostosowanych do specyfiki terenu
i charakteru badań przeprowadzonych w ramach niniejszej pracy, procedurę szacowania
dokładności wykonano na podstawie obrazu przygotowanego specjalnie do celów analizy
dokładności klasyfikacji. Wszystkie dokładności policzone zostały względem obrazu referencyjnego
uzyskanego w wyniku klasyfikacji źródłowego obrazu Hyperiona (174 kanałów) ( Rys. 46A).
Klasyfikację przeprowadzono metodą SAM w kilkudziesięciu iteracjach, uwzględniających poprawki
i korekty wykonywane po wywiadzie terenowym oraz analizie dostępnych materiałów
pochodzących z okresu rejestracji obrazu Hyperiona (ortofotomapa lotnicza i satelitarna).
Wykorzystanie klasyfikacji SAM do wygenerowania mapy referencyjnej było możliwe, dzięki
szczegółowej dokumentacji sporządzonej podczas kartowania terenowego przeprowadzonego kilka
dni po rejestracji obrazu (przełom czerwca i lipca 2006). Metodyczne założenia klasyfikacji SAM
pozwoliły z wysoką pewnością zidentyfikować poszczególne klasy pokrycia terenu.
Dla obrazów sklasyfikowanych metodami nadzorowanymi (ML, MhD, MD) zastosowano
metodę macierzy rozbieżności, na podstawie której policzono dokładność całkowitą (OA - overall
occuracy) dokładności producenta i użytkownika (PA - producent accuracy, UA - user accuracy),
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
103
błędy przeszacowania i pominięcia (CE - comission error, OE - omission error ) oraz współczynnik
kappa (kappa coefficient).
Dla obrazów, gdzie wynikiem były obrazy klas/frakcji zawierające wartości stopnia
dopasowania krzywych spektralnych lub prawdopodobieństwa należenia do danej klasy (SFF, MF,
LSU) zastosowano odpowiednią metodę szacowania dokładności dla klasyfikacji podpikselowej.
W Polsce brakuje opracowań na temat „rozmytych map tematycznych” uzyskiwanych w wyniku
analiz miękkich, które mogłyby stanowić źródło danych referencyjnych w metodach szacowania
dokładności (np. cross entropy – rozdz. 3.6.2). W związku z tym, koniecznym było wykorzystanie
metody, która umożliwiała wykorzystanie mapy referencyjnej, będącej podstawą obliczenia
dokładności dla tradycyjnych metod klasyfikacji. Ze względu na dużą liczbę obrazów poddanych
klasyfikacji zaawansowanej oraz w celu porównania parametrów dokładnościowych uzyskanych dla
obrazów klasyfikowanych za pomocą klasyfikatorów tradycyjnych, wybrana została metoda
współczynnika poprawności klasyfikacji (CC) opisana szczegółowo w rozdziale 3.6.2. Głównym
parametrem dokładnościowym tej metody jest dokładność całkowita (CC) i dokładności
poszczególnych klas/frakcji (CCi).
Z uwagi na brak zaimplementowanego narzędzia do automatycznego obliczania
współczynnika CC w dostępnym oprogramowaniu teledetekcyjnym, niezbędne było przygotowanie
własnego skryptu, gdzie zastosowano odpowiednie formuły oparte na wzorach ( 3.6.2), dzięki
którym obliczono parametr CC charakteryzujący dokładność klasyfikacji całego obrazu oraz
parametry dokładnościowe (CC1-5) określające dokładność poszczególnych klas. W tym celu
wybrano środowisko Matlab, w którym przygotowano odpowiednią strukturę kodu dla
poszczególnych parametrów. Dla poprawnego działania kodu konieczne było właściwe
przygotowanie danych wejściowych w postaci obrazów referencyjnych dla poszczególnych klas
i wynikowych obrazów klasyfikacji SFF, LSU, MF. Dane te przygotowano w środowisku
oprogramowania ENVI. Pięć obrazów binarnych Bi stanowiących wzorce dla każdej z klas
(podrozdz. 3.6.2), wyekstrahowano z obrazu referencyjnego ( Rys. 46A). W uzyskanych obrazach
piksele o wartości 1 stanowiły lokalizację danej klasy ( Rys. 46 B1−5): 1B - wody, 2B -
zabudowa/przemysłowe, 3B - lasy, 4B - tereny zielone, 5B - tereny odkryte. Natomiast
w przypadku wyników klasyfikacji uzyskanych metodami SFF, LSU, MF, składających się z pięciu
kanałów każdy (1 obraz każdej klasy), wyeksportowano oddzielne pliki dla każdej z klas/frakcji - Fi
(przykład zamieszczono w rozdziale 9.2.2 (Wyniki klasyfikacji podpikselowej) - Rys. 69, Rys. 70).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
104
Rys. 46. Dane referencyjne: A - obraz referencyjny złożony z 5 klas referencyjnych (wody - niebieski, tereny
przemysłowe/zabudowa - czerwony, lasy - zielony, tereny zielone- żółty, tereny odkryte – cyjan) wykorzystany do szacowania
dokładności klasyfikacji przy użyciu macierzy rozbieżności,
Bi - obrazy binarne reprezentujące wzorce poszczególnych klas (B1 - wody, B2 - tereny przemysłowe/zabudowa, B3 - lasy,
B4 - tereny zielone, B5 - tereny odkryte) wykorzystane do szacowania dokładności klasyfikacji metod SFF, LSU, MF za
pomocą współczynnika CC – jasne piksele stanowią lokalizację danego wzorca w obrazie.
B2 B3 B1 B4
1 B5A
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
105
9. Wyniki ekstrakcji informacji
9.1 Klasyfikacja obrazów metodami klasycznymi
W wyniku klasyfikacji metodami tradycyjnymi obrazów testowych uzyskano serię obrazów
zaprezentowanych na rysunkach ( Rys. 47 - Rys. 59). Rysunki oznaczone jako a, b, c przedstawiają
wyniki klasyfikacji metodami odpowiednio Maximum Likelihood (ML), Mahalanobis Distance (MhD),
Minimum Distance (MD). Na wszystkich rysunkach wydzielania (klasy) zostały oznaczone jako:
1 - wody (niebieski), 2 - tereny przemysłowe/zabudowa (czerwony), 3 - lasy (zielony), 4 - tereny
zielone (żółty), 5 - tereny odkryte (cyjan). Uzupełnieniem rysunków są tabele ( Tab 25 - Tab 31),
w których znajdują się parametry dokładnościowe uzyskane na podstawie macierzy rozbieżności
dla każdego z klasyfikowanych obrazów (dokładność całkowita – OA, współczynnik kappa,
dokładność producenta – PA, dokładność użytkownika – UA, błąd przeszacowania – CE, błąd
pominięcia – OE). Wszystkie parametry za wyjątkiem współczynnika kappa wrażone zostały
w procentach (%). Dodatkowo, na wykresach ( Rys. 48 - Rys. 60) przedstawiono zmienność
wartości dokładności całkowitej dla poszczególnych metod, w zależności od klasyfikowanego
obrazu. W kolejnych podrozdziałach omówione zostały wyniki uzyskane w klasyfikacji obrazów po
selekcji, transformacji i symulacji.
9.1.1 Wyniki klasyfikacji obrazów po redukcji
W niniejszym podrozdziale zamieszczone zostały wyniki klasyfikacji przeprowadzonej
metodami tradycyjnymi na obrazach o zredukowanej liczbie kanałów. W dwóch pierwszych
podrozdziałach ( 9.1.1.1, 9.1.1.2) przestawiono i omówiono wyniki dla obrazów po selekcji
polegającej na redukcji manualnej co drugiego kanału ( Rys. 47, Rys. 49), natomiast w kolejnych
dwóch podrozdziałach ( 9.1.1.3, 9.1.1.4) zaprezentowano wyniki klasyfikacji uzyskane dla obrazów
transformowanych za pomocą metod PCA i MNF ( Rys. 51, Rys. 53). Zestawienie parametrów
dokładnościowych znajduje się w tabelach ( Tab 27, Tab 28), natomiast porównanie wartości
dokładności w zależności od liczby kanałów obrazów po selekcji i transformacji zaprezentowano na
wykresach ( Rys. 48, Rys. 50, Rys. 52, Rys. 54).
9.1.1.1 Selekcja I
Analizując wyniki klasyfikacji wykonanej dla obrazów uzyskanych w wyniku selekcji I ( Tab 25,
Rys. 47, Rys. 48) można zaobserwować równomierny rozkład dokładności w przypadku metody
MD, w której liczba kanałów nie miała istotnego wpływu na wynik klasyfikacji. Pozostałe dwie
metody (ML i i MhD) są wrażliwe na redukcję liczby kanałów (od 174 do 6). W metodzie ML
obserwujemy wzrost dokładności (od 57% do 63%) wraz z ze zmniejszającą się liczbą kanałów.
Tendencja wzrostowa zaznacza się jednak tylko do liczby 11 kanałów, dla której dokładność osiąga
najwyższą wartość ponad 70%. Dalsza redukcja (do 6 kanałów) spowodowała spadek dokładności
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
106
do poziomu uzyskanego dla 22 kanałów (64%). W metodzie MhD dokładności całkowite utrzymują
się w zasadzie na podobnym poziomie ok. 52% dla obrazów od 174 do 22 kanałów.
Rys. 47. Wyniki klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazu Hyperiona
(174k) oraz dla obrazów po selekcji I: H87, H44, H22, H11, H6.
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
107
Tab 25. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po selekcji I, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 71,16 100,00 0,00 28,84 96,30 57,96 42,04 3,70 95,80 83,74 16,26 4,20
2 28,15 85,49 14,51 71,85 12,76 99,05 0,95 87,24 30,28 87,63 12,37 69,72
3 59,04 59,66 40,34 40,96 75,71 22,34 77,66 24,29 75,55 32,64 67,36 24,45
4 48,52 81,54 18,46 51,48 28,37 66,78 33,22 71,63 81,17 79,55 20,45 18,83
5 92,76 54,25 45,75 7,24 23,91 68,97 31,03 76,09 23,14 82,32 17,68 76,86
H6
OA =63,92 kappa =0,49 OA = 38,31 kappa = 0,21 OA = 59,86 kappa = 0,45
1 70,01 100,00 0,00 29,99 98,99 52,65 47,35 1,01 95,91 84,05 15,95 4,09
2 16,26 77,06 22,94 83,74 14,06 98,58 1,42 85,94 31,77 86,51 13,49 68,23
3 51,68 84,06 15,94 48,32 69,62 38,63 61,37 30,38 74,21 34,33 65,67 25,79
4 72,61 78,83 21,17 27,39 49,79 68,89 31,11 50,21 84,29 78,57 21,43 15,71
5 92,89 60,03 39,97 7,11 57,27 63,89 36,11 42,73 25,57 84,31 15,69 74,43
H11
OA = 71,23 kappa = 0,58 OA = 56,02 kappa = 0,40 OA = 61,68 kappa = 0,47
1 57,36 88,02 11,98 42,64 85,51 67,45 32,55 14,49 95,89 82,93 17,07 4,11
2 6,27 97,71 2,29 93,73 49,58 59,70 40,30 50,42 33,36 85,84 14,16 66,64
3 30,07 82,31 17,69 69,93 71,94 32,28 67,72 28,06 70,95 34,86 65,14 29,05
4 67,60 71,20 28,80 32,40 38,21 62,24 37,76 61,79 87,49 75,74 24,26 12,51
5 92,81 54,55 45,45 7,19 50,41 68,61 31,39 49,59 22,86 85,13 14,87 77,14
H22
OA = 63,93 kappa = 0,47 OA = 51,36 kappa = 0,35 OA = 61,59 kappa = 0,47
1 56,62 87,88 12,12 43,38 82,89 79,44 20,56 17,11 95,81 83,31 16,69 4,19
2 6,77 98,75 1,25 93,23 53,47 51,43 48,57 46,53 35,13 81,11 18,89 64,87
3 25,01 84,60 15,40 74,99 72,20 30,59 69,41 27,80 70,26 35,19 64,81 29,74
4 64,84 68,54 31,46 35,16 36,51 63,52 36,48 63,49 88,04 75,06 24,94 11,96
5 91,23 52,17 47,83 8,77 47,53 68,07 31,93 52,47 22,31 85,42 14,58 77,69
H44
OA = 61,41 kappa = 0,43 OA = 49,98 kappa = 0,34 OA = 61,62 kappa = 0,47
1 59,97 88,48 11,52 40,03 82,54 81,57 18,43 17,46 95,81 83,37 16,63 4,19
2 7,75 92,13 7,87 92,25 52,57 52,45 47,55 47,43 35,35 80,75 19,25 64,65
3 33,04 75,85 24,15 66,96 68,46 33,82 66,18 31,54 70,35 35,09 64,91 29,65
4 59,07 69,61 30,39 40,93 41,92 63,64 36,36 58,08 88,18 74,92 25,08 11,82
5 90,15 50,67 49,33 9,85 49,71 61,44 38,56 50,29 21,32 85,35 14,65 78,68
H87
OA = 60,55 kappa = 0,42 OA = 51,99 kappa = 0,35 OA = 61,4 kappa =0,46
1 64,85 89,26 10,74 35,15 82,93 82,10 17,90 17,07 95,83 83,38 16,62 4,17
2 7,28 95,81 4,19 92,72 52,90 47,66 52,34 47,10 35,56 80,18 19,82 64,44
3 49,95 51,54 48,46 50,05 64,93 36,17 63,83 35,07 70,45 35,06 64,94 29,55
4 47,84 66,81 33,19 52,16 46,44 63,89 36,11 53,56 88,01 75,20 24,80 11,99
5 82,65 51,12 48,88 17,35 47,67 56,77 43,23 52,33 21,75 85,41 14,59 78,25 Hyp
erio
n
OA = 57,22 kappa = 0,38 OA = 52,52 kappa = 0,36 OA = 61,50 kappa = 0,46
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
108
35
45
55
65
75
Hyperion H87 H44 H22 H11 H6
dokł
adność
całk
owita
OA
[%]
ML
MhD
MD
Rys. 48. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po selekcji I (H87,
H44, H22, H11, H6).
Redukcja kanałów do liczby 11 skutkuje wzrostem dokładności o 5 punktów procentowych, zaś
dalsza redukcja do sześciu kanałów powoduje obniżenie dokładności do 38%. Obserwując
przebieg zmian dokładności w poszczególnych metodach, można zaobserwować, iż dla obrazów
z liczbą kanałów 11 i 6 następuje odwrócenie tendencji w stosunku do początkowego zwiększania
się dokładności i znaczący spadek dokładności klasyfikacji (dla metod ML i MhD), ( Rys. 48).
Szczegółowe wskaźniki dokładności zestawiono w tabeli ( Tab 25).
W procesie klasyfikacji ML najwyższą dokładność rzędu 71% uzyskano dla obrazu H11 ( Tab
25). Obrazy H6 i H22 charakteryzuje dokładność na poziomie 64%. Dla obrazów H44 i H87
uzyskano dokładność równą 61%. Obraz H174 charakteryzuje najniższa dokładność, która wynosi
nieco ponad 57%. Niskie wartości współczynnika kappa rzędu 0,4 w przypadku obrazów H44, H87,
H174 świadczą o znaczących różnicach dokładności między klasami. Nieco mniejsze
zróżnicowanie dokładności poszczególnych klas można zaobserwować dla obrazów H6, H22 oraz
H11, gdzie współczynnik ten wynosi odpowiednio 0,5 i 0,6. Zawyżone dokładności całkowite są
konsekwencją wysokich dokładności producenta dla poszczególnych klas, a w szczególności
terenów odkrytych na poziomie 90 - 93% (wyjątek stanowi Hyperion gdzie dokładność jest niższa
o 10% i wynosi 83%) oraz dla wody 70 - 71% (dla obrazów H11, H6). Wysokie wartości dokładności
producenta można zaobserwować także dla klas: tereny zielone (rzędu 59 - 72% − H11, H22, H47,
H87) oraz lasy (50 - 59% − H6, H11, H172).
Najlepsze wskaźniki dokładności użytkownika zanotowano dla klasy wody (88 - 100%) oraz dla
klasy lasy (82 - 84%) dla obrazów H11, H22, H44 oraz 75% dla obrazu H87. Największe błędy
dokładności klasyfikacji zaobserwowano dla klasy tereny przemysłowe/zabudowa (obrazy H174,
H87, H44, H22), gdzie dokładność producenta wyniosła 6 - 7%, przy błędzie pominięcia do 93%.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
109
Wyniki dokładności klasyfikacji obrazów H172, H87, H44, H22 charakteryzuje bardzo wysoki
błąd przeszacowania. Można to zaobserwować dla klasy tereny odkryte, która została
sklasyfikowana kosztem klasy tereny przemysłowe/zabudowa i klasy wody (nadmiar 40 - 49%
i pominięcie 84 - 94%). Ponadto, 50% pikseli terenów zielonych na obrazach H47 i H22 zostało
sklasyfikowanych jako lasy ( Rys. 47a). Stosunkowo duże błędy pominięcia dla tej klasy na rzecz
lasów, uzyskano także dla obrazów H172 (28%), H87 (41%) i H11 (31%).
Po zastosowaniu metody MhD uzyskano wartości dokładności całkowitej rzędu 52% dla
obrazów H174, H87, H44 i H22. Niewiele wyższą dokładność 56% otrzymano dla obrazu H11.
Zdecydowanie najniższą dokładność całkowitą zanotowano w przypadku obrazu H6, dla którego
dokładność całkowita wynosiła zaledwie 38%. Niskie wartości współczynnika kappa uzyskane dla
wszystkich analizowanych obrazów wskazują na zróżnicowanie dokładności klasyfikacji w zakresie
poszczególnych form pokrycia terenu.
Na podstawie analizy sklasyfikowanych obrazów ( Rys. 47b) i macierzy rozbieżności ( Tab 25)
można zaobserwować istotne błędy klasyfikacji, głównie błędy przeszacowania dla klas: lasy (około
70%), tereny przemysłowe/zabudowa (około 50%) i tereny zielone (około 35 %) dla obrazów H174,
H87, H44, H22 i dodatkowo klasy wody na obrazach H11 (42%) i H6 (47%). W przypadku czterech
pierwszych obrazów klasa wody charakteryzuje się wysoką dokładnością (rzędu 70 - 82%),
zarówno producenta, jak i użytkownika,
W wyniku klasyfikacji metodą MD uzyskano wyrównane dla wszystkich obrazów wartości
dokładności całkowitej, która wynosi nieco ponad 61% we wszystkich przypadkach ( Tab 25).
Wartości współczynnika kappa równe 0,5 wskazują na umiarkowane zróżnicowanie
w dokładnościach pojedynczych klas. Niemniej jednak, największe błędy można zaobserwować
w przypadku klasy tereny odkryte oraz tereny przemysłowe/zabudowa ( Tab 25), dla których
zanotowano niskie dokładności producenta, odpowiednio 21 - 25% i 30 - 35%. Wyraźnie zaznacza
się też przeszacowanie dla klasy lasy (błąd nadmiaru 64 - 67%). Natomiast klasa wody została
sklasyfikowana z wysoką dokładnością zarówno producenta (95%), jak i użytkownika (83%).
Pomimo niskich wartości błędu nadmiaru (17%) i pominięcia (4%) z analizy wizualnej obrazów
wynika, iż klasa wody została błędnie sklasyfikowana głównie na terenach przemysłowych (huta
H.T.S.) ( Rys. 47c). Dla wszystkich obrazów poprawnie została sklasyfikowana klasa tereny zielone,
dla której uzyskano dokładności producenta i użytkownika wynoszące odpowiednio 88% i 76%.
9.1.1.2 Selekcja II
Wyniki klasyfikacji po selekcji II zamieszczono na ( Rys. 49), zmianę dokładności w zależności
od liczby kanałów można przeanalizować dla każdej z metod na ( Rys. 50), natomiast szczegółowe
wskaźniki dokładności zestawiono w ( Tab 26).
W metodzie ML uzyskane dokładności całkowite dla 20 i 18 kanałów wynoszą odpowiednio
ok. 66% ( Rys. 50). Zmniejszenie liczby kanałów do 16, 14 i 12, spowodowało wzrost dokładności
do 69%. Przy dalszej redukcji kanałów (do 10) obserwujemy spadek dokładności o dwa punkty
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
110
procentowe. Pomimo wysokich dokładności całkowitych niskie wartości współczynnika kappa
wskazują na duże różnice pomiędzy poszczególnymi klasami ( Tab 26).
Rys. 49. Wyniki klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazu
Hyperiona (174k) oraz dla obrazów po selekcji II: H20, H18, H16, H14, H12, H10.
c)
b)
a)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
111
Tab 26. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po selekcji II klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 73,58 90,41 9,59 26,42 97,13 54,00 46,00 2,87 94,70 85,15 14,85 5,30
2 19,28 85,70 14,30 80,72 14,96 97,37 2,63 85,04 21,39 98,42 1,58 78,61
3 54,28 81,10 18,90 45,72 72,40 36,93 63,07 27,60 52,96 43,89 56,11 47,04
4 59,92 80,53 19,47 40,08 49,14 69,36 30,64 50,86 96,47 56,83 43,17 3,53
H10
5 94,58 55,01 44,99 5,42 54,65 65,93 34,07 45,35 8,77 71,68 28,32 91,23
OA = 67,63 kappa = 0,54 OA = 55,45 kappa = 0,40 OA = 56,62 kappa = 0,36
1 68,73 89,80 10,20 31,27 97,44 59,69 40,31 2,56 95,26 86,37 13,63 4,74
2 10,92 87,57 12,43 89,08 14,96 97,18 2,82 85,04 23,10 97,24 2,76 76,90
3 54,26 80,04 19,96 45,74 73,71 35,58 64,42 26,29 68,27 39,48 60,52 31,73
4 67,67 80,28 19,72 32,33 47,40 69,17 30,83 52,60 92,95 66,77 33,23 7,05
5 93,27 57,72 42,28 6,73 54,74 66,90 33,10 45,26 15,42 80,54 19,46 84,58
H12
OA = 69,5 kappa = 0,56 OA = 55,06 kappa = 0,39 OA = 60,28 kappa = 0,43
1 66,28 89,46 10,54 33,72 97,40 60,50 39,50 2,60 95,66 86,02 13,98 4,34
2 11,85 86,15 13,85 88,15 18,10 82,73 17,27 81,90 25,31 95,10 4,90 74,69
3 53,25 81,24 18,76 46,75 73,32 35,46 64,54 26,68 72,98 35,97 64,03 27,02
4 67,02 79,88 20,12 32,98 49,62 69,09 30,91 50,38 88,47 74,52 25,48 11,53
5 93,90 57,39 42,61 6,10 52,34 68,10 31,90 47,66 22,16 84,17 15,83 77,84
H14
OA = 69,18 kappa = 0,55 OA = 55,32 kappa = 0,4 OA = 61,63 kappa = 0,46
1 63,29 89,02 10,98 36,71 97,54 58,73 41,27 2,46 96,00 85,66 14,34 4,00
2 11,64 86,41 13,59 88,36 19,21 81,37 18,63 80,79 27,64 92,21 7,79 72,36
3 53,16 81,36 18,64 46,84 72,91 35,46 64,54 27,09 74,89 34,64 65,36 25,11
4 67,07 79,58 20,42 32,93 51,42 68,42 31,58 48,58 85,08 78,14 21,86 14,92
5 93,56 57,12 42,88 6,44 50,08 69,46 30,54 49,92 25,29 84,41 15,59 74,71
H16
OA = 68,91 kappa = 0,55 OA = 55,33 kappa = 0,39 OA = 61,78 kappa = 0,47
1 56,64 87,89 12,11 43,36 85,84 72,69 27,31 14,16 95,88 84,91 15,09 4,12
2 6,39 95,60 4,40 93,61 48,89 60,23 39,77 51,11 30,74 87,54 12,46 69,26
3 38,72 86,66 13,34 61,28 71,79 32,72 67,28 28,21 73,54 34,34 65,66 26,46
4 67,64 75,36 24,64 32,36 41,17 63,33 36,67 58,83 85,82 77,23 22,77 14,18
5 93,81 54,58 45,42 6,19 49,60 68,18 31,82 50,40 23,07 84,95 15,05 76,93
H18
OA = 65,84 kappa = 0,50 OA = 52,22 kappa = 0,36 OA = 61,32 kappa = 0,46
1 56,96 87,95 12,05 43,04 84,90 70,60 29,40 15,10 95,81 84,06 15,94 4,19
2 6,26 97,80 2,20 93,74 49,17 58,84 41,16 50,83 32,51 85,94 14,06 67,49
3 34,63 89,35 10,65 65,37 71,88 32,44 67,56 28,12 72,51 34,18 65,82 27,49
4 73,11 72,71 27,29 26,89 39,45 62,78 37,22 60,55 86,07 76,89 23,11 13,93
5 91,16 56,38 43,62 8,84 50,28 68,53 31,47 49,72 22,68 85,13 14,87 77,32
H20
OA = 66,42 kappa = 0,50 OA = 51,74 kappa = 0,36 OA = 61,21 kappa = 0,46
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
112
35
45
55
65
75
H20 H18 H16 H14 H12 H10
dokł
adność
cał
kow
ita O
A [%
]
ML
MhD
MD
Rys. 50. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po selekcji II (H20,
H18, H16, H14, H12, H10).
Na wszystkich obrazach przeszacowane zostały tereny odkryte (ok. 45 % nadmiaru, przy 91 -
94% dokładności producenta) ( Tab 26). Bardzo słabe wyniki klasyfikacji uzyskano dla klasy tereny
przemysłowe/zabudowa, zwłaszcza dla dwóch obrazów (H18, H20) ( Rys. 49a), dla których
zanotowano 94% błąd pominięcia na rzecz terenów odkrytych ( Tab 26). Tereny przemysłowe na
pozostałych obrazach (H16 - H10) zostały sklasyfikowane nieznacznie lepiej. Niemniej jednak,
w dalszym ciągu błąd pominięcia był bardzo wysoki 80 - 88% ( Tab 26).
Słaby wynik klasyfikacji uzyskano dla klasy wody, która w przypadku obrazów H20 i H18
została poprawnie sklasyfikowana jedynie dla obszaru zbiornika Dobczyckiego ( Rys. 49a). Na
obrazach H16, H10 poprawnie sklasyfikowane zostały również mniejsze zbiorniki (żwirownie) oraz
zatoka Zakliczyńska. Natomiast, dla obrazów H12 i H10 sklasyfikowane zostały także piksele wód
rzeki Wisły ( Rys. 49a). W przypadku klas reprezentujących roślinność, dla klasy tereny
zielone uzyskano dobre dokładności, zarówno producenta (59 - 73%), jak i użytkownika (72 - 85 %)
( Tab 26). Natomiast klasę lasy z wysoką dokładnością użytkownika (średnia 83%) charakteryzował
znaczny błąd pominięcia (błąd średni 52%), spowodowany głównie niedoszacowaniem na rzecz
terenów odkrytych.
W metodzie MhD uzyskano dokładności całkowite klasyfikacji na poziomie 52% dla obrazów
H20 i H18 oraz nieco ponad 55% dla obrazów H16 - H10 ( Tab 26, Rys. 49b). Wszystkie obrazy
charakteryzują się niskim współczynnikiem kappa równym 0,4. Klasyfikacja MhD charakteryzuje się
ponadto znacznym przeszacowaniem klasy lasów (nadmiar 64 - 67% przy wysokich
dokładnościach producenta 72 - 73%). Wyniki dokładności klasyfikacji obrazów H20 i H18 dla klasy
tereny przemysłowe/zabudowa wskazują na ich błędną klasyfikację (nadmiar 40% i pominięcie
50%) ( Tab 26). Dla zredukowanych obrazów H16 - H10 dokładności użytkownika wynosiły od 81%
do 97%. Wysokie wartości dokładności producenta (84 - 97%) dla klasy wody i zmniejszająca
się dokładność użytkownika począwszy od 70% (H20 - H18), 60% (H16, H14, H12) do 54%
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
113
(H10) ( Tab 26), wskazuje na przeszacowanie tej klasy dla obrazów o mniejszej liczbie kanałów
( Rys. 49b). Najmniejsze błędy klasyfikacji można zaobserwować w przypadku klasy tereny zielone
(dokładność producenta na poziomie 50%, użytkownika 62 - 70%) ( Tab 26).
W procedurze klasyfikacji metodą MD uzyskano dokładności całkowite na poziomie niewiele
ponad 61% dla kolejnych wyselekcjonowanych obrazów H20 - H12 ( Rys. 50c, Tab 26). Obraz
z najmniejszą liczbą kanałów (H10) charakteryzuje niższa o 4 punkty procentowe dokładność
całkowita (57%). Współczynnik kappa wynosił 0,5 dla obrazów H20 - H14 oraz 0,4 dla pozostałych
obrazów. Analizując obrazy ( Rys. 50c) oraz macierz błędów ( Tab 26) można zaobserwować istotny
błąd klasyfikacji (przeszacowanie) klasy lasy, dla której błąd nadmiaru wynosił 65% w przypadku
obrazów H20, H18, H16, H14 oraz 60% i 56% odpowiednio dla obrazów H12 i H10 ( Tab 26).
Niedoszacowane zostały natomiast tereny odkryte, dla których błąd pominięcia wynosił
od 77% do 91% (H10), przy dokładności użytkownika 85 - 72%. Podobnie, wysokie błędy
pominięcia (67 - 78%) przy dokładności użytkownika od 86 - 98% zaobserwowano dla klasy tereny
przemysłowe/zabudowa ( Tab 26). Najlepsze wyniki klasyfikacji uzyskano dla klasy tereny zielone
(dokładność producenta 86 - 96 % oraz użytkownika 76 - 57%) i klasy wody (dokładność
producenta 95% oraz użytkownika 86%) ( Tab 26).
9.1.1.3 Transformacja PCA
Wyniki klasyfikacji obrazów poddanych transformacji PCA różnią się w zależności od
wykorzystanej metody klasyfikacji ( Rys. 51, Rys. 52, Tab 27). Najwyższą wartość dokładności
całkowitej OA = 72% uzyskano dla metody ML (10PCA), natomiast najniższą dla metody MhD,
gdzie dokładność całkowita dla obrazów 5PCA i 6PCA wynosiła 35%. Bardzo ciekawe wyniki
otrzymano dla metody MD, której dokładność klasyfikacji OA wynosiła 62% dla wszystkich
klasyfikowanych zestawów kanałów PCA, łącznie z obrazem po transformacji odwrotnej PCA
(H_inv_10PCA). W przypadku klasyfikacji ML wyraźnie widać bardzo dużą jednorodność wartości
OA dla obrazów PCA utrzymującą się w granicach 63 - 72% (kappa 0,5 - 0,6). Wyjątek stanowi
dokładność uzyskana dla obrazu Hyperiona po transformacji odwrotnej (174 kanały), dla którego
OA uległo obniżeniu aż do 35% (współczynnik kappa 0,15). Wartość dokładności jest zatem niższa
aż o 22% od dokładności, uzyskanej dla obrazu źródłowego Hyperiona. Analizując wartości
współczynnika kappa oraz dokładności i błędy z macierzy rozbieżności ( Tab 27) można
zaobserwować duże różnice w dokładności klasyfikacji uzyskane dla poszczególnych klas. Dla
obrazu 10PCA dokładność całkowita (OA = 72%), została znacznie zaniżona przez niską
dokładność producenta (15%) klasy tereny przemysłowe/zabudowa. Analiza wizualna ( Rys. 51a)
oraz wartość błędu pominięcia (82%), pozwala stwierdzić, iż klasa ta została błędnie
sklasyfikowana jako teren odkryty. Tereny przemysłowe dla wszystkich obrazów MNF uzyskały
niską dokładność producenta od 19% (6PCA) do 29% (3PCA) oraz wysoką dokładność
użytkownika 89% - 95%. Dla metody ML największe prawdopodobieństwo prawidłowej klasyfikacji
uzyskano dla klasy wody - dokładność użytkownika dla obrazów 3PCA, 5PCA, 6PCA, 10PCA
wynosiła 100%, dla obrazu o największej liczbie składowych 50PCA była równa 89% (przy
dokładności producenta na poziomie 65 - 69%). Wizualna ocena obrazów wynikowych wyraźnie
wskazuje, iż woda najlepiej sklasyfikowana została dla obrazu po transformacji odwrotnej PCA
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
114
(dokładność użytkownika 92%, dokładność producenta 86%) ( Rys. 51a). Z uwagi na duże
przeszacowanie klasy lasy (71%) uzyskano niską dokładność producenta dla terenów odkrytych
(12%) i terenów zielonych (20%) ( Tab 27).
Rys. 51. Wyniki klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazów po
transformacji PCA ( 50PCA, 10PCA, 6PCA, 5PCA, 3PCA) oraz dla obrazu po transformacji odwrotnej PCA
(H_inv_10PCA).
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
115
Tab 27. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po transformacji PCA, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 68.76 100.00 0.00 31.24 93.76 66.86 33.14 6.24 95.81 83.30 16.70 4.19
2 29.14 89.23 10.77 70.86 22.60 69.47 30.53 77.40 38.52 72.15 27.85 61.48
3 64.78 57.35 42.65 35.22 88.11 22.70 77.30 11.89 70.72 35.44 64.56 29.28
4 42.73 86.08 13.92 57.27 19.43 75.55 24.45 80.57 87.63 75.75 24.25 12.37
5 94.88 54.06 45.94 5.12 19.92 75.72 24.28 80.08 22.39 85.58 14.42 77.61
3PC
A
OA = 63,31 kappa = 0,49 OA = 36,39 kappa = 0,20 OA = 61,78 kappa = 0,47
1 68.67 100.00 0.00 31.33 98.00 66.10 33.90 2.00 95.82 83.31 16.69 4.18
2 18.47 92.32 7.68 81.53 17.52 98.11 1.89 82.48 35.56 80.83 19.17 64.44
3 56.11 65.13 34.87 43.89 77.11 20.77 79.23 22.89 70.69 35.02 64.98 29.31
4 60.56 80.37 19.63 39.44 27.87 68.98 31.02 72.13 87.60 75.75 24.25 12.40
5 94.16 58.28 41.72 5.84 13.00 66.74 33.26 87.00 22.84 85.51 14.49 77.16
5PC
A
OA = 67,79 kappa = 0,54 OA = 35,41 kappa =0,18 OA = 61,72 kappa = 0,47
1 68.53 100.00 0.00 31.47 98.45 65.68 34.32 1.55 95.82 83.31 16.69 4.18
2 18.63 91.96 8.04 81.37 17.52 99.51 0.49 82.48 35.51 80.93 19.07 64.49
3 54.93 66.96 33.04 45.07 76.84 20.73 79.27 23.16 70.70 35.01 64.99 29.30
4 63.55 79.46 20.54 36.45 28.27 69.07 30.93 71.73 87.60 75.76 24.24 12.40
5 93.27 58.98 41.02 6.73 12.72 67.03 32.97 87.28 22.85 85.51 14.49 77.15
6PC
A
OA = 68,48 kappa = 0,55 OA = 35,46 kappa = 0,18 OA = 61,71 kappa = 0,47
1 66.06 100.00 0.00 33.94 97.43 61.24 38.76 2.57 95.82 83.32 16.68 4.18
2 15.39 91.68 8.32 84.61 16.85 98.46 1.54 83.15 35.28 81.33 18.67 64.72
3 55.80 84.20 15.80 44.20 73.93 35.56 64.44 26.07 70.70 35.00 65.00 29.30
4 74.10 79.15 20.85 25.90 47.90 72.73 27.27 52.10 87.61 75.74 24.26 12.39
5 92.39 61.02 38.98 7.61 55.55 65.29 34.71 44.45 22.85 85.48 14.52 77.15
10P
CA
OA = 72,19 kappa = 0,59 OA = 55,66 kappa = 0,4 OA = 61,71 kappa = 0,46
1 64.78 89.25 10.75 35.22 90.24 83.06 16.94 9.76 95.82 83.33 16.67 4.18
2 20.48 89.68 10.32 79.52 52.06 56.55 43.45 47.94 35.26 81.36 18.64 64.74
3 51.74 59.66 40.34 48.26 67.85 34.51 65.49 32.15 70.68 34.99 65.01 29.32
4 57.18 69.69 30.31 42.82 38.78 63.57 36.43 61.22 87.61 75.74 24.26 12.39
5 85.57 56.52 43.48 14.43 53.85 59.11 40.89 46.15 22.86 85.48 14.52 77.14
50P
CA
OA = 62,94 kappa = 0,47 OA = 52,27 kappa =0,36 OA = 61,71 kappa = 0,47
1 85.74 91.61 8.39 14.26 97.43 61.24 38.76 2.57 95.82 83.32 16.68 4.18
2 33.59 94.70 5.30 66.41 16.85 98.46 1.54 83.15 35.28 81.33 18.67 64.72
3 91.29 28.75 71.25 8.71 73.93 35.56 64.44 26.07 70.70 35.00 65.00 29.30
4 20.48 29.84 70.16 79.52 47.90 72.73 27.27 52.10 87.61 75.74 24.26 12.39
5 12.24 56.80 43.20 87.76 55.55 65.29 34.71 44.45 22.85 85.48 14.52 77.15
H_i
nv_1
0PC
A
OA = 35,33 kappa = 0,15 OA = 55,66 kappa = 0,4 OA = 61,71 kappa = 0,46
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
116
20
30
40
50
60
70
80
Hyperion 50PCA 10PCA 6PCA 5PCA 3PCA H_inv_10PCA
dokł
adność
cał
kow
ita O
A [%
]
ML
MHD
MD
Rys. 52. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po transformacji
PCA i transformacji odwrotnej PCA (50PCA, 10PCA, 6PCA, 5PCA, 3PCA, H_inv_PCA) oraz dla obrazu Hyperiona.
Dokładności całkowite metody MhD dla obrazów zawierających 3 - 6 kanałów PCA utrzymują
się na poziomie 35% (kappa 0,2) ( Rys. 52, Tab 27). Dla 10 kanałów PCA dokładność klasyfikacji
MhD wzrosła o 20% i wynosiła 55%. Niemniej jednak ocena wizualna ( Rys. 51b) wskazuje na
błędną klasyfikację dla wszystkich obrazów. Słabe wyniki dokładności są
konsekwencją niepoprawnego przyporządkowania klas i dużych błędów pominięcia dla klas: tereny
odkryte (45 - 87%), tereny przemysłowe (48 - 83%), tereny zielone (52 - 81%) oraz znaczne
przeszacowanie dla klasy lasy (65 - 79%). Najlepiej sklasyfikowana została klasa wody
(dokładność producenta 90 - 98%). Bardzo dobrze zostały zidentyfikowane wszystkie zbiorniki
wodne oraz cieki (dokładność użytkownika 61 - 83%). Jednakże dla wszystkich obrazów występuje
wyraźne przeszacowanie klasy wody na obszarach występowania terenów
przemysłowych i zabudowanych ( Rys. 51b) - błąd przeszacowania 34 - 38% ( Tab 27). Podobnie jak
w selekcji I, obrazy o liczbie kanałów mniejszej niż 10 posiadały duży błąd przeszacowania wody
(33 - 47%) kosztem terenów przemysłowych. Jedynie dla obrazu 50PCA błąd przeszacowania
klasy wody obniżył się do 17% i np. teren kombinatu H.T.S. został poprawnie przyporządkowany do
klasy tereny przemysłowe/zabudowa ( Rys. 51b). Dla tego obrazu charakterystyczna jest jednak
występująca strefowość klas ( Rys. 51b). Podobne wyniki uzyskiwano w przypadku obrazów
poddanych selekcji nadzorowanej (selekcja I), gdzie liczba kanałów wynosiła 44, 87, 174 ( Rys. 47),
natomiast dokładność całkowita klasyfikacji utrzymywała się na poziomie 52 - 50% ( Tab 25).
Dodatkowo przy klasyfikacji MhD mamy do czynienia z "przeniesieniem" wartości dokładności
całkowitej oraz pozostałych parametrów macierzy rozbieżności z obrazu zawierającego
10 pierwszych składowych PCA, na obraz po transformacji odwrotnej PCA, w której użyto
10 kanałów PCA. Sytuacja powtarza się także dla wyników metody MD, dla której wszystkie obrazy
mają bardzo zbliżoną dokładność całkowitą (62%) ( Rys. 52, Tab 27). Wizualna ocena wyników
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
117
klasyfikacji MD ( Rys. 51c) wskazuje na poprawną klasyfikację klas: wody (dokładność producenta
96%, dokładność użytkownika 83%) i tereny zielone (PA = 88%, UA = 76%) ( Tab 27). Błąd
przeszacowania (65%) dla klasy lasy jest spowodowanym błędnym sklasyfikowaniem terenów
przemysłowych (błąd pominięcia ok. 65%) i terenów odkrytych jako tereny zadrzewione (błąd
pominięcia ok. 77%) ( Rys. 51c, Tab 27).
9.1.1.4 Transformacja MNF
Wyniki klasyfikacji nadzorowanej obrazów poddanych wcześniej transformacji MNF ( Rys. 53,
Rys. 54, Tab 28) okazały się najlepsze w stosunku do wyników klasyfikacji omówionych do tej pory.
Zdecydowanie najlepszą metodą okazała się metoda ML, dla której dokładność całkowita wynosiła
70 - 75% przy współczynniku kappa około 0,6 ( Tab 28). Dla pozostałych metod uzyskane
dokładności były znacznie niższe. W metodzie Minimum Distance dokładność całkowita mieściła
się w przedziale od 45% do 52% (kappa odpowiednio 0,27 i 0,32) ( Tab 28, Rys. 54). Znamienne
jest jednak drastyczne obniżenie dokładności klasyfikacji obrazów metodą MhD, w której wartość
dokładności OA spada nawet do 28%, a współczynnik kappa jest równy zaledwie 0,05. Z analizy
tabeli ( Tab 28) i wykresu ( Rys. 54) wynika, iż występuje tendencja spadku wartości dokładności
całkowitej wraz ze zmniejszaniem się liczby kanałów MNF wykorzystywanych do
procedury klasyfikacji. Jest to tendencja odwrotna, do tej, która została zaobserwowana dla
obrazów selekcji I i II, gdzie obrazy o dużej liczbie kanałów były klasyfikowane z niską dokładnością
całkowitą. Jest to oczywiście związane z tym, iż podczas transformacji MNF największa porcja
informacji znajduje się w pierwszych składowych głównych (kanałach MNF), ale ich wybór i liczba
powinny być poprzedzone wnikliwą analizą wartości własnych. Zbyt mała liczba kanałów MNF
wykorzystana do ekstrakcji informacji może skutkować utratą cennych informacji spektralnych.
Interpretacja wizualna rezultatów klasyfikacji metodą Maximum Likelihood ( Rys. 53a) wskazuje
na znaczne przeszacowanie klasy terenów odkrytych dla wszystkich obrazów złożonych z kanałów
MNF. Według wyników uzyskanych z macierzy rozbieżności ( Tab 28), błędy przeszacowania dla tej
klasy wynosiły od 30% do 38% i były spowodowane błędną klasyfikacją obszarów klasy wody
(Zatoka Zakliczyńska i cofka Zbiornika, zbiorniki żwirowni i zbiorniki techniczne) oraz klasy
tereny przemysłowe/zabudowa ( Rys. 53a). Błędy pominięcia wynosiły odpowiednio 37 - 46% oraz
74 - 85% ( Tab 28). Należy zauważyć pewną tendencję zmniejszania się udziału klasy wody
w miarę zwiększania liczby kanałów MNF biorących udział w klasyfikacji. Najwięcej obiektów
wodnych zostało sklasyfikowane dla obrazu 3MNF, przy czym wody płynące (Wisła, Raba) oraz
żwirownia K.Z.E.K. zostały błędnie zakwalifikowane do klasy tereny przemysłowe/zabudowane
( Rys. 53a). Natomiast dla obrazu 10-kanałowego MNF klasa wody i klasa tereny
przemysłowe/zabudowane są reprezentowane tylko przez obiekty o dużej powierzchni,
odpowiednio zbiornik Dobczycki i hałda SLAG, część zakładów H.T.S. Dokładność producenta dla
tych klas wynosi odpowiednio 57% i 22% ( Tab 28). Natomiast w obrazie klasyfikacyjnym 50MNF
w ogóle nie występują wody zbiorników technicznych oraz wody płynące ( Rys. 53a), a dokładność
producenta wynosiła tylko 54%. Powodem było błędne sklasyfikowanie obszarów wodnych jako
klasa tereny odkryte (dokładność producenta 92%) ( Tab 28).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
118
Rys. 53. Wyniki klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazów po transformacji
MNF (50MNF, 10MNF, 6MNF, 5MNF, 3MNF) oraz obrazu po transformacji odwrotnej MNF (H_inv_10MNF).
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
119
Tab 28. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po transformacji MNF, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MHD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 69.23 100.00 0.00 30.77 69.23 100.00 0.00 30.77 94.94 99.86 0.14 5.06
2 25.62 59.01 40.99 74.38 25.62 59.01 40.99 74.38 9.34 100.00 0.00 90.66
3 51.99 92.83 7.17 48.01 51.99 92.83 7.17 48.01 59.17 31.80 68.20 40.83
4 90.97 68.98 31.02 9.03 90.97 68.98 31.02 9.03 77.30 60.82 39.18 22.70
5 69.00 67.20 32.80 31.00 69.00 67.20 32.80 31.00 17.66 55.08 44.92 82.34
3MN
F
OA = 71,73 kappa = 0,58 OA = 27,54 kappa = 0,05 OA = 52,23 kappa = 0,32
1 62.12 100.00 0.00 37.88 93.04 97.69 2.31 6.96 94.55 99.84 0.16 5.45
2 20.12 90.10 9.90 79.88 18.05 100.00 0.00 81.95 12.89 99.95 0.05 87.11
3 59.09 82.98 17.02 40.91 55.06 14.24 85.76 44.94 73.49 27.86 72.14 26.51
4 79.03 78.14 21.86 20.97 23.45 52.60 47.40 76.55 66.43 70.31 29.69 33.57
5 90.38 65.36 34.64 9.62 9.21 68.93 31.07 90.79 15.55 60.45 39.55 84.45
5MN
F
OA = 74,22 kappa = 0,62 OA = 28,17 kappa = 0,08 OA = 50,20 kappa =0,32
1 62.17 100.00 0.00 37.83 84.37 98.21 1.79 15.63 93.44 99.93 0.07 6.56
2 21.03 89.99 10.01 78.97 16.66 100.00 0.00 83.34 13.11 99.95 0.05 86.89
3 59.87 83.68 16.32 40.13 67.81 17.24 82.76 32.19 73.86 27.57 72.43 26.14
4 81.21 77.56 22.44 18.79 28.16 63.78 36.22 71.84 66.61 69.80 30.20 33.39
5 88.67 66.54 33.46 11.33 8.48 72.33 27.67 91.52 13.21 59.73 40.27 86.79
6MN
F
OA = 74,76 kappa = 0,63 OA = 31,60 kappa = 0,12 OA = 49,58 kappa = 0,31
1 57.86 100.00 0.00 42.14 86.72 97.65 2.35 13.28 93.27 99.93 0.07 6.73
2 21.73 90.01 9.99 78.27 18.06 99.97 0.03 81.94 13.23 99.95 0.05 86.77
3 60.42 79.56 20.44 39.58 75.00 18.46 81.54 25.00 75.50 26.58 73.42 24.50
4 80.95 76.07 23.93 19.05 21.75 61.26 38.74 78.25 61.42 70.30 29.70 38.58
5 85.66 66.43 33.57 14.34 10.06 71.21 28.79 89.94 13.65 60.34 39.66 86.35
10M
NF
OA = 73,66 kappa = 0,62 OA = 31,18 kappa = 0,12 OA = 47,98 kappa = 0,30
1 54.16 100.00 0.00 45.84 89.41 95.39 4.61 10.59 92.68 99.99 0.01 7.32
2 14.68 83.46 16.54 85.32 22.76 99.76 0.24 77.24 12.42 99.95 0.05 87.58
3 62.14 69.81 30.19 37.86 79.44 21.06 78.94 20.56 81.30 26.74 73.26 18.70
4 66.73 77.20 22.80 33.27 27.37 61.95 38.05 72.63 53.65 67.40 32.60 46.35
5 91.65 61.72 38.28 8.35 14.27 75.06 24.94 85.73 11.56 56.17 43.83 88.44
50M
NF
OA = 69,61 kappa = 0,56 OA = 35,94 kappa = 0,18 OA = 45,30 kappa = 0,27
1 73.13 100.00 0.00 26.87 86.72 97.65 2.35 13.28 96.24 89.84 10.16 3.76
2 24.17 96.91 3.09 75.83 18.06 99.97 0.03 81.94 11.06 99.83 0.17 88.94
3 86.50 38.90 61.10 13.50 75.00 18.46 81.54 25.00 77.36 29.36 70.64 22.64
4 50.03 71.23 28.77 49.97 21.75 61.26 38.74 78.25 72.09 83.55 16.45 27.91
5 57.62 69.29 30.71 42.38 10.06 71.21 28.79 89.94 24.70 71.15 28.85 75.30 H_i
nv_1
0MN
F
OA = 58,73 kappa = 0,44 OA = 31,18 kappa = 0,13 OA = 55,93 kappa = 0,40
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
120
20
30
40
50
60
70
80
Hyperion 50MNF 10MNF 6MNF 5MNF 3MNF H_inv_10MNF
dokł
adność
całk
owita
OA
[%]
ML
MHD
MD
Rys. 54. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po transformacji
MNF i transformacji odwrotnej MNF (50 MNF, 10 MNF, 6 MNF, 5 MNF, 3 MNF, H_inv_ MNF).
W przypadku klasyfikacji obrazu po transformacji odwrotnej (H_inv_10MNF) dokładność
całkowita klasyfikacji jest niższa niż dla obrazów MNF, ale wyższa (o niecałe 2%) w stosunku do
obrazu Hyperiona (wzrost współczynnika kappa o 0,06) ( Tab 28, Tab 25). Parametry dokładności
właściwie nie wykazują istotnej poprawy jakości klasyfikacji, natomiast ocena wizualna ( Rys. 47a
i Rys. 53a) może wskazywać wzrost jakości klasyfikacji w przypadku obrazu po transformacji
odwrotnej MNF. Przejawia się to głównie w poprawnym rozmieszczeniu poszczególnych klas oraz
brakiem występowania nieregularnych klastrów pikseli i grup kolumn błędnie sklasyfikowanych jako
jedna klasa ( Rys. 47a). Stosunkowo dobrze zostały sklasyfikowane klasy wody i tereny odkryte.
Klasy te uzyskały dokładność producenta odpowiednio 73% i 57% ( Tab 28). Pomimo wysokiej
dokładności producenta z dużym nadmiarem sklasyfikowana została klasa lasy (błąd
przeszacowania 61%), która wyparła klasę terenów zielonych (błąd pominięcia 50%) ( Rys. 53a).
Dodatkowo, zaznacza się brak wyraźnej granicy występowania kompleksów leśnych
zlokalizowanych na terenie opracowania. Słabo odróżnione zostały również tereny zabudowane
(dokładność producenta 24%), które prawie w całości zostały sklasyfikowane, jako tereny odkryte
(błąd przeszacowania 31%) ( Rys. 53a, Tab 28).
W przypadku klasyfikacji Mahalanobis Distance, niezależnie od liczby kanałów biorących
udział w klasyfikacji uzyskano podobny poziom dokładności całkowitej ( Rys. 54). Jak wynika
z analizy macierzy rozbieżności ( Tab 28), główną przyczyną niskiej dokładności całkowitej są
bardzo duże błędy pominięcia dla klas: tereny odkryte, tereny zielone i tereny
przemysłowe/zabudowa (30 - 91%, 72 - 78%, 74 - 83%), które zostały błędnie sklasyfikowane jako
klasa lasy. Znamienne jest jednak to, iż ocena wizualna obrazów klasyfikacyjnych ( Rys. 53b)
wskazywałaby na lepsze parametry dokładności np. w stosunku do klasyfikacji źródłowego obrazu
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
121
Hyperiona. Wizualnie, wynik klasyfikacji 3 i 5 kanałów MNF przedstawia stosunkowo poprawną
lokalizację obiektów występujących na opracowywanym terenie. Duży błąd przeszacowania np.: dla
klasy lasy (około 80%) ( Tab 28) wskazuje na niskie prawdopodobieństwo prawidłowej klasyfikacji
tej klasy. Dla wszystkich obrazów bardzo dobrze została sklasyfikowana klasa wody, dla której
dokładność producenta wynosiła 70 - 93% ( Tab 28). Dotyczy to wszystkich zbiorników wodnych
oraz wód płynących dla obrazów 3 i 5-cio kanałowych ( Rys. 53b). W obrazie 50MNF można
zaobserwować strefowość klasyfikacji poszczególnych obiektów. Zaznacza się to zwłaszcza dla
klas lasy i tereny zielone. Jest to związane z obecnością w zestawie do klasyfikacji kanału, bądź
kanałów MNF mocno „zaszumianych”.
Podobnie jak w przypadku klasyfikacji ML, wynik dla obrazu po transformacji odwrotnej
kanałów MNF jest o wiele lepszy w ocenie wizualnej niż obraz uzyskany dla obrazu źródłowego
Hyperiona ( Rys. 47a i Rys. 53b). Dla obrazu po inwersji MNF klasa wody została sklasyfikowane
z dokładnością (87%), której wartość jest równa dokładności producenta uzyskanej w klasyfikacji
obrazu 10MNF. Podobna analogia występuje dla pozostałych klas oraz dla dokładności całkowitej
(OA = 31%) ( Tab 28, Rys. 54).
Wyniki klasyfikacji metodą Minimum Distance dla obrazów poddanych redukcji MNF odbiegają
od wszystkich dotychczasowych rezultatów, jakie uzyskano dla tej metody. Głównie chodzi o duże
różnice w wizualnej ocenie wyników klasyfikacji ( Rys. 53c). Parametry dokładności (OA oraz
współczynnik kappa) wykazują tendencję odwrotnie proporcjonalną do liczby kanałów (tzn. im
większa liczba kanałów tym niższa dokładność całkowita) ( Tab 28). Współczynnik kappa natomiast
zachowuje się bardzo stabilnie i utrzymuje się na poziomie około 0,3. Głównym błędem klasyfikacji
dla wszystkich obrazów jest przeszacowanie klasy lasy (68 - 73%), występujące dla każdego
zestawu kanałów MNF. Zawyżona dokładność producenta dla klasy lasy (60 - 81%) spowodowała
również podniesienie dokładności całkowitej OA (45 - 56%) ( Tab 28, Rys. 54). Dla wszystkich
obrazów można zaobserwować bardzo wysokie błędy pominięcia dla klasy tereny
przemysłowe/zabudowa (aż 90%) i tereny odkryte (około 80%). Zdecydowanie najlepiej
sklasyfikowana została klasa wody, dla której dokładność producenta i użytkownika wynosiły
średnio 95% i 99%. Dla zestawu złożonego z 50 kanałów MNF wynik klasyfikacji uległ znacznemu
pogorszeniu, wykazując strefowość występowania klas (podobnie jak w przypadku metody MhD)
( Rys. 53b, Rys. 53c). Przy czym należy podkreślić, że dla metody MD ten rodzaj błędu klasyfikacji
zanotowano tylko i wyłącznie w przypadku obrazów redukowanych w wyniku transformacji MNF.
Podsumowując, można stwierdzić, iż w przypadku metody MD dla obrazów złożonych
z kanałów po transformacji MNF, uzyskiwane wyniki są jednak bardzo czułe na liczbę kanałów.
Dokładność klasyfikacji drastycznie spada dla obrazów zwierających więcej niż 10 kanałów MNF.
Taka tendencja w przypadku klasyfikacji metodą MD wystąpiła tylko dla obrazów po transformacji
MNF. Dla pozostałych obrazów, dla których redukowano liczbę kanałów, dokładność klasyfikacji
MD była bardzo jednorodna bez względu na liczbę kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
122
9.1.2 Wyniki klasyfikacji obrazów symulowanych
W trzech poniższych podrozdziałach zaprezentowano wyniki klasyfikacji metodami
tradycyjnymi uzyskane dla obrazów symulujących obrazy sensorów wielospektralnych ( Rys. 55,
Rys. 57, Rys. 59). W każdym podrozdziale omówione zostały parametry dokładnościowe uzyskane
dla obrazów po symulacji I ( Tab 29), symulacji II ( Tab 30) i symulacji SRF ( Tab 31). Na wykresach
( Rys. 56, Rys. 58, Rys. 60) przedstawiono porównanie dokładności całkowitej uzyskanej
w klasyfikacji obrazów symulowanych metodami ML, MhD, MD.
9.1.2.1 Symulacja I
Analizując wyniki uzyskanych dokładności dla obrazów poddanych symulacji I ( Tab 29, Rys.
56), można zauważyć, iż najlepsze dokładności klasyfikacji (57% - 71%) otrzymano dla metody ML,
dla metody MD uzyskano dokładności zbliżone do 60% (58 - 62%). Najniższą dokładność całkowitą
uzyskano natomiast dla klasyfikacji metodą MhD, dla której wartości dokładności oscylowały
w granicach 50 - 55%. Dla każdej z metod klasyfikacji różnice dokładności całkowitych uzyskiwane
dla symulowanych sensorów wynosiły zaledwie 4 - 5 punktów procentowych. Porównując jednak
dokładności pomiędzy metodami wyraźnie zaznacza się znaczny spadek dokładności uzyskanej dla
metody MhD w stosunku do wyników otrzymanych dla metody ML (20%). Można, zatem uznać, iż
w przypadku symulacji I, dokładność klasyfikacji jest bardzo unormowana w obrębie wyników danej
metody, natomiast występują różnice wyników dokładności dla poszczególnych metod. Ich wartości
mieszczą się w przedziale 50 - 71% ( Tab 29, Rys. 56).
Już sama ocena wizualna uzyskanych wyników klasyfikacji ( Rys. 55) pozwala na rozpoznanie
różnic, jeżeli chodzi o dokładność klasyfikacji metodami tradycyjnymi. Widać wyraźne
zróżnicowanie wydzieleń dla obrazów sklasyfikowanych za pomocą metody Maximum Likelihood
( Rys. 55a). Na wszystkich symulowanych obrazach poprawnie zostały sklasyfikowane 2 obiekty,
a mianowicie główna czasza Zbiornika Dobczyckiego oraz hałda żużlu (składowisko główne firmy
Slag) w okolicach Nowej Huty. W tym wypadku nie miała znaczenia, ani różnica w liczbie kanałów,
ani też zakres, w którym rejestrowany był sygnał spektralny. Natomiast pozostałe formy pokrycia
terenu zostały sklasyfikowane z różnym rezultatem w zależności od liczby kanałów. Najsłabsze
rozróżnienie klas uzyskano dla obrazu Hyperiona o największej liczbie kanałów (174 kanały),
a najlepsze dla symulowanego Spota (45 kanałów). Tylko w przypadku obrazu symulowanego
Spota sklasyfikowane zostały obiekty wodne, w tym częściowo rzeka Wisła ( Rys. 55a). Stosunkowo
poprawnie przyporządkowane zostały również klasy lasów, terenów zielonych i terenów odkrytych.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
123
Rys. 55. Wynik klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazu Hyperion
(174 kanały) oraz dla obrazów po symulacji I: ALI (94 kanały), Aster (63 kanały), Landsat (85 kanałów), Spot (45 kanałów).
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
124
Tab 29. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji I, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 57,51 88,05 11,95 42,49 73,20 70,07 29,93 26,80 95,39 87,03 12,97 4,61
2 6,49 97,33 2,67 93,51 50,57 61,69 38,31 49,43 31,87 84,77 15,23 68,13
3 33,6 83,66 16,34 66,4 71,25 31,03 68,97 28,75 68,89 38,29 61,71 31,11
4 68,09 72,26 27,74 31,91 41,74 61,15 38,85 58,26 91,64 69,61 30,39 8,36
5 92,03 54,53 45,47 7,97 44,67 69,36 30,64 55,33 18,52 84,86 15,14 81,48
ALI
_SI
OA = 64,57 kappa = 0,48 OA = 50,31 kappa = 0,34 OA = 61,39 kappa = 0,45
1 58,99 88,31 11,69 41,01 88,88 61,57 38,43 11,12 95,58 88,86 11,14 4,42
2 8,34 82,00 18,00 91,66 37,83 82,71 17,29 62,17 34,04 76,73 23,27 65,96
3 47,66 85,57 14,43 52,34 71,87 34,75 65,25 28,13 76,96 32,90 67,10 23,04
4 66,60 76,66 23,34 33,40 48,18 65,15 34,85 51,82 82,17 77,41 22,59 17,83
5 93,07 55,49 44,51 6,93 48,46 67,37 32,63 51,54 17,37 84,93 15,07 82,63 Ast
er_S
I
OA = 67,12 kappa = 0,52 OA = 54,1 kappa = 0,38 OA = 58,97 kappa = 0,44
1 58,98 88,31 11,69 41,02 85,69 73,35 26,65 14,31 95,69 88,19 11,81 4,31
2 7,70 88,58 11,42 92,30 47,25 74,29 25,71 52,75 34,58 74,37 25,63 65,42
3 47,07 82,82 17,18 52,93 71,29 34,74 65,26 28,71 77,12 33,22 66,78 22,88
4 60,75 76,08 23,92 39,25 51,70 64,94 35,06 48,30 81,63 78,49 21,51 18,37
5 94,30 53,47 46,53 5,70 45,57 68,52 31,48 54,43 20,09 84,84 15,16 79,91
LAN
_SI
OA = 65,05 kappa = 0,49 OA = 54,92 kappa = 0,39 OA = 59,66 kappa = 0,45
1 68,58 89,78 10,22 31,42 96,84 61,41 38,59 3,16 96,33 85,63 14,37 3,67
2 12,83 77,79 22,21 87,17 20,49 92,25 7,75 79,51 19,16 98,68 1,32 80,84
3 55,16 82,25 17,75 44,84 72,67 36,68 63,32 27,33 79,00 30,71 69,29 21,00
4 70,50 78,89 21,11 29,50 49,35 67,65 32,35 50,65 73,88 82,69 17,31 26,12
5 92,85 60,01 39,99 7,15 53,00 65,28 34,72 47,00 25,53 79,80 20,20 74,47
Spo
t_S
I
OA = 70,76 kappa = 0,58 OA = 55,41 kappa = 0,39 OA = 57,71 kappa = 043
35
40
45
50
55
60
65
70
75
Hyperion ALI_SI Aster_SI Lan_SI Spot_SI
dokł
adność
cał
kow
ita O
A [
%]
ML
MhD
MD
Rys. 56. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po symulacji I
(ALI_SI, Aster_SI, LAN_SI, Spot_SI) oraz dla obrazu Hyperiona.
W przypadku klasyfikacji metodą ML najlepszą dokładność (71%) uzyskano dla symulowanego
obrazu Spota (45 kanałów) ( Tab 29, Rys. 56). Dla obrazów Aster (63 kanały) i Landsat
(85 kanałów) uzyskano zbliżoną dokładność całkowitą, odpowiednio 67% i 65%. Najniższą
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
125
dokładność całkowitą (65%) otrzymano dla obrazu ALI z dwukrotnie większą liczbą kanałów
(94 kanały). Stosunkowo niska wartość współczynnika kappa dla wszystkich analizowanych
obrazów (ALI - 0,48; Landsat - 0,49; Aster - 0,52; Spot - 0,58) wskazuje na dużą różnicę
dokładności pomiędzy poszczególnymi klasami. Po analizie macierzy dokładności wszystkich
obrazów ( Tab 29) można zauważyć, iż zawyżona dokładność całkowita jest wynikiem
wysokiej dokładności producenta dla klas: tereny odkryte (92 - 94%), tereny zielone (60 - 70%),
wody (57 -69%). Największe błędy wystąpiły w przypadku klasyfikacji klasy tereny
przemysłowe/zabudowa, dla której dokładność producenta wynosiła zaledwie 6 - 13%, przy 90-cio
procentowym błędzie pominięcia. Było to spowodowane głównie tym, iż piksele stanowiące
w obrazie referencyjnym piksele terenów przemysłowych H.T.S., hal produkcyjno-przemysłowych
wProkocimiu oraz terenów zabudowanych (Wieliczka i Dobczyce) zostały błędnie zaklasyfikowane
do klasy tereny odkryte ( Rys. 55a) (dla obrazów Aster, Landsat, Spot również w niewielkim
stopniu jako klasa wody). Dla analizowanej klasy uzyskano natomiast wysoką dokładność
użytkownika 78 - 97% ( Tab 29), co wskazuje iż piksele sklasyfikowane jako tereny przemysłowe
i zabudowa uzyskały duże prawdopodobieństwo poprawności klasyfikacji.
W ocenie wizualnej dominującą klasą w przypadku obrazów ALI, Aster i Landsat była klasa
tereny odkryte stanowiąca 50% udziału pikseli w całym sklasyfikowanym obrazie ( Rys. 55a). Błąd
przeszacowania dla klasy tereny odkryte wynosił 40 - 49%, natomiast dokładność producenta
wynosiła ponad 90% ( Tab 29). W przypadku 3 obrazów (Aster, Landsat, Spot) dokładność
producenta dla klasy lasy była zbliżona do 50%. Natomiast dla obrazu ALI dokładność uległa
znacznemu obniżeniu i wynosiła tylko 34%. Spadek dokładności dla klasy lasów wynikał głównie
z trudności rozróżnienia terenów zielonych i terenów zadrzewionych. Błędy pominięcia dla lasów
oscylowały w granicach 45 - 66%. Klasa uzyskała wysoką dokładność użytkownika dla wszystkich
symulowanych obrazów i wynosiła ponad 80% ( Tab 29).
Klasa wody reprezentowana w głównej mierze przez Zbiornik Dobczycki została
sklasyfikowana z dokładnością producenta 58 - 59% za wyjątkiem obrazu Spota, dla którego
dokładność producenta była zaskakująco wysoka i wynosiła 68% ( Tab 29). Jest to związane z tym,
że dla wszystkich obrazów duża część pikseli klasy wody została przyporządkowana do terenów
odkrytych i terenów zielonych (błąd pominięcia około 40%). Wyraźnie ujawnia się to na obrazie
klasyfikacyjnym jako brak pikseli reprezentujących Zatokę Zakliczyńską oraz pozostałych małych
zbiorników wodnych występujących na analizowanym obszarze (np. osadniki oczyszczalni ścieków,
stawy Kępa, zbiorniki żwirowni: Brzegi, Przylasek Rusiecki, Grabie) ( Rys. 55a). Tylko obraz Spota
zawiera stosunkowo dobrze sklasyfikowane piksele należące do klasy wody, w tym wymienione
zbiorniki i rzekę Wisłę. W przypadku wszystkich obrazów prawdopodobieństwo, że piksele
sklasyfikowane dla obrazów jako woda (dokładność użytkownika), wynosiło prawie 90%. Wiąże się
to bezpośrednio z niskim błędem przeszacowania (10 - 11%).
Dla klasyfikatora opartego na odległości Mahalanobisa (MhD) wynik klasyfikacji również nie
jest zadawalający ze względu na rozmycie granic klas zawłaszcza dla obrazu wyjściowego
Hyperiona (174k) ( Rys. 55b). Na podstawie oceny wizualnej można stwierdzić, że uzyskany wynik
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
126
klasyfikacji nie dostarcza właściwie żadnej informacji tematycznej. Przedstawia on strefowe
rozmieszczenie poszczególnych klas niepokrywające się z rzeczywistymi granicami występowania
obiektów (za wyjątkiem zbiorników wodnych). W zasadzie, możliwe jest jedynie dokonanie
rozróżnienia barw przyporządkowanych odpowiednim wzorcom, określenie liczby klas i ewentualne
wskazanie przybliżonego występowania charakterystycznych obiektów (np. hałda i teren H.T.S.
stanowią jeden klaster bez wyraźnej granicy oddzielającej te dwa obiekty).
Na podstawie analizy macierzy rozbieżności ( Tab 29) można zauważyć, że podobnie jak
w przypadku metody ML najlepszą dokładność całkowitą uzyskano dla symulowanego obrazu
Spota. Jest ona jednak zdecydowanie niższa niż w metodzie ML i wynosi 55%. Analiza dokładności
producenta i użytkownika wskazuje, że w rzeczywistości dokładność całkowita powinna być dużo
niższa. Jej wartość została podniesiona przez bardzo wysoką dokładność klasy wody, która dla
obrazu Spota uzyskała wartość aż 97%. Wysokie wartości na poziomie 86 - 89% uzyskano również
dla obrazów Aster, Landsat. Tylko dla obrazu ALI dokładność producenta dla klasy wody spada do
73%, co ma istotny wpływ na obniżenie dokładności całkowitej dla tego obrazu o 4 - 5 punktów
procentowych ( Tab 29). W przypadku ALI klasa wody została „wyparta” przez klasy: lasy, tereny
odkryte, tereny przemysłowe ( Rys. 55b) Z uwagi na poprawne sklasyfikowanie Zbiornika
Dobczyckiego (stanowiącego duży udział procentowy w liczbie wszystkich pikseli klasyfikowanych
obrazów) klasa wody uzyskała dosyć wysoką dokładność użytkownika 61 - 73% ( Tab 29).
Dla wszystkich obrazów klasą dominującą jest klasa lasy ( Rys. 55b), dla której wysoka wartość
dokładności producenta mieści się w wąskim przedziale 71 - 73% ( Tab 29). Natomiast słaba
dokładność użytkownika (31 - 37%) dla klasy lasów, wskazuje na niskie prawdopodobieństwo
właściwego przyporządkowania pikseli tej klasy . Jest to jednak klasa mocno przeszacowana, na co
wskazuje wysoki błąd przeszacowania oscylujący w granicach 63 - 69%, który wiąże się
bezpośrednio z błędnym sklasyfikowaniem terenów miejskich, terenów zielonych
i terenów odkrytych, dla których błędy pominięcia kształtują się na poziomie odpowiednio (80 -
50%, 50 - 60%, 47 - 55%) ( Tab 29).
W przypadku symulowanego obrazu ALI klasyfikator MhD działa bardzo podobnie, z tym, że
klasa wody ma dużo mniejszy udział niż w przypadku pozostałych obrazów. Natomiast
zdecydowanie lepszy rezultat klasyfikacji MhD otrzymano dla Landsata. Jest to o tyle zaskakujące,
że jego zakresy spektralne są bardzo zbliżone do zakresów ALI. Ponadto obraz symulowanego
Landsata posiada podobną liczbę kanałów (tylko 9 mniej od ALI). W przypadku obydwu obrazów,
zarówno dla Landsata, jak i dla Astera uzyskane wyniki klasyfikacji przedstawiają strefowość
rozmieszczenia klas. Według oceny wizualnej najlepszy wynik klasyfikacji MhD uzyskano dla
symulowanego obrazu SPOTA (podobnie jak w przypadku ML), dla którego rozróżnienie klas
pozwalało na identyfikację obiektów występujących w rzeczywistości.
W efekcie przeprowadzenia klasyfikacji metodą najmniejszej odległości (MD) uzyskano
5 wynikowych obrazów klasyfikacyjnych, które w ocenie wizualnej są bardzo podobne ( Rys. 55c).
Po raz kolejny wynik tego klasyfikatora wskazuje na „dobre” działanie w przypadku ograniczonej
liczby pikseli treningowych.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
127
Dokładność całkowita klasyfikacji metodą MD oscyluje na poziomie 58% - 62%. Podobnie jak
w przypadku metod ML i MhD współczynnik kappa (0,43 - 0,46) wskazuje na niższą wartość
faktycznej dokładności całkowitej ( Tab 29). Różnice wynikają głównie z niedoszacowania klasy
tereny przemysłowe (teren kombinatu H.T.S.) z błędem pominięcia 64 - 81%. Tereny te zostały
sklasyfikowane jako tereny zadrzewione (klasa lasy - błąd przeszacowania od 69% do 79%) oraz
jako wody (błąd przeszacowania około 11 - 17%). Mocno „niedoszacowana” jest także klasa tereny
odkryte z dokładnością producenta na poziomie 17 - 25% ( Tab 29). Niska dokładność klasy
związana jest z brakiem rozróżnienia w stosunku do klasy tereny zielone na rzecz,
której sklasyfikowanych zostało ponad 30 - 40% pikseli należących w obrazie referencyjnym do
klasy tereny odkryte. Największe błędy w prawidłowym przyporządkowaniu pikseli do tej klasy
zanotowano dla symulowanego obrazu Spota. Analiza wizualna ( Rys. 55c) oraz wartości
parametrów macierzy rozbieżności ( Tab 29) wyraźnie wskazują na dominację klasy lasy, dla której
dokładność użytkownika, wyrażająca prawdopodobieństwo poprawnej klasyfikacji pikseli wynosiła
zaledwie 31%. Natomiast bardzo wysoką dokładność zarówno użytkownika (96%), jak i producenta
(83 - 89%) uzyskano dla klasy wody ( Tab 29). Wszystkie występujące na analizowanym obszarze
obiekty należące do tej klasy zostały prawidłowo zaklasyfikowane.
Testowane w tej procedurze klasyfikacji obrazy zawierały bardzo różne zestawy kanałów,
zarówno pod względem ilościowym, jak i pod względem charakterystyki spektrum. Na podstawie
uzyskanych wyników, można pokusić się o stwierdzenie, iż dokładność klasyfikacji metody MD nie
zależy od liczby kanałów, ani od obecności odpowiedzi spektralnej w poszczególnych zakresach
promieniowania elektromagnetycznego. Zatem metoda MD jest, nieczuła na liczebność kanałów,
ich zakresy spektralne oraz na zbyt małą próbkę pikseli treningowych.
9.1.2.2 Symulacja II
W porównaniu z wynikami klasyfikacji obrazów po symulacji I, wyniki, jakie uzyskano dla
obrazów po symulacji II są dokładnościowo o wiele lepsze, zwłaszcza, jeżeli chodzi o poprawność
klasyfikacji kasy wody. Jest to niejako kolejne potwierdzenie reguły, iż klasyfikatory statystyczne
działają poprawnie dla obrazów o liczbie kanałów poniżej 10.
Wyniki dokładności całkowitej oraz współczynnika kappa dla metody ML przeprowadzonej dla
obrazów po symulacji II są bardzo do siebie zbliżone i oscylują wokół wartości odpowiednio 69%
i 0,56 ( Tab 30). Są to wartości wyższe od dokładności uzyskanych dla oryginalnego obrazu
Hyperiona (57% i 0,38). Najlepszą dokładność 70% uzyskano podobnie jak w symulacji I dla
symulowanego obrazu Spota. Znacznie lepiej niż w symulacji I, zostały sklasyfikowane obrazy
Aster, ALI i Landsat, zwłaszcza, jeżeli chodzi o klasy: wody, lasy, tereny przemysłowe/zabudowa.
Już sama ocena wizualna wskazuje na mniejsze błędy pominięcia w przypadku wymienionych klas
( Rys. 57a). Dla obrazu ALI klasa lasy podwyższyła dokładność producenta z 34% na 65%,
natomiast woda z 57% na 72%. W przypadku klasy wody dla wszystkich symulowanych obrazów
uzyskano dokładność użytkownika 100% i błąd pominięcia około 30% ( Tab 30). Zatem, zostały
sklasyfikowane wszystkie obiekty wodne występujące na badanym obszarze. Przy czym, część
pikseli została przyporządkowana do klas: tereny odkryte, lasy, tereny przemysłowe/zabudowa
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
128
( Rys. 57a). Podobnie jak w symulacji I najbardziej przeszacowaną okazała się klasa tereny odkryte
(błąd przeszacowania 40%). Główną przyczyną były liczne błędy w klasyfikacji terenów zielonych,
terenów przemysłowych/zabudowy i wody ( Rys. 57a, Tab 30).
Rys. 57. Wynik klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazu Hyperion
(174 kanały) oraz dla obrazów po symulacji II: ALI (9 kanałów), Aster (9 kanałów), Landsat (6 kanałów), Spot (4 kanały).
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
129
Tab 30. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji II, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 71,78 100 0,00 28,22 95,06 62,19 37,81 4,94 96,38 83,47 16,53 3,62
2 15,36 87,14 12,86 84,64 13,56 98,53 1,47 86,44 21,19 98,91 1,09 78,81
3 65,1 68,56 31,44 34,9 88,48 28,14 71,86 11,52 77,32 31,70 68,30 22,68
4 60,98 82,35 17,65 39,02 28,31 71,49 28,51 71,69 76,75 82,09 17,91 23,25
5 93,97 59,54 40,46 6,03 37,69 68,09 31,91 62,31 27,53 81,06 18,94 72,47
ALI
_SII
OA = 69,54 kappa = 0,57 OA = 44,89 kappa = 0,29 OA = 59,26 kappa = 0,45
1 66,49 100 0,00 33,51 97,01 53,02 46,98 2,99 95,22 89,69 10,31 4,78
2 13,95 87,62 12,38 86,05 14,72 95,78 4,22 85,28 38,78 54,86 45,14 61,22
3 56,13 72,16 27,84 43,87 68,63 41,68 58,32 31,37 75,73 34,62 65,38 24,27
4 64,16 80,29 19,71 35,84 52,06 68,28 31,72 47,94 84,91 74,69 25,31 15,09
5 93,64 57,79 42,21 6,36 59,84 63,22 36,78 40,16 12,46 83,65 16,35 87,54 Ast
er_S
II
OA = 68,65 kappa = 0,55 OA = 57,46 kappa = 0,42 OA = 58,59 kappa = 0,43
1 70,11 100 0,00 29,89 95,27 66,61 33,39 4,73 96,02 87,21 12,79 3,98
2 17,51 88,98 11,02 82,49 16,23 98,15 1,85 83,77 19,57 99,13 0,87 80,43
3 64,66 67,09 32,91 35,34 86,36 26,23 73,77 13,64 78,04 30,97 69,03 21,96
4 60,10 83,29 16,71 39,90 30,66 70,96 29,04 69,34 78,12 80,34 19,66 21,88
5 94,97 59,64 40,36 5,03 29,5 69,07 30,93 70,5 20,11 79 21 79,89
LAN
_SII
OA = 69,48 kappa = 0,56 OA = 43,08 kappa = 0,26 OA = 57,53 kappa = 0,42
1 67,49 100 0,00 32,51 92,21 89,04 10,96 7,79 96,33 85,63 14,37 3,67
2 17,38 87,78 12,22 82,62 14,71 99,92 0,08 85,29 19,16 98,68 1,32 80,84
3 69,46 65,56 34,44 30,54 90,48 35,70 64,30 9,52 79,00 30,71 69,29 21,00
4 60,22 85,14 14,86 39,78 57,77 83,69 16,31 42,23 73,88 82,69 17,31 26,12
5 93,37 60,00 40,00 6,63 42,74 68,06 31,94 57,26 25,53 79,80 20,20 74,47
Spo
t_S
II
OA = 69,79 kappa = 0,57 OA = 58,30 kappa = 0,44 OA = 57,71 kappa = 0,43
35
40
45
50
55
60
65
70
75
Hyperion ALI_SII Aster_SII Lan_SII Spot_SII
dokł
adność
cał
kow
ita O
A [
%]
ML
MhD
MD
Rys. 58. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po symulacji II
(ALI_SII, Aster_SII, LAN_SII, Spot_SII) oraz dla obrazu Hyperiona.
Wyniki uzyskane po klasyfikacji metodą MhD obrazów po symulacji II są bardzo zróżnicowane
i uzależnione od zakresów spektralnych kanałów. Dokładność klasyfikacji całkowitej (43% - 58%)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
130
i współczynnika kappa (0,26 - 0,44) jest bardzo zaniżona w stosunku do dokładności metody ML
( Tab 30, Rys. 58). Dla obrazów symulacji II, gdzie liczba kanałów odpowiada rzeczywistej liczbie
dla poszczególnych sensorów wyniki klasyfikacji są zróżnicowane i dokładności całkowite różnią się
nawet o 15 punktów procentowych. Jak widać z powyższego wykresu ( Rys. 58) dokładności
całkowite klasyfikacji są bardzo zbliżone dla par obrazów ALI i Landsat (45% i 43%), Aster i Spot
(57% i 58%).
Dokładność całkowita ALI, co prawda obniżyła się w stosunku do symulacji I (z 50% do 45%),
ale uzyskana mapa pokrycia jest znacznie bardziej czytelna ( Rys. 55b, Rys. 57b). Przede
wszystkim, została wyeliminowana strefowość sklasyfikowanej treści, mająca miejsce w wynikach
klasyfikacji o podwyższonej liczbie kanałów większej od 20 ( Rys. 55b). Poza tym, obiekty są
rozróżnialne i zarysowane w wyraźny sposób. Nadal jednak pozostają błędy przeszacowania klasy
lasy związane z błędnym sklasyfikowaniem terenów odkrytych i terenów zielonych (błędy
pominięcia 72% i 62%) ( Tab 30). Natomiast, znacznie lepiej sklasyfikowana została klasa wody,
która uzyskała dokładność producenta 95%. Przy czym, aż 30% pikseli należące do tej klasy
zostało błędnie przyporządkowanych z uwagi na problem rozróżnienia z klasą tereny
przemysłowe/zabudowa (głównie tereny kompleksu H.T.S.) ( Rys. 57b). Podobna sytuacja
występuje dla klasyfikacji symulowanego obrazu Landsata. W przypadku obrazu Spota (4 kanały)
dokładność całkowita klasyfikacji (58%) i ocena wizualna ( Rys. 57b) wskazują na najlepszy rezultat.
Największe prawdopodobieństwo poprawnej klasyfikacji uzyskano dla klas wody i tereny zielone
(dokładność użytkownika 89% i 83%). Znaczna część klasy tereny przemysłowe/zabudowa została
błędnie sklasyfikowana jako klasa lasy powodując 64% błędu przeszacowania i sztuczne
podwyższenie dokładności producenta tej klasy do 99% ( Tab 30).
Po analizie wykresu ( Rys. 58) można stwierdzić, że dokładności całkowite uzyskane w wyniku
wykonania procedury klasyfikacji MD wykazują minimalną tendencję spadkową. Najwyższą
dokładność uzyskano dla obrazu ALI (62%) najniższą dla obrazu Spota (58%). Dla wszystkich
obrazów błędnie sklasyfikowana została klasa lasy z błędem przeszacowania prawie 70% ( Tab 30).
Wiązało się to, z niepoprawnym sklasyfikowaniem klas tereny odkryte, tereny zielone i tereny
przemysłowe/zabudowa, dla których błędy pominięcia wynosiły odpowiednio: 72 - 87%, 15 - 26%,
61 - 81%. Najlepszą dokładność producenta uzyskano dla klasy wody (około 96%), która została
błędnie przyporządkowana do klasy tereny przemysłowe/zabudowa (błąd pominięcia 10 - 16%).
Wizualna ocena wyraźnie wskazuje, iż wynik klasyfikacji dla obrazu Astera odbiega od pozostałych
( Rys. 57c). Jest to związane z przeszacowaniem klasy terenów przemysłowych (błąd
przeszacowania 45%), który spowodowany jest błędnym sklasyfikowaniem klasy terenów odkrytych
(błąd pominięcia 88%) ( Tab 30).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
131
9.1.2.3 Symulacja SFR
Wyniki klasyfikacji tradycyjnej obrazów uzyskanych po symulacji metodą SRF są bardzo
podobne do wyników symulacji II ( Tab 30, Tab 31). Analizując wykres dokładności klasyfikacji
w zależności od obrazu poddanego klasyfikacji ( Rys. 60) można zauważyć bardzo zbliżony
przebieg krzywych dokładności uzyskanych dla wszystkich wykorzystanych metod tradycyjnych ML,
MhD, MD. Dokładności całkowite otrzymane dla poszczególnych sensorów w przypadku metody
Maximum Likelihood nieznacznie wzrosła (ALI - 70%, Landsat - 71%) lub pozostała na tym
samym poziomie (Aster - 69%) w stosunku do dokładności uzyskanych dla tych obrazów po
symulacji II ( Rys. 58, Rys. 60, Tab 30, Tab 31). Wyjątek stanowi dokładność całkowita klasyfikacji
Spota, która obniżyła się o 3 punkty procentowe (z 69% do 66%). Dla metody MD uzyskano prawie
identyczne wyniki jak w symulacji II, mieszczące się w przedziale 56% - 59%. W przypadku
klasyfikacji MhD wszystkie obrazy zostały sklasyfikowane z dokładnością wyższą w stosunku do
wyników tej samej metody zastosowanej w symulacji II ( Rys. 58, Rys. 60, ). Dokładność dla obrazu
ALI wzrosła aż o 6 punktów procentowych (z 45 % na 51%) dla pozostałych różnice dokładności
oscylowały w granicach od jednego (dla Spota z 58% do 59%) do dwóch punktów procentowych
(dla Astera z 57% na 59% i dla Landsata z 43% na 45%) ( Tab 30, Tab 31). Te minimalne różnice
wskazują, iż metoda symulacji nie wpływa na dokładność klasyfikacji obrazów. Głównym
czynnikiem odpowiedzialnym za dokładność jest, zatem wykorzystanie w procedurze klasyfikacji
właściwych kanałów, zawierających odpowiedź spektralną z odpowiedniego zakresu spektralnego.
Przy czym, należy pamiętać, że w przypadku symulacji II rozdzielczość spektralna jest dużo lepsza
i wynosi około 10 nm. Zakresy spektralne obrazów symulowanych w symulacji II są o wiele węższe
niż dla obrazów oryginalnych ALI, Aster, Landsat i Spot. Występujące różnice rozdzielczości mogą
mieć duży wpływ na parametry dokładnościowe wykonywanej klasyfikacji. Prawdopodobnie
niewielki wzrost dokładności całkowitej dla obrazów symulacji SRF może być spowodowany tym, że
dla symulacji SRF obrazy posiadają kanały, gdzie odpowiedź spektralna została uśredniona z kilku
kanałów Hyperiona. Zatem, podczas klasyfikacji informacja spektralna wykorzystywana podczas
klasyfikacji dotyczy szerszego spektrum. Uśrednieniu ulegają także zakłócenia i szumy.
Szczegółowa analiza uzyskanych dokładności klasyfikacji dla metody Maximum Likelihood
( Tab 31) pokazuje, iż dokładności producenta i użytkownika w dużej mierze pokrywają się z tymi,
otrzymanymi dla obrazów po symulacji II. W przypadku klasyfikacji obrazu Astera uzyskano bardzo
zbliżone wartości dokładności, odpowiednio 67% i 69% dla symulacji II i SRF, natomiast
analiza wizualna obrazu wynikowego wskazuje na gorszy rezultat dla obrazu Astera (symulacja II)
( Rys. 57a, Rys. 59a). Wzdłuż całego obrazu (z północy na południe) można zaobserwować grupę
pikseli sklasyfikowanych jako tereny zielone, która stanowi ewidentny błąd związany z zakłóceniami
obrazu Hyperiona (podobny błąd uzyskano w klasyfikacji ML źródłowego obrazu Hyperiona).
Świadczy to o tym, że w klasyfikacji brały udział kanały lub kanał zawierające zakłócenie, które
wpłynęło na błędny wynik klasyfikacji. W całościowym szacowaniu dokładności klasyfikacji
wspomniany błąd, ze względu na niewielką liczbę błędnie sklasyfikowanych pikseli, nie wpłynął
znacząco na wynik (1%). Nie zaznacza się to również w parametrach dokładnościowych
uzyskanych z macierzy rozbieżności ( Tab 31). Jedyne różnice, jakie wystąpiły, zaobserwowano dla
klasy lasy, dla której dokładność producenta i użytkownika wzrosła odpowiednio o 2% i 8% oraz dla
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
132
klasy tereny odkryte, dla której dokładność producenta wzrosła o 1,5%. Widać tu wyraźnie wpływ
kanałów zaszumianych na wynik klasyfikacji. Następstwem tego jest uzyskanie błędnej mapy
tematycznej, dla której niekoniecznie uzyskuje się obniżone wyniki dokładności ( Rys. 59a).
Rys. 59. Wynik klasyfikacji a) Maximum Likelihood, b) Mahalanobis Distance, c) Minimum Distance dla obrazu Hyperion
(174 kanały) oraz dla obrazów po symulacji SRF: ALI_SRF, Aster_SRF, Landsat_SRF, Spot_SRF.
a)
b)
c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
133
Tab 31. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji SRF, klasyfikowanych metodami tradycyjnymi (ML, MhD, MD).
ML MhD MD PA UA CE OE PA UA CE OE PA UA CE OE
1 71,74 100 0,00 28,26 93,92 58,91 41,09 6,08 96,33 83,58 16,42 3,67
2 13,86 86,24 13,76 86,14 13,16 98,85 1,15 86,84 20,53 99,26 0,74 79,47
3 67,31 72,18 27,82 32,69 83,44 33,31 66,69 16,56 77,55 31,86 68,14 22,45
4 61,22 83,98 16,02 38,78 34,20 69,55 30,45 65,80 76,69 82,1 17,9 23,31
5 94,33 58,71 41,29 5,67 52,53 64,71 35,29 47,47 27,93 80,83 19,17 72,07 ALI
_SR
F
OA = 70,07 kappa = 0,57 OA = 50,73 kappa = 0,35 OA = 59,36 kappa = 0,45
1 66,23 100 0,00 33,77 97,73 62,30 37,70 2,27 95,16 89,91 10,09 4,84
2 13,92 87,82 12,18 86,08 17,93 97,70 2,30 82,07 37,12 59,25 40,75 62,88
3 53,94 80,09 19,91 46,06 71,15 41,65 58,35 28,85 76,83 34,25 65,75 23,17
4 64,07 80,79 19,21 35,93 54,68 71,27 28,73 45,32 83,73 75,70 24,30 16,27
5 95,04 56,15 43,85 4,96 60,53 64,45 35,55 39,47 14,43 84,36 15,64 85,57 Ast
er_S
RF
OA = 68,63 kappa = 0,55 OA = 59,41 kappa = 0,44 OA = 58,83 kappa = 0,44
1 66,84 100 0,00 33,16 95,13 62,60 37,40 4,87 96,04 86,9 13,10 3,96
2 14,32 87,08 12,92 85,68 15,31 98,89 1,11 84,69 19,10 99,33 0,67 80,90
3 65,72 72,75 27,25 34,28 89,41 28,07 71,93 10,59 78,63 30,32 69,68 21,37
4 65,44 82,78 17,22 34,56 31,59 71,38 28,62 68,41 76,44 80,61 19,39 23,56
LAN
_SR
F
5 93,74 60,37 39,63 6,26 33,26 71,25 28,75 66,74 18,65 77,47 22,53 81,35
OA = 71,03 kappa = 0,58 OA = 45,11 kappa = 0,29 OA = 56,51 kappa = 0,42
1 64,56 100 0,00 35,44 92,05 91,36 8,64 7,95 96,35 85,47 14,53 3,65
2 16,10 88,73 11,27 83,9 13,87 100 0,00 86,13 19,21 98,68 1,32 80,79
3 67,37 60,96 39,04 32,63 84,56 35,33 64,67 15,44 79,17 30,32 69,68 20,83
4 52,43 84,27 15,73 47,57 64,17 82,98 17,02 35,83 73,11 82,65 17,35 26,89
5 94,02 57,14 42,86 5,98 41,94 68,31 31,69 58,06 24,43 79,52 20,48 75,57 Spo
t_S
RF
OA = 66,31 kappa = 0,52 OA = 59,4 kappa = 0,45 OA = 57,10 kappa = 0,42
35
40
45
50
55
60
65
70
75
Hyperion ALI_SRF Aster_SRF Lan_SRF Spot_SRF
dokł
adność
cał
kow
ita O
A [
%]
ML
MhD
MD
Rys. 60. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodami ML, MhD, MD dla obrazów po symulacji SRF
(ALI_SRF, Aster_SRF, LAN_SRF, Spot_SRF) oraz dla obrazu Hyperiona.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
134
Wyniki klasyfikacji metodą Mahalanobis Distance również są zbliżone do wyników klasyfikacji
tą metodą przeprowadzonej dla symulacji II ( Tab 30, Tab 31), przy czym wzrost dokładności
całkowitej klasyfikacji spowodowany jest głównie wyższą dokładnością producenta w przypadku
klasy tereny odkryte dla obrazów ALI (15%), Landsat (4%), jak również klasy lasy dla obrazów
Aster (2%), Landsat (3%). Dla wszystkich obrazów zanotowano także wzrost dokładności
producenta dla klasy tereny zielone o: 6%, 4%, 3%, 1%, odpowiednio dla obrazów Spota, ALI,
Astera, Landsata ( Tab 30, Tab 31). Można także zaobserwować wyraźne zmniejszenie błędu
przeszacowania klasy wody, który dla obrazu Astera zmniejszył się o 10%, a dla obrazu Spota
o 2,5%. Różnice można zauważyć zwłaszcza dla obrazu Spota na obszarze kombinatu H.T.S.
( Rys. 57b, Rys. 59b). Niestety, dla pozostałych obrazów klasa wody, pomimo wysokiej dokładności
producenta (92 - 98%) została mocno przeszacowana kosztem terenów przemysłowych i zabudowy
(błąd pominięcia 82 - 87%) ( Tab 31). Natomiast dla obrazu Landsata klasą o dużym nadmiarze
okazała się klasa lasy (podobnie jak w symulacji II – Tab 30). Błąd przeszacowania wynosił aż 72%
i w dużej mierze był spowodowany błędnym sklasyfikowaniem terenów zielonych i terenów
odkrytych (błąd pominięcia 68% i 67%) ( Tab 31, Rys. 59b).
Klasyfikacja metodą Minimum Distance dostarczyła bardzo jednorodnych wyników
dokładnościowych ( Rys. 59c, Rys. 60 Tab 31). Dokładność całkowita średnio wynosiła 58%.
W stosunku do wyników symulacji II, dokładności producenta i użytkownika dla większości obrazów
pozostały bez zmian, bądź zmieniły się w bardzo niewielkim stopniu. Największe zmiany (1 - 4%)
dotyczyły tylko dokładności obrazu Astera ( Tab 30, Tab 31). I tak, dla klasy tereny przemysłowe
dokładność producenta spadła z 39% do 37%. Zwiększyło się jednak prawdopodobieństwo
prawidłowej klasyfikacji tej klasy - dokładność użytkownika wynosiła 59% (wzrost o 4%). Wzrosła
także dokładność producenta dla klasy lasy (1%) oraz klasy tereny odkryte (2%). Dla wszystkich
obrazów uzyskano duże przeszacowanie klasy lasy (błędy przeszacowania na poziomie 65%)
kosztem klasy tereny przemysłowe (błąd pominięcia około 80%) ( Rys. 59c, Tab 31).
9.2 Klasyfikacja obrazów metodami dedykowanymi dan ym hiperspektralnym
W niniejszym podrozdziale przedstawiono rezultaty klasyfikacji przeprowadzonej metodami
zaawansowanymi. Procedury klasyfikacyjne oparte były na obrazowych krzywych spektralnych
reprezentujących te same obiekty, które wykorzystano w tradycyjnych metodach ekstrakcji
(podrozdz 8.5.2). W wyniku klasyfikacji danych testowych otrzymano 2 serie obrazów
poklasyfikacyjnych. Pierwsza seria zawierała dane uzyskane po przeprowadzeniu metod
pikselowych SAM (Spectral Angle Mapper) i SFF (Spectral Feature Fitting), natomiast druga seria
obrazów stanowiła wyniki działania procedur podpikselowych LSU (Linear Spectral Unmixing), MF
(Matched Filtering). Parametry dokładnościowe uzyskane dla poszczególnych obrazów
przedstawiono w postaci tabel i wykresów. Natomiast, z uwagi na dużą liczbę obrazów wynikowych
oraz ze względu na ich formę (obrazy składały się z pięciu kanałów odpowiadających danej klasie),
na rysunkach zaprezentowano jedynie przykłady ( Rys. 61, Rys. 62, Rys. 65, Rys. 69, Rys. 70).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
135
9.2.1 Wyniki klasyfikacji pikselowej
W wyniku przeprowadzenia klasyfikacji pikselowej uzyskano obrazy, których wartości pikseli
odpowiadają określonej klasie (półautomatyczna metoda SAM) lub stanowią stopień dopasowania
do krzywej wzorcowej danej klasy (metody: SFF i SAM - Rule Images). W pierwszym przypadku
uzyskano obrazy jednokanałowe (typowe dla wyników klasycznych metod klasyfikacji), natomiast
w drugim przypadku rezultat klasyfikacji stanowiły obrazy 5-kanałowe (wartości pikseli odpowiadały
dopasowaniu krzywych: obrazowej i referencyjnej danej klasy – im jaśniejszy piksel tym większy
stopień dopasowania). W poniższych podrozdziałach przedstawiono wyniki, które otrzymano dla
obydwu metod pikselowych.
9.2.1.1 Spectral Angele Mapper
Rezultatem klasyfikacji obrazów po selekcji i symulacji metodą SAM były 2 zestawy obrazów
klasyfikacyjnych, które poddano analizie dokładności. Pierwszy zestaw zawierał obrazy, dla których
wartości pikseli stanowiły stopień dopasowania pomiędzy krzywą wzorcową, a krzywą spektralną
dla analizowanego piksela (zestaw SAM). Drugi zestaw to obrazy uzyskane w wyniku działania
procedury poklasyfikacyjnej Rule Classifier, dla których wartości pikseli zostały ustalone w wyniku
progowania obrazów poszczególnych klas/frakcji tzw. Rule Images (zestaw SAM_RC). W obydwu
przypadkach do szacowania dokładności zastosowana została macierz rozbieżności. Uzyskane
parametry tj. dokładność całkowita (OA), dokładności producenta (PA) i użytkownika (UA) oraz
błędy przeszacowania (CE) i pominięcia (OE) zostały zestawione w tabelach ( Tab 32 - Tab 36).
Przykłady obrazów wynikowych zestawów SAM i SAM_RC przedstawiono na rysunkach ( Rys. 61,
Rys. 62). Natomiast na wykresach ( Rys. 63, Rys. 64) zaprezentowano uzyskane wartości
dokładności całkowitej (OA) w zależności od klasyfikowanego obrazu.
W wyniku klasyfikacji obrazów testowych metodą SAM uzyskano bardzo niskie dokładności
całkowite na poziomie 35 – 52%. Wartości dokładności uzyskiwanych dla obydwu zestawów SAM
i SAM_RC były do siebie bardzo zbliżone. Dla zestawu SAM dokładność całkowita mieściła się
w przedziałach:
• 35 – 46% (selekcja I) ( Tab 32)
• 42 – 45% (selekcja II) ( Tab 33)
• 46 – 52% (symulacja I) ( Tab 34)
• 42 – 46% (symulacja II) ( Tab 35)
• 40 – 46% (symulacja SRF) ( Tab 36)
Natomiast dla obrazów uzyskanych za pomocą funkcji Rule Classiefier (SAM_RC) uzyskano
nieznacznie wyższe wartości dokładności całkowitej wynoszące:
• 40 – 47% (selekcja I) ( Tab 32)
• 44 – 46% (selekcja II) ( Tab 33)
• 46 – 52% (symulacja I) ( Tab 34)
• 43 – 47% (symulacja II) ( Tab 35)
• 41 – 47% (symulacja SRF) ( Tab 36)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
136
Analiza wizualna wyników klasyfikacji ( Rys. 61) dla obrazów pierwszego zestawu SAM
wykazała występowanie pikseli nie przyporządkowanych do żadnej z klas. Są to głównie piksele
reprezentujące wody płynące (Wisła), zbiorniki wodne (żwirownie, północna część Zbiornika
Dobczyckiego), jak również tereny przemysłowe (H.T.S.). Ta sama grupa pikseli w procedurze
SAM_RC ( Rys. 62), w przeważającej mierze została sklasyfikowana jako klasa wody. Na podstawie
danych z tabeli ( Tab 32) można zauważyć, iż dokładność producenta klasy wody wzrosła średnio
o 26% dla obrazów po selekcji, i o 16% dla obrazów symulowanych. Różnice dokładności
klasyfikacji całkowitej między zestawem SAM i SAM_RC są, zatem związane głównie ze zmianą
dokładności producenta klasy wody (w przypadku wszystkich klasyfikowanych obrazów). Analiza
wizualna obrazów H22, H11, H10, H6 wyraźnie wskazuje również poprawę dokładności klasyfikacji
dla klasy tereny zielone w procedurze SAM_RC (wzrost dokładności producenta średnio o 15%)
oraz duże przeszacowanie klasy lasy (średnio 75%).
Rys. 61. Wynik klasyfikacji metodą SAM obrazu Hyperiona oraz obrazów po selekcji I: H87, H44, H22, H11, H6.
Rys. 62. Wynik klasyfikacji metodą SAM (Rule Classifier) obrazu Hyperiona oraz obrazów po selekcji I: H87, H44,
H22, H11, H6.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
137
35
36
37
38
39
40
41
42
43
44
45
46
47
48
Hyperion H87 H44 H22 H11 H6
dokł
adność
ca
łkow
ita O
A [%
]
SAM
SAM_RC
35
36
37
38
39
40
41
42
43
44
45
46
47
48
H20 H18 H16 H14 H12 H10
dokł
adno
ść c
ałko
wita
OA
[%]
SAM
SAM_RC
Rys. 63. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodą SAM i SAM_RC dla obrazów po a) selekcji I
b) selekcji II.
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
Hyperion ALI AsterI Landsat Spot
dok
ładn
ość
całk
owita
OA
[%]
SAM_I
SAM_II
SAM_SRF
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
Hyperion ALI AsterI Landsat Spot
dokł
adność
cał
kow
ita O
A [%
]
SAM_RC_SII
SAM_RC_SI
SAM_RC_SRF
Rys. 64. Wykres dokładności całkowitej (OA) klasyfikacji wykonanej metodą a) SAM b) SAM_RC dla obrazów po symulacjach
(I, II, SRF).
Na podstawie analizy tabel ( Tab 32 - Tab 36) i wykresów ( Rys. 63) widać, iż dla obrazów
redukowanych (selekcja I i II) wyniki klasyfikacji metody opartej na progowaniu obrazów Rule są
nieznacznie lepsze od wyników SAM. W zależności od liczby kanałów wzrost wartości dokładności
całkowitej wynosił 6% (H6, H22), 4% (H10), 3% (H11, H16, H20), 1 - 2% (Hyperion, H87, H44, H18,
H12). Przy czym, należy zauważyć, iż dla obrazów po selekcji I, w przypadku obydwu metod
występuje bardzo podobna tendencja zmian w wartościach dokładności. A mianowicie, dla
źródłowego obrazu Hyperiona uzyskano dokładność 46% i 47%, po zredukowaniu liczby kanałów
o połowę, dokładność spadła w obu przypadkach o 2% ( Tab 32). Natomiast kolejna redukcja
kanałów (do 44) spowodowała wzrost dokładności o 3%. Zmniejszanie liczby kanałów do 22, 11,
6 powoduje spadek z poziomu 46% do odpowiednio 39%, 37%, 35% (SAM) oraz z poziomu 48%
do 45%, 40% (SAM_RC - za wyjątkiem obrazu H6, dla którego zanotowano wzrost dokładności
o 1%). Zaznacza się wyraźnie podwyższenie wartości dokładności dla obrazu liczącego 44 kanały
i istotne obniżenie dla obrazów o liczbie kanałów mniejszej od 22 (selekcja I) ( Tab 32). Co ciekawe,
dla obrazów uzyskanych w wyniku eliminacji kanałów z obrazu H22 (selekcja II) otrzymano lepsze
a) b)
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
138
rezultaty klasyfikacji, niż dla obrazu wejściowego ( Rys. 63b). Wartości dokładności całkowitej
w metodzie SAM wzrosły z 36 - 39% do poziomu 42 - 45% ( Tab 33).
Najwyższą dokładność dla obrazów symulowanych uzyskano dla obrazów o największej
liczbie kanałów (symulacja I). Wartości dokładności całkowitej dla obu zestawów (SAM i SAM_RC)
mieściły się w przedziale 46 - 52% ( Tab 34). Najwyższą wartość w zestawie SAM uzyskano
dla symulowanego obrazu Aster (SI - 52%, SII - 47%, SRF - 46%), a najniższą dla obrazu Landsat
(SI - 46%, SII - 43%, SRF - 40%) ( Tab 35, Tab 36). Wartości dokładności całkowitej dla zestawu
SAM_RC w przypadku symulacji II i SRF były bardzo podobne (różnica 1 - 3%) i zawierały się
w przedziale 42 – 47% ( Tab 35, Tab 36).
Tab 32. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po selekcji I, klasyfikowanych metodą SAM i SAM_RC.
SAM SAM_RC obraz klasa
PA UA CE OE PA UA CE OE
1 67,18 100,00 0,00 32,82 85,14 99,93 0,07 14,86
2 14,49 97,65 2,35 85,51 14,67 97,20 2,80 85,33
3 46,37 22,79 77,21 53,63 29,98 26,05 73,95 70,02
4 45,10 38,29 61,71 54,90 65,03 40,93 59,07 34,97
5 15,93 53,42 46,58 84,07 16,46 53,98 46,02 83,54
H6
OA = 35,58 kappa = 0,10 OA = 41,42 kappa = 0,14
1 64,80 100,00 0,00 35,20 92,14 94,37 5,63 7,86
2 18,79 97,27 2,73 81,21 19,88 95,55 4,45 80,12
3 67,34 26,42 73,58 32,66 60,26 29,68 70,32 39,74
4 32,14 37,19 62,81 67,86 42,51 37,31 62,69 57,49
H1
1
5 23,75 61,64 38,36 76,25 20,67 59,90 40,10 79,33
OA = 36,97 kappa = 0,15 OA = 40,21 kappa = 0,17
1 63,75 100,00 0,00 36,25 91,93 89,67 10,33 8,07
2 23,02 94,78 5,22 76,98 23,40 92,45 7,55 76,60
3 74,38 28,22 71,78 25,62 62,16 34,39 65,61 37,84
4 28,24 36,74 63,26 71,76 48,58 41,19 58,81 51,42
5 29,46 65,88 34,12 70,54 26,86 65,06 34,94 73,14
H2
2
OA = 38,72 kappa = 0,18 OA = 45,06 kappa = 0,23
1 64,11 100,00 0,00 35,89 90,02 97,10 2,90 9,98
2 23,53 95,98 4,02 76,47 23,74 95,05 4,95 76,26
3 65,38 36,31 63,69 34,62 65,38 36,31 63,69 34,62
4 50,21 43,53 56,47 49,79 50,10 44,19 55,81 49,90
5 31,13 67,51 32,49 68,87 32,78 67,97 32,03 67,22
H4
4
OA = 46,22 kappa = 0,25 OA = 48,00 kappa = 0,27
1 61,30 100,00 0,00 38,70 92,57 89,32 10,68 7,43
2 21,32 98,14 1,86 78,68 24,53 89,34 10,66 75,47
3 50,76 33,26 66,74 49,24 50,76 33,26 66,74 49,24
4 54,82 40,99 59,01 45,18 54,79 41,24 58,76 45,21
5 24,86 64,13 35,87 75,14 24,86 64,13 35,87 75,14
H8
7
OA = 43,09 kappa = 0,19 OA = 44,85 kappa = 0,21
1 79,32 99,95 0,05 20,68 79,32 99,95 0,05 20,68
2 25,86 88,18 11,82 74,14 25,86 88,18 11,82 74,14
3 69,00 35,73 64,27 31,00 69,00 35,73 64,27 31,00
4 46,59 43,17 56,83 53,41 46,59 43,17 56,83 53,41
5 33,48 68,09 31,91 66,52 33,48 68,09 31,91 66,52 Hy
pe
rio
n
OA = 47,11 kappa = 0,26 OA = 47,11 kappa = 0,26
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
139
Tab 33. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po selekcji II, klasyfikowanych metodą SAM i SAM_RC.
SAM SAM_RC obraz klasa
PA UA CE OE PA UA CE OE
1 57,74 100,00 0,00 42,26 90,04 88,64 11,36 9,96
2 24,33 96,83 3,17 75,67 24,80 96,36 3,64 75,20
3 15,71 14,71 85,29 84,29 11,76 20,04 79,96 88,24
4 73,75 45,41 54,59 26,25 82,54 44,53 55,47 17,46
5 16,86 57,10 42,90 83,14 16,86 57,10 42,90 83,14
H1
0
OA = 41,52 kappa = 0,14 OA = 45,89 kappa = 0,18
1 67,53 100,00 0,00 32,47 93,49 90,85 9,15 6,51
2 25,12 95,68 4,32 74,88 25,12 95,68 4,32 74,88
3 35,13 33,83 66,17 64,87 35,13 33,83 66,17 64,87
4 69,20 42,92 57,08 30,80 69,20 42,92 57,08 30,80
H1
2
5 19,36 59,47 40,53 80,64 19,36 59,47 40,53 80,64
OA = 44,66 kappa = 0,19 OA = 45,98 kappa =0,21
1 68,41 100,00 0,00 31,59 92,82 94,63 5,37 7,18
2 23,73 95,09 4,91 76,27 23,73 95,09 4,91 76,27
3 48,13 32,99 67,01 51,87 48,13 32,99 67,01 51,87
4 56,72 40,89 59,11 43,28 56,72 40,89 59,11 43,28
5 22,86 62,26 37,74 77,14 22,86 62,26 37,74 77,14
H1
4
OA = 43,24 kappa = 0,19 OA =44,47 kappa = 0,20
1 66,84 100,00 0,00 33,16 90,85 98,99 1,01 9,15
2 21,07 98,17 1,83 78,93 22,21 96,10 3,90 77,79
3 57,29 33,07 66,93 42,71 57,29 33,07 66,93 42,71
4 49,52 40,20 59,80 50,48 49,30 41,55 58,45 50,70
5 26,51 64,69 35,31 73,49 31,63 67,08 32,92 68,37
H1
6
OA = 43,00 kappa = 0,19 OA = 45,77 kappa = 0,23
1 65,17 100,00 0,00 34,83 91,64 96,90 3,10 8,36
2 21,20 97,82 2,18 78,80 21,99 96,61 3,39 78,01
3 59,19 34,70 65,30 40,81 59,19 34,70 65,30 40,81
4 51,28 41,18 58,82 48,72 51,28 41,18 58,82 48,72
H1
8
5 26,32 64,46 35,54 73,68 26,32 64,46 35,54 73,68
OA = 43,92 kappa =0,21 OA = 45,3 kappa = 0,23
1 63,98 100,00 0,00 36,02 91,26 95,19 4,81 8,74
2 21,32 97,51 2,49 78,68 21,82 96,74 3,26 78,18
3 60,97 34,72 65,28 39,03 60,97 34,72 65,28 39,03
4 50,24 41,11 58,89 49,76 50,04 42,53 57,47 49,96
5 25,87 64,01 35,99 74,13 30,30 66,26 33,74 69,70
H2
0
OA = 43,65 kappa = 0,21 OA = 46,34 kappa = 0,24
Tab 34. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji I, klasyfikowanych metodą SAM i SAM_RC.
SAM SAM_RC obraz klasa
PA UA CE OE PA UA CE OE
1 64,91 100,00 0,00 35,09 88,58 97,15 2,85 64,91
2 24,81 94,92 5,08 75,19 24,81 94,92 5,08 24,81
3 63,49 37,61 62,39 36,51 63,49 37,61 62,39 63,49
4 53,06 45,21 54,79 46,94 53,06 45,21 54,79 53,06
5 35,49 69,58 30,42 64,51 35,49 69,58 30,42 35,49
ALI
_S
I
OA = 48,45 kappa = 0,27 OA = 49,64 kappa = 0,29
1 68,78 100,00 0,00 31,22 80,20 99,68 0,32 68,78
2 29,08 91,80 8,20 70,92 29,08 91,80 8,20 29,08
3 60,13 36,27 63,73 39,87 60,13 36,27 63,73 60,13
4 51,46 48,49 51,51 48,54 51,46 48,44 51,56 51,46 Ast
er_
SI
5 49,19 73,09 26,91 50,81 49,20 72,64 27,36 49,19
OA = 51,85 kappa = 0,32 OA = 52,43 kappa = 0,33
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
140
1 69,07 100,00 0,00 30,93 82,74 99,84 0,16 69,07
2 26,74 93,77 6,23 73,26 28,64 87,55 12,45 26,74
3 62,18 35,67 64,33 37,82 62,18 35,67 64,33 62,18
4 50,52 42,06 57,94 49,48 50,53 42,17 57,83 50,52
5 29,87 67,45 32,55 70,13 29,87 67,45 32,55 29,87
Lan
_S
I
OA = 45,81 kappa = 0,24 OA = 46,62 kappa = 0,25
1 70,77 100,00 0,00 29,23 85,41 98,20 1,80 70,77
2 28,15 91,59 8,41 71,85 28,15 91,59 8,41 28,15
3 65,76 59,94 40,06 34,24 70,99 30,86 69,14 65,76
4 27,54 16,15 83,85 72,46 33,39 41,06 58,94 27,54
5 43,32 72,83 27,17 56,68 43,32 72,83 27,17 43,32
Sp
ot_
SI
OA = 49,61 kappa = 0,29 OA = 45,77 kappa = 0,26
Tab 35. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji II, klasyfikowanych metodą SAM.
SAM SAM_RC obraz klasa
PA UA CE OE PA UA CE OE
1 72,10 100,00 0,00 27,90 88,67 96,95 3,05 72,10
2 23,52 95,29 4,71 76,48 23,55 94,91 5,09 23,52
3 71,79 31,79 68,21 28,21 69,53 33,36 66,64 71,79
4 35,83 37,71 62,29 64,17 40,42 39,92 60,08 35,83
5 29,66 66,31 33,69 70,34 31,53 66,18 33,82 29,66
ALI
_S
II
OA = 41,72 kappa = 0,20 OA = 47,11 kappa = 0,26
1 66,86 100,00 0,00 33,14 84,62 95,25 4,75 15,38
2 29,73 90,90 9,10 70,27 28,26 93,82 6,18 71,74
3 51,80 37,76 62,24 48,20 62,78 33,14 66,86 37,22
4 61,34 43,14 56,86 38,66 45,50 38,80 61,20 54,50
5 24,59 65,03 34,97 75,41 24,60 64,63 35,37 75,40 Ast
er_
SII
OA = 46,57 kappa 0,23 OA = 43,21 kappa = 0,20
1 71,14 100,00 0,00 28,86 87,49 96,85 3,15 12,51
2 26,96 93,46 6,54 73,04 25,88 96,97 3,03 74,12
3 65,78 34,54 65,46 34,22 68,08 33,44 66,56 31,92
4 45,00 39,01 60,99 55,00 41,18 37,85 62,15 58,82
5 26,25 64,72 35,28 73,75 26,25 64,44 35,56 73,75
Lan
_S
II
OA = 43,33 kappa = 0,21 OA = 43,01 kappa = 0,20
1 72,29 100,00 0,00 27,71 83,90 99,33 0,67 16,10
2 29,74 90,43 9,57 70,26 29,05 93,85 6,15 70,95
3 72,39 31,15 68,85 27,61 72,39 31,15 68,85 27,61
4 32,61 37,06 62,94 67,39 32,36 38,27 61,73 67,64 Sp
ot_
SII
5 34,47 70,11 29,89 65,53 38,54 70,99 29,01 61,46
OA = 42,45 kappa = 0,22 OA = 44,14 kappa = 0,24
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
141
Tab 36. Zestawienie parametrów dokładnościowych uzyskanych na podstawie macierzy rozbieżności dla obrazów po symulacji SRF, klasyfikowanych metodą SAM i SAM_RC.
SAM SAM_RC obraz klasa
PA UA CE OE PA UA CE OE
1 71,02 100,00 0,00 28,98 87,62 99,25 0,75 12,38
2 24,22 95,32 4,68 75,78 23,97 96,83 3,17 76,03
3 71,71 31,95 68,05 28,29 71,71 31,95 68,05 28,29
4 35,84 37,73 62,27 64,16 35,86 37,49 62,51 64,14
5 30,44 66,84 33,16 69,56 30,44 66,79 33,21 69,56
ALI
_S
RF
OA = 41,94 kappa = 0,20 OA = 42,77 kappa = 0,21
1 69,29 100,00 0,00 30,71 83,76 98,99 1,01 16,24
2 30,71 91,21 8,79 69,29 29,00 93,95 6,05 71,00
3 48,34 34,94 65,06 51,66 57,45 29,83 70,17 42,55
4 60,79 43,06 56,94 39,21 44,82 38,77 61,23 55,18
5 25,44 66,06 33,94 74,56 25,47 65,63 34,37 74,53 Ast
er_
SR
F
OA = 46,15 kappa = 0,22 OA = 42,22 kappa = 0,19
1 71,66 100,00 0,00 28,34 85,81 98,70 1,30 14,19
2 27,43 94,41 5,59 72,57 26,58 96,87 3,13 73,42
3 40,36 25,80 74,20 59,64 45,74 21,86 78,14 54,26
4 52,96 38,95 61,05 47,04 42,11 41,19 58,81 57,89
5 19,99 60,07 39,93 80,01 31,07 67,35 32,65 68,93
Lan
_S
RF
OA = 39,82 kappa = 0,14 OA = 40,63 kappa = 0,18
1 72,67 100,00 0,00 27,33 84,36 99,48 0,52 15,64
2 29,24 91,26 8,74 70,76 29,04 92,72 7,28 70,96
3 69,16 29,85 70,15 30,84 70,59 28,86 71,14 29,41
4 33,81 36,48 63,52 66,19 30,78 37,28 62,72 69,22
5 29,48 67,40 32,60 70,52 34,12 69,25 30,75 65,88 Sp
ot_
SR
F
OA = 40,77 kappa = 0,19 OA = 41,85 kappa = 0,21
9.2.1.2 Spectral Feature Fitting
Po klasyfikacji metodą SFF uzyskano obrazy, w których wartości pikseli przedstawiały wynik
porównania krzywych pikselowych do krzywych referencyjnych. W zależności od wybranej opcji
wyniki dopasowania przyjmowały postać:
1) zestaw złożony z N - kanałowego obrazu dopasowania do poszczególnych wzorców (Scale
Image) i z obrazu błędów dopasowania (RMS Image),
2) N - kanałowego obrazu dopasowania (Fit Image), który stanowił wynik dzielenia obrazu
dopasowania każdego z wzorców przez obraz błędów.
W pierwszym przypadku, w wyniku poprawnej klasyfikacji otrzymano obraz, na którym wartości
zapisane w pikselach stanowiły miarę głębokości piku absorpcyjnego. Miara ta jest związana
z zawartością wzorca danej klasy dla danego piksela. Im jaśniejszy ton, tym lepsze dopasowanie
krzywej obrazowej do krzywej wzorcowej. Najlepsze dopasowanie uzyskiwano, jeżeli piksele
w obrazie dopasowania posiadały wartości zbliżone do 1, natomiast piksele w obrazie błędów miały
wartości bliskie 0. Występowanie pikseli o wartościach znacznie większych od 1, oznaczało
zupełnie rozbieżne charakterystyki wzorca i obrazu. Mogło to być spowodowane błędnym doborem
wzorców lub wykorzystaniem nieprawidłowego zakresu spektralnego.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
142
Natomiast dla drugiej opcji (Fit Image) piksele obrazu dopasowania posiadające duże wartości
były interpretowane jako odpowiadające wzorcowi. Po przetestowaniu metody na kilku obrazach
zdecydowano, iż ze względu na uproszczoną analizę rezultatów, do klasyfikacji obrazów testowych
metodą SFF zostanie wykorzystana druga opcja zapisu obrazów wynikowych.
Rys. 65. Wynik klasyfikacji SFF dla obrazu Hyperiona na podstawie krzywych z pól treningowych (1 - wody, 2 - tereny
przemysłowe/zabudowa, 3 - lasy, 4 - tereny zielone, 5 - tereny odkryte) - stopień szarości oznacza stopień dopasowania
wartości danego piksela do wzorca, jasne piksele oznaczają wysoki stopień dopasowania, a ciemne niski.
W pierwszej fazie metody SFF dla krzywych pikselowych obrazu oraz dla krzywych
referencyjnych wykonywana została normalizacja czyli usuwanie tzw. kontinuum. Krzywe zostały
przekształcone do postaci CR (Continuum Removed) (podrozdz. 3.5.1.2). Wcześniej każda krzywa
spektralna wzorca została „przepróbkowana” do zakresów spektralnych kanałów klasyfikowanych
obrazów ( Rys. 40, Rys. 41, Rys. 42, Rys. 43). W przypadku niewielkiej liczby kanałów w obrazie,
krzywe po resamplingu znormalizowane do postaci CR uzyskały wartości, które nie nadają się do
porównania ( Rys. 66b, Rys. 67b). W związku z tym, dla obrazów testowych posiadających liczbę
kanałów mniejszą niż 9, przeprowadzenie klasyfikacji metodą SFF nie było możliwe. Na rysunkach
( Rys. 66, Rys. 67) przedstawiono referencyjne krzywe spektralne po resamplingu do zakresów
spektralnych Astera (9 kanałów) ( Rys. 66a) i Spota (4 kanały) ( Rys. 67a), które zostały
znormalizowane do postaci CR ( Rys. 66b, Rys. 67b). Analiza wymienionych krzywych wykazała, iż
w przypadku krzywej spektralnej wody wartości CR są mniejsze od 0 ( Rys. 67b), natomiast dla
wzorca tereny przemysłowe/zabudowa wartości krzywej CR są równe 1 ( Rys. 67c). W takim
przypadku procedura SFF dla drugiego wzorca nie mogła być przeprowadzona, gdyż jego krzywa
spektralna nie posiadała żadnych pików absorpcyjnych. W związku z tym, nie istniała możliwość
porównania cech spektralnych dla tej klasy. W sytuacji, gdy charakterystyki spektralne wzorców, dla
których CR = 1, zostały usunięte z zestawu referencyjnego, wartości pikseli w obrazie wynikowym
klasyfikacji SFF uzyskały bardzo wysokie wartości (>50), dostarczając tym samym zafałszowanych
2 4 3 1 5
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
143
wartości dopasowania. Obrazy, dla których uzyskiwano tego typu wartości musiały zostać
wyeliminowane z zestawu obrazów klasyfikowanych. Taka sytuacja wystąpiła dla obrazów Spota
i Landsata (symulacja II i symulacja SRF) oraz dla obrazu Astera symulowanego za pomocą
metody SRF.
Rys. 66. Krzywe wzorcowe dla obrazu Aster (9 kanałów) a) po resamplingu do zakresów spektralnych b) przekształcone do
postaci CR c) krzywa CR dla klasy tereny przemysłowe/zabudowa (CR = 1).
Rys. 67. Krzywe wzorcowe dla obrazu Spot (4 kanały) a) po resamplingu do zakresów spektralnych b) przekształcone do
postaci CR c) krzywa CR dla klasy tereny przemysłowe/zabudowa (CR = 1).
Metoda SFF jest dedykowana analizie pików absorpcyjnych. Dostarcza dobrych rezultatów
w przypadku badania konkretnej cechy charakterystycznej dla określonego obiektu,
dla którego pozyskane są krzywe spektralne. Jeżeli metoda zostanie zastosowana dla obiektów,
dla których nie występuje pik absorpcyjny (CR~1, Rys. 67c) lub jeżeli pik osiąga wartości
nierzeczywiste (CR <<0, Rys. 67b), wówczas obrazy wynikowe są przeszacowane na rzecz klasy,
która posiada największy pik absorpcyjny lub niedoszacowanie dla klasy, nieposiadającej takiego
piku. W prowadzonych badaniach przedstawiona sytuacja wystąpiła dla krzywej wzorcowej wody,
która dla zakresu SWIR posiadała ujemne wartości odpowiedzi spektralnej. To spowodowało, iż
dokładność uzyskana dla klasy wody była większa niż 100%, natomiast pozostałe klasy zostały
sklasyfikowane z bardzo niską dokładnością. Po wyłączeniu z procedury klasyfikacji krzywej wody
( Rys. 68), dokładność całkowita wzrosła minimalnie. Współczynnik CC dla poszczególnych klas
wynosił od 3% do 15%.
a) b) c)
a) b) c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
144
Rys. 68. a) Pełny zestaw krzywych referencyjnych (WI) przekształconych do postaci CR b) Krzywe referencyjne (WI)
przekształcone do postaci CR po usunięciu krzywej wody.
Nasuwa się wniosek dotyczący wykorzystania obrazowych krzywych spektralnych jako
wzorców klas. Okazuje się, że nie w każdej metodzie klasyfikacji krzywe obrazowe mogą pełnić rolę
krzywych referencyjnych, zwłaszcza w przypadku obrazów zawierających zakłócenia i szumy. Na
podstawie uzyskanych wyników analizy dokładności klasyfikacji metodą SFF można stwierdzić, że
w bibliotece krzywych referencyjnych nie może być krzywych spektralnych dla obiektów, które
znacząco różnią się wartościami odbicia lub jeśli krzywe posiadają wartości nierzeczywiste (<<0).
W takich przypadkach należy wyeliminować z analizy klasę, która jest reprezentowana przez
niewłaściwą krzywą spektralną.
Podsumowując, w metodzie SFF uzyskano bardzo niskie wartości wskaźników dokładności
wyniku klasyfikacji. Zastosowana metoda wykorzystująca współczynnik poprawności CC nie
dostarczyła wiarygodnych wyników. Uzyskano, bowiem nierzeczywiste wartości parametrów
dokładnościowych (np. dokładność całkowita >100%). Na podstawie uzyskanych wyników można
stwierdzić, że do obliczenia dokładności klasyfikacji wykonanej metodą SFF należy zastosować
inną metodę szacowania dokładności niż współczynnik CC. W związku z powyższym, w dalszej
części porównania wyników poszczególnych metod, rezultaty klasyfikacji za pomocą metody SFF
zostały wyłączone z analizy. Należy jednak podkreślić, że planowane są prace nad modyfikacją
założeń algorytmu obliczania współczynnika CC, dostosowane do specyfiki metody SFF.
9.2.2 Wyniki klasyfikacji podpikselowej
W metodach podpikselowych przeprowadza się analizę spektrum każdego piksela
w porównaniu z poszczególnymi charakterystykami spektralnymi wzorców, a następnie oblicza się
procentowy udział każdego wzorca w odpowiedzi spektralnej danego piksela. W wyniku klasyfikacji
Linear Spectral Unmixing (LSU) uzyskuje się obrazy o wartości prawdopodobieństwa od 0 do 1.
Przy czym, najlepsze dopasowanie stanowią piksele o wartościach zbliżonych do 1 (reprezentujące
najjaśniejsze piksele w obrazie). Piksele pięciokanałowego obrazu wynikowego (5 - liczba
wzorców) metody LSU przedstawiają wartości, reprezentujące udział procentowy dla
każdego z wzorców – przykład wyniku klasyfikacji obrazu źródłowego Hyperiona
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
145
zaprezentowano na rysunku ( Rys. 69). Dodatkowo, w metodzie tej generowany jest obraz rozkładu
błędu RMS ( Rys. 69).
Natomiast w metodzie Matched Filtering (MF) uzyskuje się obrazy dopasowania
dla poszczególnych klas/frakcji (obrazy MF Score). Przykładowe obrazy frakcji, otrzymane dla
Hyperiona po klasyfikacji metodą MF przedstawiono na rysunku ( Rys. 70). Wartości pikseli
w obrazie wynikowym MF są proporcjonalne do udziału danej klasy w tworzeniu wartości
poszczególnych pikseli. Każdy piksel z wartością 0 lub mniejszą jest uznawany jako tło, co
oznacza, że klasa w ogóle nie występuje w obrębie danego piksela.
Wyniki klasyfikacji LSU i MF przedstawione zostały w formie zestawienia wartości
współczynnika poprawności klasyfikacji CC ( Tab 37 - Tab 42). Współczynnik został policzony
zarówno dla całego klasyfikowanego obrazu (CC), jak i dla poszczególnych klas: wody - CC1,
tereny przemysłowe/zabudowa - CC2, lasy - CC3, tereny zielone - CC4, tereny odkryte - CC5.
W tabelach przedstawiono zestawienie parametrów dokładności dla wariantu I (WI) i wariantu II
(WII), wyrażone w procentach (%). Dodatkowo, sporządzono zbiorcze wykresy prezentujące
zmienność wartości współczynnika poprawności klasyfikacji CC w zależności od klasyfikowanego
obrazu ( Rys. 71 - Rys. 81). Uzupełnienie stanowiły wykresy przedstawiające różnice
współczynników CC (całkowitego i dla frakcji) uzyskane w wariancie I i II ( Rys. 72 - Rys. 82).
Rys. 69. Wyniki klasyfikacji LSU dla obrazu Hyperiona – od lewej klasy: 1 - wody, 2 - tereny przemysłowe/zabudowa, 3 - lasy,
4 - tereny zielone, 5 - tereny odkryte, 6 - obraz rozkładu błędu RMS (im jaśniejszy ton piksela tym większy udział danej klasy lub
większy błąd).
5 6 2 3 1 4
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
146
Rys. 70. Wynik klasyfikacji MF dla obrazu Hyperiona – od lewej klasy: 1 - wody, 2 - tereny przemysłowe/zabudowa, 3 - lasy,
4 - tereny zielone, 5 - tereny odkryte (im jaśniejszy ton piksela, tym większy udział danej klasy).
9.2.2.1 Wyniki klasyfikacji obrazów o zredukowanej liczbie kanałów
W niniejszym podrozdziale przedstawiono wyniki klasyfikacji metodami podpikselowymi LSU
i MF, uzyskane dla obrazów o zredukowanej liczbie kanałów w wyniku selekcji i transformacji. Ze
względu na brak możliwości transformacji krzywych referencyjnych metodą PCA, klasyfikację LSU
i MF wykonano tylko dla obrazów po transformacji MNF.
9.2.2.1.1 Klasyfikacja obrazów po selekcji I
Klasyfikacja obrazów zawierających kanały wybrane w selekcji I przeprowadzona metodami
LSU i MF, dostarczyła wyniki o różnej dokładności ( Tab 37). Zdecydowanie lepsze wyniki uzyskano
dla metody LSU ( Rys. 71). Dokładność klasyfikacji dla wszystkich obrazów z selekcji I (z wyjątkiem
H6) wynosiła około 80% (wariant I) i 84% (wariant II). Jedynie dla obrazu H6 uzyskano bardzo słaby
wynik klasyfikacji. Współczynnik CC dla tego obrazu był równy około 18% (wariant I) i 59% (wariant
II) ( Rys. 72a). Całkowity współczynnik poprawności klasyfikacji CC został obniżony przez bardzo
niską dokładność klas: wody i lasy uzyskaną, zarówno w wariancie I (1%, 13%), jak i w wariancie II
(18%, 26%). Niska dokładność była także spowodowana słabym sklasyfikowaniem klasy terenów
zielonych (8%) i terenów odkrytych (28%) w wariancie I oraz klasy tereny przemysłowe w wariancie
II, dla której współczynnik CC wynosił zaledwie 12% ( Tab 37, Rys. 72a). Należy zaznaczyć, że
klasa wody dla pozostałych obrazów z zestawu selekcji I również uzyskała bardzo niską
wartość współczynnika CC wynoszącą 8 - 21% (wariant I) oraz 12 - 29% (wariant II). Obrazy po
selekcji I (liczba kanałów >10) zostały poprawnie sklasyfikowane dla klasy tereny odkryte, dla której
współczynnik CC wynosił 91 - 95%. Najlepszą wartość współczynnika CC otrzymano dla klasy
1 2 3 4 5
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
147
tereny zielone, która za wyjątkiem obrazu H6 uzyskała dokładność na poziomie 87 - 93% (wariant I)
oraz 92 - 99% (wariant II). Wysoką dokładność uzyskano również dla klasy tereny
przemysłowe/zabudowa. W wariancie I dokładność dla tej klasy oscylowała wokół wartości 83%,
natomiast w wariancie II wynosiła około 84%. Stosunkowo dobrze sklasyfikowana została klasa
lasy. Dla obrazów z zestawem kanałów powyżej 10 dokładność CC utrzymywała się w granicach
48 - 60% ( Tab 37).
Tab 37. Współczynnik CC dla obrazów klasyfikowanych metodami zaawansowanymi – selekcja I (wariant I i II).
obraz Hyperion H87 H44 H22 H11 H6
Me
tod
a
Wariant
Dokładność W I W II W I W II W I W II W I W II W I W II W I W II
CC1 51,25 51,21 7,62 12,20 20,98 28,89 19,24 26,24 15,60 23,90 1,20 18,17
CC2 89,73 84,55 86,82 86,44 86,17 86,59 78,59 84,88 75,19 77,67 53,83 11,58
CC3 48,00 47,51 56,10 52,81 56,29 55,08 54,50 54,71 57,25 60,65 12,89 25,70
CC4 87,79 97,21 92,95 99,23 92,19 98,94 89,32 99,00 86,97 99,44 8,33 92,27
CC5 93,29 91,36 92,96 93,25 93,21 93,13 93,52 94,71 91,95 93,79 27,86 51,73
LSU
CC 80,30 85,31 81,37 83,52 81,82 84,64 79,88 84,84 78,60 85,27 17,67 58,57
CC1 81,85 85,53 60,61 60,50 66,03 65,68 79,11 78,09 100,00 100,00 99,23 99,23
CC2 92,75 77,83 52,09 50,07 64,16 61,77 62,56 59,40 96,99 94,52 97,79 93,61
CC3 66,32 57,34 42,33 42,41 44,64 45,04 52,96 53,75 57,84 64,48 65,81 64,26
CC4 56,27 50,63 54,44 54,41 54,02 53,91 56,22 56,65 68,04 59,36 68,71 63,45
CC5 54,17 50,55 49,77 49,92 47,91 48,23 49,05 49,26 66,65 64,88 65,24 66,70
MF
CC 61,57 59,64 50,90 50,81 51,63 51,59 54,96 55,09 69,13 66,26 70,34 68,29
0
10
20
30
40
50
60
70
80
90
Hyperion H87 H44 H22 H11 H6
wsp
ółcz
ynni
k C
C [%
]
LSU_WI
MF_WI
LSU_WII
MF_WII
Rys. 71. Współczynnik poprawności klasyfikacji wykonanej metodami LSU i MF dla obrazów uzyskanych po selekcji I (WI –
wariant I, WII - wariant II).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
148
-50
-30
-10
10
30
50
70
90
Hyperion H87 H44 H22 H11 H6
różn
ica
wsp
ółcz
ynni
ka C
C (
WII
- W
I)
1
2
3
4
5
CC
-15
-13
-11
-9
-7
-5
-3
-1
1
3
5
7
Hyperion H87 H44 H22 H11 H6
różn
ica
wsp
ółcz
ynni
ka C
C (
WII
- W
I)
1
2
3
4
5
CC
Rys. 72. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas uzyskane w klasyfikacji
obrazów po selekcji I metodą a) LSU b) MF.
Wykorzystując do klasyfikacji metodę MF uzyskano gorsze wyniki dokładności ( Rys. 71).
Współczynnik CC dla obrazów w obydwu wariantach oscyluje w granicach 50 - 70%. Co ciekawe,
obraz H6 uzyskujący w metodzie LSU najniższą wartość współczynnika CC (w metodzie MF osiąga
najlepsze dokładności - 70%) ( Rys. 71, Tab 37). Przeciwstawne są również wyniki dla klasy wody,
której dokładność pozostaje na bardzo wysokim poziomie nawet do 99 - 100% (obraz H11 i H6).
Analizując wyniki dokładności dla poszczególnych klas ( Tab 37), można zaobserwować tendencję,
iż wraz obniżeniem liczby kanałów, w metodzie MF podwyższona zostaje dokładność wszystkich
klas tj: wody (20%), tereny przemysłowe/zabudowa (35%), lasy (10%), tereny zielone (10%), tereny
odkryte (15%). Największe różnice dokładności pomiędzy klasyfikacją z użyciem różnych danych
referencyjnych występuje dla klasy tereny przemysłowe (H87, H44, H22, H11, H6) oraz klasy
tereny zielone (H11, H6), które w wariancie II zmniejszają swoją dokładność odpowiednio o 2 - 4%
oraz 5 - 7% ( Rys. 72b).
9.2.2.1.2 Klasyfikacja obrazów po selekcji II
W niniejszym podrozdziale zamieszczono wyniki analiz dokładności klasyfikacji obrazów
o liczbie kanałów zredukowanej do zakresu 10 – 20. W metodzie LSU uzyskano nieco mniejsze
wartości całkowitego współczynnika CC w stosunku do wyników dla obrazów z selekcji I ( Tab 37,
Tab 38). Najwyższą wartość współczynnika CC wynoszącą 80% otrzymano dla obrazu H20 (84%
wariant II) ( Tab 38). Natomiast najniższą wartość uzyskano dla obrazu o najmniejszej liczbie
kanałów H10, dla którego współczynnik CC wynosił zaledwie 37% (63% wariant II) ( Rys. 73).
Utrzymała się także tendencja dotycząca dokładności klasyfikowania poszczególnych klas. Dla obu
wariantów najlepiej została sklasyfikowana klasa tereny odkryte, dla której średni współczynnik CC
wynosił 92%. Na poziomie 80% (za wyjątkiem H10) sklasyfikowana została klasa tereny
przemysłowe/zabudowa ( Tab 38). W przypadku obrazu H10 klasa tereny przemysłowe/zabudowa
w wariancie I zostały zidentyfikowane z dokładnością 74%, natomiast dla krzywych z wariantu II
uzyskano współczynnik dwa razy niższy (35%) ( Rys. 74a). Także dla klasy tereny zielone wyniki
klasyfikacji LSU obrazu H10 wykazują duże zróżnicowanie. Współczynnik CC dla wariantu I wynosił
zaledwie 6%, dla pozostałych obrazów aż 85 - 89%. Po zmianie krzywych (wariant II) współczynnik
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
149
CC dla klasy tereny zielone dla obrazu H10 wzrósł prawie dziesięciokrotnie (51%), natomiast dla
pozostałych obrazów zwiększył się, o co najmniej 10% ( Tab 38, Rys. 74a). Klasa lasy została
sklasyfikowana z dokładnością na poziomie 44 - 54%, za wyjątkiem obrazów H18 i H10.
W przypadku obydwu obrazów zanotowano wyraźne różnice pomiędzy wynikami klasyfikacji
z wykorzystaniem różnych zestawów krzywych referencyjnych ( Rys. 74a). Dla obrazu H18 po
zmianie krzywych dokładność CC dla klasy lasy obniżyła się o aż 30%. Natomiast w przypadku
obrazu H10 wartość współczynnika CC zwiększyła swoją wartość z 9% (wariant I) na 59% (wariant
II) ( Tab 38, Rys. 74a). Są to bardzo istotne różnice, które w przypadku obrazu H10 miały znaczący
wpływ na dokładność całkowitą obliczoną dla obrazu (zmiana z 38% na 63%). Można tu zauważyć
pewną prawidłowość, a mianowicie duży spadek dokładności dla prawie wszystkich klas, który jest
związany z eliminacją zaledwie 2 kanałów spektralnych. Dokładności obliczone dla obrazu H6
z selekcji I (utrzymujące tendencję spadkową) są potwierdzeniem, że dla małej liczby kanałów
metoda LSU może dostarczać błędnych wyników.
W przypadku metody Matched Filtering wartości współczynnika CC dla poszczególnych
obrazów mieszczą się w przedziale 50 - 70%. Są to dokładności znacznie niższe niż uzyskane
w metodzie LSU ( Rys. 73, Tab 38). Występuje również odwrotna zależność związana z liczbą
kanałów obrazu. W wyniku klasyfikacji obrazów o najmniejszej liczbie kanałów H10 i H12 uzyskano
najlepsze dokładności (65 – 70%) ( Tab 38). Jednocześnie dla tych obrazów
zanotowano największe różnice wartości współczynników CC, obliczone dla poszczególnych klas
w wariancie I i w wariancie II. Różnica między dokładnościami WI i WII wynosi do 11% (klasa
tereny zielone) ( Rys. 74b). Dla obrazów H16, H14, H12, H10 uzyskano bardzo wysoką dokładność
klasa wody (99%) oraz klasy tereny przemysłowe/zabudowa (około 90%) ( Tab 38).
Tab 38. Współczynnik CC dla obrazów klasyfikowanych metodami zaawansowanymi – selekcja II (wariant I i II).
Obraz H20 H18 H16 H14 H12 H10
Me
tod
a
Wariant
Dokładność W I W II W I W II W I W II W I W II W I W II W I W II
CC1 20,67 25,53 22,85 27,62 22,76 28,01 23,91 27,08 23,18 24,76 16,62 35,64
CC2 78,07 81,96 76,65 80,15 81,29 82,43 82,64 81,26 82,67 79,36 74,15 34,91
CC3 54,48 53,62 50,33 20,47 48,16 44,91 48,72 47,39 50,78 53,56 8,79 59,83
CC4 89,11 98,90 84,78 97,79 85,04 97,32 86,47 98,48 86,65 99,10 5,73 50,90
CC5 92,89 93,69 92,39 92,03 92,27 90,38 91,58 91,09 90,19 91,37 92,16 91,58
LSU
CC 79,64 84,06 77,03 76,90 76,98 80,95 77,57 81,97 77,57 83,22 37,65 63,27
CC1 79,10 77,88 79,33 78,29 99,87 99,88 99,89 99,89 99,89 99,85 99,93 99,92
CC2 63,46 60,19 52,80 47,94 90,51 85,39 90,99 87,90 89,54 89,05 89,07 90,06
CC3 53,35 54,11 56,30 57,02 66,51 69,22 66,66 69,18 68,56 70,60 68,01 69,91
CC4 56,68 56,50 55,81 55,88 68,54 59,27 70,22 59,42 69,79 59,79 68,82 57,55
CC5 49,26 49,36 49,82 49,88 59,49 59,02 59,70 58,76 60,94 60,50 60,78 60,38
MF
CC 55,33 55,17 55,06 54,88 68,34 64,74 69,12 64,87 69,60 65,89 69,04 64,91
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
150
0
10
20
30
40
50
60
70
80
90
H20 H18 H16 H14 H12 H10
wsp
ółc
zyn
nik
CC
[%]
LSU_WI
MF_WI
LSU_WII
MF_WII
Rys. 73. Współczynnik poprawności klasyfikacji wykonanej metodami LSU i MF dla obrazów uzyskanych w selekcji II (WI –
wariant I, WII - wariant II).
-40
-30
-20
-10
0
10
20
30
40
50
H20 H18 H16 H14 H12 H10
różn
ica
wsp
ółcz
ynni
ka C
C (
WII
- W
I)
1
2
3
4
5
CC
-12
-10
-8
-6
-4
-2
0
2
H20 H18 H16 H14 H12 H10
róż
nica
wsp
ółc
zyn
nika
CC
(W
II -
WI)
1
2
3
4
5
CC
Rys. 74. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas, uzyskane w klasyfikacji
obrazów po selekcji II metodą a) LSU b) MF.
Podsumowując wyniki klasyfikacji obrazów po selekcji nadzorowanej (selekcja I i selekcja II)
można wyciągnąć następujące wnioski. Metody hiperspektralne dostarczają zróżnicowanych
dokładności klasyfikacji. Metoda LSU dostarcza dokładności na poziomie 80%. Wyjątek stanowią
obrazy o liczbie kanałów równej lub mniejszej 10, dla których dokładność spada nawet poniżej
20%. Jak wykazała analiza, zmiana krzywych referencyjnych ma bardzo duży wpływ na uzyskiwaną
dla tych obrazów dokładność klasyfikacji całkowitej (dla obrazu H6 różnica wynosi 40% - Tab 37,
Rys. 72a) oraz na dokładność poszczególnych klas (różnica CC dla klasy tereny zielone dla obrazu
H6 wynosi aż 84% - Tab 37, Rys. 72a). Dla pozostałych obrazów łącznie ze źródłowym obrazem
Hyperiona dokładności są bardzo do siebie zbliżone, a zmiana zestawu wzorców nie powoduje
drastycznych zmian wartości całkowitego współczynnika poprawności klasyfikacji CC. Różnice
między dokładnością wariantu I i II wynoszą 2 - 7% ( Rys. 71, Rys. 73). Natomiast dla metody MF
klasyfikacja obrazu Hyperiona wykorzystująca różne krzywe referencyjne wykazuje duże różnice
w uzyskiwanej dokładności (nawet do 15%). Dla tej metody zmiana krzywych wzorcowych wpłynęła
głównie na dokładność klasyfikacji klas: tereny zielone i lasy, dla których różnice wartości
współczynnika CC wynosiły odpowiednio 5 - 11% i 2 - 7% (obrazy z liczbą kanałów poniżej 16)
( Rys. 72b, Rys. 74b)
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
151
9.2.2.1.3 Klasyfikacja obrazów po transformacji MNF
Wyniki klasyfikacji obrazów po transformacji MNF są bardzo zróżnicowane w zależności od
liczby kanałów MNF składających się na obraz ( Tab 39). Na podstawie analizy wykresu ( Rys. 75)
można stwierdzić, iż dokładności dla zastosowanych metod LSU i MF wykazują odwrotną tendencję
niż w przypadku dokładności obrazów po selekcji ( Rys. 71, Rys. 73). Dla obrazów MNF najlepsze
wyniki uzyskano dla metody MF, zarówno w wariancie I, jak i wariancie II. Różnice w dokładności
(współczynnik całkowity CC) wynosiły od 15% (5MNF - WI) do 25% (10MNF - WI) oraz od 13%
(10MNF - WII) do 60% (5MNF - WII) ( Rys. 76a). Natomiast dla obrazu Hyperiona oraz obrazu po
transformacji odwrotnej (174 kanały) wyniki dokładności klasyfikacji LSU były wyższe niż wyniki
metody MF. Podobną zależność zaobserwowano również dla obrazu 3MNF. Analizując tabelę ( Tab
39) i wykres dokładności ( Rys. 75) można zauważyć, iż uzyskany dla metody MF współczynnik CC
wykazuje dużo większą homogeniczność (zwłaszcza dla wariantu II), w stosunku do wartości CC
otrzymanych dla obrazów klasyfikowanych metodą LSU.
W klasyfikacji MF przy użyciu endmembersów (WII) uzyskano zdecydowanie
lepsze dokładności (średnia 64%) niż w przypadku wykorzystania krzywych z pól treningowych
(WI - średnia 56%). Najwyższy współczynnik CC 64% uzyskano dla obrazu 10MNF (WI) oraz
69% dla obrazu 5MNF (WII). Najniższą wartość współczynnika CC uzyskano dla obrazu 3MNF
(48% - WI oraz 58% - WII). Dokładności poszczególnych klas były bardzo zróżnicowane ( Tab 39).
Zaobserwowane różnice wynikały, zarówno z użycia do klasyfikacji różnych zestawów wzorców
(WI i WII) ( Rys. 76b), jak i z liczby kanałów MNF tworzących klasyfikowane obrazy ( Tab 39).
Przy czym, wyraźnie zaznacza się tendencja podwyższenia wartości współczynnika CC dla
wariantu II (za wyjątkiem klasy wody - 3MNF, 5MNF, 6MNF, 50MNF).
Tab 39. Współczynnik CC dla obrazów klasyfikowanych metodami zaawansowanymi – transformacja MNF (wariant I i II).
Obraz Hyperion 50MNF 10MNF 6MNF 5MNF 3MNF H_inv_10MNF
Me
tod
a
Wariant
Dokładność W I W II W I W II W I W II W I W II W I W II W I W II W I W II
CC1 51,25 51,21 98,01 35,00 100,0 42,07 100,0 33,78 100,0 14,91 2,85 36,59 39,46 82,25
CC2 89,73 84,55 93,84 87,37 96,11 78,10 13,14 74,04 15,98 2,96 99,42 97,62 87,03 99,96
CC3 48,00 47,51 50,99 32,49 13,90 20,97 64,07 12,72 65,34 1,03 72,07 87,01 33,03 22,04
CC4 87,79 97,21 41,66 59,01 32,91 60,38 2,70 65,77 9,96 17,71 98,79 54,10 47,64 100,00
CC5 93,29 91,36 48,42 55,73 41,68 51,79 61,77 42,51 62,73 3,16 34,36 53,53 17,90 39,96
LSU
CC 80,30 85,31 51,59 53,61 39,38 50,56 37,86 47,80 41,43 9,05 69,24 61,95 37,85 66,08
CC1 81,85 85,53 52,97 31,48 31,36 31,51 86,33 31,60 96,53 31,54 96,16 31,40 34,75 79,72
CC2 92,75 77,83 52,71 94,95 92,97 95,34 85,35 93,26 91,77 95,14 91,64 97,10 93,78 50,14
CC3 66,32 57,34 51,30 60,59 66,61 65,01 48,22 69,07 34,70 68,66 28,55 50,23 66,62 47,56
CC4 56,27 50,63 49,80 64,46 65,85 66,18 48,38 73,26 57,43 73,19 41,96 57,37 69,04 59,30
CC5 54,17 50,55 51,33 57,80 59,21 58,34 53,08 59,76 53,08 65,87 52,37 60,33 58,91 51,68
MF
CC 61,57 59,64 50,89 67,49 63,93 63,28 54,04 67,49 55,96 69,38 48,49 58,13 65,31 55,22
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
152
0
10
20
30
40
50
60
70
80
90
Hyperion 50MNF 10MNF 6MNF 5MNF 3MNF H_inv10
obrazy redukowane
wsp
ółcz
ynni
k C
C [%
]
LSU_WI
MF_WI
LSU_WII
MF_WII
Rys. 75. Współczynnik poprawności klasyfikacji CC wykonanej metodami LSU i MF dla obrazów uzyskanych w wyniku
transformacji MNF (WI - wariant I, WII - wariant II).
-70
-60
-50
-40
-30
-20
-10
0
10
20
30
40
50
Hyperion 50MNF 10MNF 6MNF 5MNF 3MNF H_inv10
róż
nica
wsp
ółcz
ynni
ka C
C (
WII
- W
I)
1
2
3
4
5
CC
-90
-80
-70
-60
-50
-40
-30
-20
-10
0
10
20
30
40
50
60
70
Hyperion 50MNF 10MNF 6MNF 5MNF 3MNF H_inv10
różn
ica
wsp
ółcz
ynni
ka C
C (
WII
- W
I)
1
2
3
4
5
CC
Rys. 76. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas, uzyskane dla klasyfikacji
obrazów po transformacji MNF metodą a) LSU b) MF.
W przypadku obrazu 10MNF różnice uzyskanych dokładności WI i WII dla wszystkich klas były
prawie niezauważalne (< 2%). Z analizy tabeli ( Tab 39) i wykresu ( Rys. 76b) wynika, że największe
rozbieżności dla klasy wody (do 65%) występowały w przypadku klasyfikowanych obrazów
3MNF i 5MNF. Dla wariantu I współczynnik dla obydwu obrazów wynosił 96%, natomiast dla
wariantu II był równy 31%. Dla obrazu 6MNF także zanotowano duży spadek wartości
współczynnika z 86% (WI) do 32% (WII) ( Tab 39, Rys. 76b). Niską wartość współczynnika CC dla
klasy wody (53% - WI i 31% - WII) uzyskano również dla obrazu o najwyższej liczbie kanałów MNF
(50MNF) - różnica pomiędzy wariantami WI i WII wynosiła 21%. Jedynie dla obrazu po
transformacji odwrotnej MNF wartość współczynnika CC dla wody wzrosła przeszło dwukrotnie:
z 35% (WI) do 80% (WII) ( Tab 39, Rys. 76b). Może to wskazywać, iż na dokładność identyfikacji
klasy wody w metodzie MF wpływa transformacja MNF, wykonana dla krzywej wzorcowej,
zwłaszcza, że dla obrazu Hyperiona dla metody MF również uzyskano współczynnik CC około 85%
( Tab 39).
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
153
Zdecydowanie najlepiej sklasyfikowane zostały tereny przemysłowe i zabudowa, dla których
współczynnik CC wynosił średnio 85% dla wariantu I i 88% dla wariantu II ( Tab 39). Dla krzywych
z pól treningowych najwyższą wartość współczynnika CC wynoszącą 93%, uzyskano dla obrazu
10MNF (94% dla obrazu H_inv_10MNF), natomiast dla endmembersów najwyższa dokładność
wynosiła 97% i otrzymano ją dla obrazu 3MNF. Najniższe dokładności klasyfikacji uzyskano dla
obrazu 50MNF (53% - WI) oraz dla obrazu po transformacji odwrotnej (50% - WII) ( Tab 39).
Klasa lasy dla obrazów o najmniejszej liczbie kanałów została sklasyfikowana z dosyć słabą
dokładnością: 3MNF (29% - WI i 50% - WII) i 5MNF (35% - WI i 69% - WII). Dokładność tej klasy
uległa podwyższeniu dla obrazów 6MNF i 10MNF odpowiednio do wartości 48% i 66% (WI) oraz
69% i 65% (WII). Natomiast zwiększenie liczby kanałów MNF (obraz 50MNF) spowodowało
ponowny spadek dokładności do 51% (WI) i 60% (WII) ( Tab 39, Rys. 76b). Tak, więc, wyraźnie
zaznacza się granica zmiany dokładności dla klasy lasy w zależności od liczby kanałów MNF. Na
podstawie uzyskanych wyników liczbę 10 kanałów można uznać za punkt zwrotny, jeżeli chodzi
o zmianę dokładności dla lasów. Potwierdzeniem może być wartość współczynnika CC (67%)
otrzymanego dla obrazu po transformacji odwrotnej przy wykorzystaniu informacji spektralnej
z 10 kanałów MNF. Bardzo różne dokładności uzyskano natomiast dla klasy tereny zielone.
Wartości współczynnika CC mieściły się w przedziale od 42% (3MNF) do 69% (H_inv_10MNF) dla
wariantu I oraz w przedziale od 57% (3MNF) do 73% (5MNF i 6MNF) dla wariantu II ( Tab 39).
Klasa tereny odkryte została sklasyfikowana z dokładnością na poziomie 57%. Przy czym, należy
zaznaczyć, że najwyższą wartość współczynnika CC (ponad 60%) uzyskano dla obrazów
o najmniejszej liczbie kanałów (3MNF i 5MNF), sklasyfikowanych na podstawie endmembersów
( Tab 39).
W przypadku analizy dokładności metody LSU występują duże wahania wartości
współczynnika CC. Zaznacza się to głównie dla obrazów o małej liczbie kanałów MNF (3MNF
i 5MNF) oraz dla obrazu po transformacji odwrotnej ( Tab 39). Analizując wykres dokładności dla
wariantu I ( Rys. 75), można zauważyć wyraźną tendencję spadkową wartości współczynnika CC
z 52% (dla obrazu zawierającego 50 kanałów MNF) do 38% dla obrazu zawierającego
6 pierwszych kanałów MNF. Dla obrazu o liczbie kanałów pomniejszonej o 1 (5MNF) współczynnik
CC uległ nieznacznemu podwyższeniu o 3 punkty procentowe (41%) ( Tab 39). Natomiast
zmniejszenie liczby kanałów MNF do 3, spowodowało wzrost współczynnika CC do 69% (aż 28
punktów procentowych). Oznacza to, że przeważająca część informacji spektralnej wykorzystanej
do identyfikacji obiektów wybranych jako wzorce, znajduje się właśnie w trzech pierwszych
kanałach MNF. Znamienne jest jednak to, że całkowity współczynnik CC jest znacznie obniżony
przez współczynnik CC dla klasy wody wynoszący zaledwie 3% (96% dla metody MF) ( Tab 39).
Woda nie została w ogóle zidentyfikowana w klasyfikacji takiego zestawu danych, co wskazuje, iż
informacja spektralna wody została zawarta w następnych składowych MNF. Można to
zaobserwować analizując wzrost współczynnika CC do 100% dla klasy wody, w przypadku
klasyfikacji obrazów 5MNF, 6MNF i 10MNF. Z uwagi na wzrost liczby kanałów zaszumionych,
współczynnik CC tej klasy dla obrazu 50MNF uległ nieznacznemu obniżeniu do 98%. Porównując
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
154
wyniki dokładności klasy wody uzyskane dla obrazów MNF z wynikami dla obrazów z maksymalną
liczbą kanałów (Hyperion źródłowy i po transformacji odwrotnej), można zauważyć, iż dokładność
klasyfikacji znacząco spadła dla obrazów Hyperiona (odpowiednio do 51% i 39% - Tab 39). Jest to
prawdopodobnie spowodowane nadwymiarową informacją związaną z obecnością kanałów
z zakresu SWIR.
Interesujący wynik uzyskano dla klasy tereny przemysłowe/zabudowa. Dla obrazu
zawierającego 3 główne składowe MNF dokładność dla tej klasy wynosiła 99%, natomiast
zwiększenie liczby składowych do 5 i 6 spowodowało drastyczny spadek wartości współczynnika
CC klasy tereny przemysłowe/zabudowa odpowiednio do 16% i 13% ( Tab 39). Bardzo podobna
sytuacja wystąpiła dla klasy tereny zielone, dla której współczynnik obniżył się aż do 3%. Przy
czym, dla obrazu 6MNF spadek ten dotyczył jedynie wariantu I. W przypadku wykorzystania do
klasyfikacji endmembersów, współczynnik obniżył się do 74% (tereny przemysłowe/zabudowa) i do
66% (tereny zielone). Niskie wartości współczynnika CC dla tych klas spowodowały uzyskanie
słabych wyników całkowitej dokładności metody LSU dla obrazów 5MNF (WI i WII) i 6MNF(WI)
( Tab 39).
W wariancie II klasyfikacji LSU uzyskano dla obrazu 5MNF i obrazu po transformacji odwrotnej
zupełnie rozbieżne wyniki dokładności w porównaniu z wariantem I. Szczególnie widoczne jest to
dla obrazu 5MNF, dla którego całkowity współczynnik CC wynosi zaledwie 9%. ( Tab 39, Rys. 75).
Uzyskane współczynniki CC dla poszczególnych klas mieszczą się w przedziale od 1% dla klasy
lasy do 18% dla klasy tereny zielone. Dla obrazu po transformacji odwrotnej współczynnik CC
wynosi 66% i jest wyższy o 32% od współczynnika w wariancie I ( Tab 39, Rys. 76a). Wartość ta
jest także wyższa o 16% od dokładności klasyfikacji obrazu 10MNF. Zatem nie występuje
"przeniesienie" dokładności z obrazu zwierającego kanały użyte do transformacji odwrotnej, tak jak
to miało miejsce w wariancie I. Wartość współczynnika została zaniżona słabym wynikiem
klasyfikacji uzyskanym dla klasy lasy (CC = 22%) i tereny odkryte (CC = 38%). Pozostałe klasy
zostały sklasyfikowane na bardzo wysokim poziomie dokładności 82 - 100%. Obraz 3 MNF uzyskał
najwyższą wartość współczynnika CC (62%) wśród obrazów złożonych z kanałów MNF (podobnie
jak wariancie I). Najdokładniej sklasyfikowane zostały klasy tereny przemysłowe/zabudowa
(CC = 98%) i lasy (CC = 87%). Najsłabszą dokładność uzyskano dla klasy wody, dla której
współczynnik CC wynosił zaledwie 36%. Pozostałe klasy (tereny zielone, tereny odkryte) zostały
zidentyfikowane z dokładnością na poziomie 54%.
Poddając analizie wykres różnic wartości współczynnika CC uzyskanego dla poszczególnych
klas oraz całkowitego współczynnika CC dla wariantu I i II ( Rys. 76), można zaobserwować, iż:
− najwięcej różnic występuje dla obrazów 5MNF i 6MNF (wszystkie klasy),
− dla klasy wody występują ujemne zmiany współczynnika CC rzędu 58 - 85% (5MNF,
6MNF, 10MNF, 50MNF) i zmiany dodatnie rzędu 34 - 43% (3MNF, H_inv_10MNF). Przy
czym, zmiany ujemne oznaczają wyższą dokładność wariantu I, natomiast zmiany
dodatnie wyższe wartości dokładności dla wariantu II.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
155
9.2.2.2 Wyniki klasyfikacji obrazów symulowanych
W niniejszym podrozdziale zaprezentowano i omówiono wyniki klasyfikacji podpikselowej
wykonanej dla obrazów testowych uzyskanych w wyniku symulacji I, II i SRF. Podobnie jak
w poprzednim podrozdziale rezultaty zostały zestawione dla dwóch wariantów WI i WII,
w zależności od wykorzystanych krzywych wzorcowych.
9.2.2.2.1 Symulacja I
Obrazy symulowane zgodnie z symulacją I, posiadające po kilkadziesiąt kanałów, poddane
procesowi klasyfikacji Linear Spectral Unmixing uzyskały stosunkowo wysoki współczynnik CC. Dla
wariantu I wynosił on około 77% (ALI, Aster i Landsat) oraz 84% (Spot) ( Tab 40, Rys. 77).
Natomiast dla źródłowego obrazu Hyperiona był równy 80%. W wariancie II współczynnik CC dla
wszystkich obrazów (za wyjątkiem Astera) podwyższył wartość o 2 - 5% ( Tab 40, Rys. 77).
W symulacji I na uwagę zasługuje również uzyskanie wysokiej dokładności dla klas tereny odkryte,
tereny przemysłowe/zabudowa oraz tereny zielone. Dla wszystkich symulowanych obrazów
współczynnik CC wynosił odpowiednio 91 - 93%, 82 - 90%, 80 - 93% ( Tab 40). Klasa wody została
sklasyfikowana ze stosunkowo niską dokładnością około 50% za wyjątkiem obrazu ALI, dla którego
uzyskano współczynnik CC równy 67% (77% WII). Równie niski poziom dokładności (42 - 48%)
uzyskano dla klasy lasy. Tylko dla obrazu Spota współczynnik uzyskał podwyższoną wartość 59%.
Wymienione wartości współczynnika CC dotyczyły klasyfikacji na podstawie krzywych uzyskanych
z pól treningowych. Zmiana danych referencyjnych na enmembersy uzyskane w wyniku
procedury PPI podwyższa dokładność klasyfikacji przeprowadzonej metodą LSU w zależności od
obrazu o 2 - 5% ( Tab 40, Rys. 78a).
Tab 40. Współczynnik CC dla obrazów klasyfikowanych metodami zaawansowanymi – symulacja I (wariant I i II).
Obraz Hyperion ALI_SI Aster_SI Landsat_SI Spot_SI
Me
tod
a
Wariant
Dokładność W I W II W I W II W I W II W I W II W I W II
CC1 51,25 51,21 67,13 76,67 49,00 47,80 54,68 73,97 51,71 43,09
CC2 89,73 84,55 87,07 81,21 84,91 81,07 86,56 80,08 81,50 85,92
CC3 48,00 47,51 42,33 40,75 44,76 37,33 44,51 40,25 59,24 55,85
CC4 87,79 97,21 80,47 93,60 85,13 93,12 83,94 93,62 92,50 99,28
CC5 93,29 91,36 92,63 89,00 91,42 85,86 92,16 86,67 92,73 95,95
LSU
CC 80,30 85,31 76,80 80,65 77,66 77,41 77,76 79,65 83,59 86,46
CC1 81,85 85,53 77,37 76,19 89,26 85,71 80,11 77,95 96,86 96,90
CC2 92,75 77,83 55,49 49,18 55,71 49,16 55,65 53,53 62,95 58,58
CC3 66,32 57,34 48,35 46,55 50,69 54,19 49,18 50,37 49,58 50,70
CC4 56,27 50,63 52,03 52,18 50,91 50,44 51,77 51,25 52,25 52,01
CC5 54,17 50,55 50,65 50,76 51,26 51,34 50,93 51,05 51,57 51,80
MF
CC 61,57 59,64 52,41 52,04 53,21 52,89 52,70 52,51 54,46 54,37
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
156
50
55
60
65
70
75
80
85
90
Hyperion ALI_SI Aster_SI Lan_SI Spot_SI
wsp
ółc
zyn
nik
CC
[%]
LSU_WI
MF_WI
LSU_WII
MF_WII
Rys. 77. Współczynnik poprawności klasyfikacji wykonanej metodami LSU i MF dla obrazów uzyskanych w symulacji I (WI –
wariant I, WII - wariant II).
-10
-5
0
5
10
15
20
ALI_SI Aster_SI Lan_SI Spot_SI
różn
ica
wsp
ółc
zynn
ika
CC
(WII
- W
I)
1
2
3
4
5
CC
-7
-5
-3
-1
1
3
ALI_SI Aster_SI Lan_SI Spot_SI
różn
ica
wsp
ółc
zynn
ika
CC
(WII
- W
I)
1
2
3
4
5
CC
Rys. 78. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas, uzyskane dla klasyfikacji
obrazów po symulacji I metodą a) LSU b) MF.
O wiele bardziej zróżnicowane wartości współczynnika CC otrzymano dla poszczególnych
klas. Okazuje się, że klasa wody, która uzyskała dosyć niską dokładność dla krzywych z pól
treningowych, w klasyfikacji wykorzystującej endmembersy dla dwóch symulowanych obrazów ALI
i Landsat zwiększyła swoją dokładność o 10% i 19%, natomiast dla symulowanego Spota
dokładność uległa obniżeniu o 9% ( Tab 40, Rys. 78a). W przypadku klasy lasy wszystkie
symulowane obrazy uzyskały większą o 7 - 13% wartość współczynnika CC. Oznacza to, że
w metodzie LSU dla tych dwóch klas krzywe referencyjne, które zostały wyznaczone za pomocą
procedury PPI dostarczają lepszych wyników klasyfikacji.
Klasyfikując obrazy testowe za pomocą metody MF uzyskano dużo niższą wartość
współczynnika CC niż w przypadku metody LSU. W symulacji I średnia wartość współczynnika CC
jest niższa o 25% (WI) i 28% (WII), niż wartości współczynnika CC dla metody LSU ( Rys. 77, Rys.
78b). Istotny jest fakt, że współczynnik CC dla wszystkich obrazów symulowanych uzyskał bardzo
jednorodne wartości i wynosił średnio 53%, natomiast dla obrazu źródłowego Hyperiona
pozostawał na poziomie zbliżonym do 60%. Analizując dokładność poszczególnych klas ( Tab 40),
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
157
można zauważyć, iż dla klasy wody uzyskano wysoki współczynnik CC (77 - 97%), natomiast
pozostałe klasy zostały sklasyfikowane z dokładnością na poziomie 50%. Interesujące jest to, że
najwyższe wartości współczynnika CC dla klasy wody uzyskano dla symulowanych obrazów Aster
(89%) i Spot (97%), które nie posiadają kanałów w zakresie niebieskim, natomiast najniższy dla
symulowanego obrazu ALI, który z kolei rejestruje informacje spektralną w dwóch kanałach z tego
zakresu. Jeżeli chodzi o wpływ krzywych referencyjnych to, dla obrazów po symulacji I różnice
w wariancie I i II głównie występowały dla klas źródłowego obrazu Hyperiona ( Rys. 78b, Tab 40).
Wyraźną różnicę dokładności uzyskano dla klasy tereny przemysłowe/zabudowa, dla której
dokładność w wariancie II spadła o 15% ( Rys. 78b, Tab 40). Duży spadek (prawie 10%)
zanotowano również dla klasy lasy. Natomiast klasy tereny zielone i tereny odkryte uzyskały
współczynnik CC obniżony odpowiednio o 6% i 4%. Dla pozostałych obrazów zmiana krzywych
referencyjnych spowodowała obniżenie dokładności klasy tereny przemysłowe/zabudowa o 2 - 7%.
Dla obrazu Astera zmniejszyła się także wartość współczynnika CC dla klas wody (4%), natomiast
dla klasy lasy współczynnik wzrósł o 3,5% ( Rys. 78b, Tab 40).
9.2.2.2.2 Symulacja II
W przypadku klasyfikacji metodą Matched Filtering obrazów po symulacji II (liczba kanałów
<10) zanotowano podniesienie wartości współczynnika CC o około 22% (wariant I) i 13% (wariant
II) w stosunku do dokładności uzyskanych dla obrazów symulacji I. Głównie za sprawą
podwyższenia dokładności dla klasy tereny przemysłowe/zabudowa (z 57% do 95% - Tab 40, Tab
41). Na wykresie ( Rys. 79) można zaobserwować wyraźną zbieżność parametrów
dokładnościowych obydwu metod podpikselowych MF i LSU dla obrazów Aster, Landsat. Różnica
wartości współczynnika CC wynosiła zaledwie 4%. Zaobserwowano również, że jedynie dla obrazu
ALI uzyskana wartość współczynnika CC w metodzie MF była wyższa o 2 % od wartości
współczynnika CC otrzymanej w klasyfikacji LSU. Na wykresach ( Rys. 80 a i b) zaznaczają się
wyraźnie dysproporcje w wartościach współczynnika CC uzyskanych dla wariantów I i II. Dla
metody LSU zamiana zestawu krzywych referencyjnych spowodowała podwyższenie wartości
współczynnika CC o 1 - 5% ( Rys. 80a), natomiast w przypadku metody MF wszystkie obrazy
symulowane w wariancie II uzyskały dokładność niższą o 2 - 18% ( Rys. 80b). Różnice te były
spowodowane dość dużymi zmianami wartości współczynnika CC uzyskanego dla poszczególnych
klas. W przypadku metody MF dotyczyło to głównie klasy tereny zielone, dla której współczynnik
uległ obniżeniu aż o 18% ( Tab 41, Rys. 80b). Podobna sytuacja wystąpiła w przypadku klasy wody
(ALI i Spot), dla której dokładność spadła z poziomu około 75% do 60%. Podwyższenie wartości
dokładności w wariancie II, uzyskano jedynie dla klasy lasy. Dla obrazu Spota współczynnik wzrósł
aż 29%, natomiast dla pozostałych obrazów 8 - 14% ( Tab 41, Rys. 80b).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
158
Tab 41. Współczynnik CC dla obrazów klasyfikowanych metodami zawansowanymi – symulacja II (wariant I i II).
Obraz Hyperion ALI_SII Aster_SII Landsat_SII Spot_SII M
eto
da
Wariant
Dokładność
W I W II W I W II W I W II W I W II W I W II
CC1 51,25 51,21 53,05 68,09 58,55 55,38 59,37 62,63 63,00 55,17
CC2 89,73 84,55 85,35 80,22 85,15 80,26 86,03 80,37 85,50 85,66
CC3 48,00 47,51 40,80 41,97 47,62 42,22 48,19 43,29 99,32 99,47
CC4 87,79 97,21 75,94 91,98 83,73 92,48 88,43 95,84 99,80 99,87
CC5 93,29 91,36 92,06 86,89 91,82 87,46 91,27 88,50 92,12 98,15
LSU
CC 80,30 85,31 73,74 79,11 78,27 78,89 80,15 81,10 94,61 96,12
CC1 81,85 85,53 75,37 60,21 69,58 63,31 65,86 61,94 73,65 59,75
CC2 92,75 77,83 95,34 91,81 96,31 90,25 94,59 91,25 96,48 88,52
CC3 66,32 57,34 75,62 83,86 69,64 78,62 75,37 88,88 61,02 89,90
CC4 56,27 50,63 74,55 57,27 76,51 58,66 75,20 57,09 76,82 59,35
CC5 54,17 50,55 72,60 65,79 70,58 64,08 75,27 70,11 81,51 30,50
MF
CC 61,57 59,64 75,50 67,18 74,30 66,28 76,00 69,43 76,37 58,08
50
55
60
65
70
75
80
85
90
95
100
Hyperion ALI_SII Aster_SII Lan_SII Spot_SII
wsp
ółc
zyn
nik
CC
[%]
LSU_WI
MF_WI
LSU_WIIMF_WII
Rys. 79. Współczynnik poprawności klasyfikacji wykonanej metodami LSU i MF dla obrazów uzyskanych w symulacji II (WI -
Wariant I, WII - Wariant II).
-10
-5
0
5
10
15
20
ALI_SII Aster_SII Lan_SII Spot_SII
1
2
3
4
5
CC
-55
-45
-35
-25
-15
-5
5
15
25
ALI_SII Aster_SII Lan_SII Spot_SII
1
2
3
4
5
CC
Rys. 80. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas uzyskane dla klasyfikacji
obrazów po symulacji II metodą a) LSU b) MF.
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
159
9.2.2.2.3 Symulacja SFR
Dla obrazów symulowanych SRF klasyfikacja metodą Linear Spectral Unmixing dostarczyła
bardzo dobrych wyników. Symulowane obrazy zostały sklasyfikowane z dokładnością powyżej 70%
(współczynnik CC wynosił 73 - 95%) ( Tab 42, Rys. 81). Jest to najlepszy wynik, jaki uzyskano dla
obrazów testowych poddanych klasyfikacji w ramach prezentowanych badań. Wyjątek stanowił
współczynnik CC uzyskany dla obrazu Landsata, który wynosił 53% (66% WII). Niska dokładność
dla obrazu Landsata została obniżona przez współczynnik CC otrzymany dla klas reprezentujących
obiekty roślinne. Głównie chodzi o klasę lasy, która w obydwu wariantach uzyskała bardzo słabą
dokładność na poziomie 25 - 29% oraz o klasę tereny zielone, dla której wartość współczynnika
poprawności klasyfikacji CC w wariancie I wynosiła 37% (89% WII). Klasa lasy na obrazach
Hyperion, ALI, Aster została sklasyfikowana z dokładnością mieszczącą się w przedziale 40 - 50%
(minimalne różnice między WI i WII - Rys. 82a). Natomiast dla obrazu Spot klasa ta uzyskała
najwyższą wartość 99% (podobnie jak klasa tereny zielone).
W przypadku symulacji SRF dla metody Matched Filtering w wariancie I uzyskano parametry
dokładnościowe podobne do tych otrzymanych w symulacji II. Różnicę stanowi wartość
współczynnika CC uzyskana dla obrazu Landsata, która obniżyła się o około 10% ( Tab 41, Tab 42).
Głównym powodem obniżenia dokładności całkowitej był spadek o 41% wartości
współczynnika CC dla klasy lasy oraz o 10% klasy tereny zielone ( Tab 42) ( Rys. 80b). W wariancie
II współczynnik CC uległ znacznym zmianom dla wszystkich testowanych obrazów ( Rys. 80b).
Należy zaznaczyć, że nastąpiły dosyć znaczne różnice pomiędzy dokładnościami klas w stosunku
do wariantu I, zwłaszcza dla klas: lasy ( wzrost o 37%) tereny przemysłowe/zabudowa (spadek
o 33%) oraz tereny zielone (spadek o 17%). Największy wzrost dokładności (z 35% na 71%)
zanotowano dla obrazu Landsata dla klasy lasy ( Rys. 80b, Tab 42). Znamienne jest jednak to, że
różnice wartości współczynnika CC zanotowano dla wszystkich klas.
Tab 42. Współczynnik CC dla obrazów klasyfikowanych metodami zaawansowanymi – symulacja SRF (wariant I i II).
Obraz Hyperion ALI_SRF Aster_SRF Landsat_SRF Spot_SRF
Me
tod
a
Wariant
Dokładność
W I W II W I W II W I W II W I W II W I W II
CC1 51,25 51,21 72,85 70,06 30,52 27,99 72,62 80,33 51,78 38,28
CC2 89,73 84,55 85,77 81,20 84,81 83,63 90,69 74,08 87,52 86,02
CC3 48,00 47,51 41,09 38,64 50,75 50,46 25,33 29,05 99,18 99,29
CC4 87,79 97,21 78,30 92,40 88,97 96,28 37,03 89,07 99,80 99,87
CC5 93,29 91,36 92,54 88,08 91,00 89,87 79,01 56,40 93,15 98,19
LSU
CC 80,30 85,31 75,89 79,17 79,23 81,50 52,87 66,42 94,46 95,28
CC1 81,85 85,53 76,56 64,86 51,35 75,67 92,21 93,97 62,94 43,75
CC2 92,75 77,83 94,73 92,48 96,15 63,52 90,84 87,97 96,00 90,87
CC3 66,32 57,34 74,86 88,37 72,09 73,45 34,61 71,44 59,14 71,47
CC4 56,27 50,63 74,01 56,91 67,28 61,87 66,50 64,88 77,04 63,92
CC5 54,17 50,55 70,31 64,39 72,67 67,75 73,66 67,66 97,25 80,14
MF
CC 61,57 59,64 74,47 67,73 70,84 74,55 65,54 69,88 76,04 70,99
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
160
50
55
60
65
70
75
80
85
90
95
100
Hyperion ALI_SRF Aster_SRF Lan_SRF Spot_SRF
wsp
ółc
zyn
nik
CC
[%]
LSU_WI
MF_WII
LSU_WII
MF_WII
Rys. 81. Współczynnik poprawności klasyfikacji wykonanej metodami LSU i MF dla obrazów uzyskanych w symulacji SRF (WI -
wariant I, WII - wariant II).
-25
-15
-5
5
15
25
35
45
55
ALI_SRF Aster_SRF Lan_SRF Spot_SRF
1
2
3
4
5
CC
-35
-25
-15
-5
5
15
25
35
ALI_SRF Aster_SRF Lan_SRF Spot_SRF
1
2
3
4
5
CC
Rys. 82. Różnice (WII - WI) całkowitego współczynnika CC i współczynnika CC poszczególnych klas, uzyskane dla klasyfikacji
obrazów po symulacji SRF metodą a) LSU b) MF.
Analizując liczbę i wielkość różnic ( Rys. 80b, Tab 42) można stwierdzić, że obrazy uzyskane
w symulacji SRF są najbardziej wrażliwe na zmianę zestawu krzywych referencyjnych. Zwłaszcza
dla obrazów ALI i Spot, dla których różnica całkowitego współczynnika CC była równa odpowiednio
7% i 5%, natomiast różnice współczynników dla poszczególnych klas wynosiły 12 - 37% ( Rys. 80b,
Tab 42). Podobnie jak w klasyfikacji MF obrazów po symulacji II jedynie dla klasy lasy uzyskano
podwyższenie współczynnika CC dla wszystkich obrazów (12 - 37%). Duży wzrost dokładności dla
klasy wody (24%) oraz duży spadek dokładności terenów przemysłowych (33%), odnotowano
w przypadku obrazu Astera ( Rys. 82).
Porównując wyniki klasyfikacji obrazów symulowanych metodami zaawansowanymi można
zauważyć, iż metody podpikselowe dostarczają o wiele wyższych wartości współczynnika CC niż
metody pikselowe (SAM, SFF). Dokładność klasyfikacji obliczona dla analizowanych obrazów waha
się od 52% do 96% w zależności od metody. Generalnie metoda LSU klasyfikuje obiekty wybrane
do prezentowanych testów z najlepszą dokładnością. Co ciekawe, najwyższe wskaźniki
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
161
dokładności uzyskano dla obrazów o najmniejszej liczbie kanałów, tj. dla Spota (4 kanały symulacja
II i SRF), gdzie uzyskano dokładność 94 - 96%.
Analizując wyniki można zauważyć, iż dokładność uzyskana dla symulowanego Spota
(we wszystkich symulacjach) jest wyższa niż dokładność źródłowego obrazu Hyperiona. Dla
symulacji I obraz posiadający kanały Hyperiona charakterystyczne dla zakresów Spota również
uzyskał najwyższy współczynnik poprawności klasyfikacji równy 84% (86% wariant II). Jest to wynik
lepszy o 4 punkty procentowe od dokładności źródłowego obrazu. Otrzymane wyniki mog ą
wskazywa ć, iż odpowied ź spektralna rejestrowana w zakresach spektralnych s ensora Spot
niesie w sobie bardzo du ży ładunek informacji spektralnej.
Dla obrazów o dużej liczbie kanałów (45−94) rejestrujących promieniowanie
elektromagnetyczne w zakresach charakterystycznych dla sensorów wielospektralnych (VNIR,
SWIR) (symulacja I) dokładności uzyskane za pomocą metod hiperspektralnych kształtują się na
dosyć wysokim poziomie około 79% dla metody LSU oraz na dużo niższym poziomie 53% dla
metody MF. W klasyfikacji LSU zmiana krzywych referencyjnych (z wariantu I na wariant II)
najbardziej wpływa na zmianę dokładności dla obrazów o największej liczbie kanałów: Hyperion
(172 kanały), ALI (94 kanały), Landsat (85 kanałów) oraz najmniejszej liczbie Spot (45 kanałów)
( Rys. 77). Prawie w ogóle nie wpłynęła na dokładność klasyfikacji Astera o średniej liczbie kanałów
(63). Natomiast dla metody MF zmiana krzywych wzorcowych nie spowodowała zmian dokładności
całkowitej klasyfikacji obrazów symulowanych. Jest to prawdopodobnie związane ze specyfiką obu
metod. Podstawą metod rozmieszania spektralnego (spectral unmixing) jest założenie, że
w zarejestrowanym obrazie występuje niewielka liczba obiektów charakteryzujących się stałymi
własnościami spektralnymi. Dodatkowo, w obrębie piksela własności te ulegają uśrednianiu
i mieszaniu. Metoda daje odpowiedź jakie obiekty zostały zidentyfikowane w obrębie piksela.
Analiza oparta na wynikach metody podpikselowej MF pozwala na identyfikację tylko tych obiektów,
które zostały wybrane jako wzorce. Pozostałe obiekty, występujące na badanym terenie,
traktowane są jako tło. Algorytm maksymalizuje odpowiedzi spektralne wzorców tłumiąc odpowiedzi
pozostałych obiektów. W konsekwencji dla analizowanych obrazów uzyskano stosunkowo niską
dokładność klasyfikacji metodą MF ze względu na to, obiekty znajdujące się w obrębie
analizowanej sceny w dużej mierze stanowią piksele mieszane. Wartości pikseli obrazów
wynikowych MF stanowią stopień dopasowania odpowiedzi spektralnej poszczególnych pikseli do
odpowiedzi spektralnej wzorców, są więc proporcjonalne do udziału poszczególnych obiektów
w tworzeniu wartości pikseli. Doskonale widać to na przykładzie klasy wody, która w metodzie MF
została sklasyfikowana z bardzo dobrą dokładnością. Jest to związane z występowaniem na
analizowanym obszarze dużego zbiornika wodnego (Zbiornik Dobczycki - powierzchnia ok. 10 km2)
oraz mniejszych zbiorników wodnych żwirowni (Grabie, K.Z.E.K., Brzegi), dla których wartości
pikseli obrazu stanowią odpowiedź spektralną tylko i wyłącznie dla klasy wody. Zatem zmiana
krzywych referencyjnych nie powoduje zmiany w dokładności identyfikacji obiektów wzorcowych
z uwagi na to, że obydwa zestawy stanowią charakterystyki wzorcowe wygenerowane na
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
162
podstawie tego samego obrazu, nie zmienia się, więc ani wzorzec ani tło, bez zmian pozostaje
również liczba kanałów.
Wyniki dla metody MF różnicują się natomiast dla klasyfikacji przeprowadzonej na obrazach
o obniżonej liczebności kanałów (9, 6, 4). Wówczas krzywe spektralne wzorców po resamplingu
zostają znacznie zgeneralizowane. W rzeczywistości uśrednienie zarówno krzywych spektralnych
dla poszczególnych pikseli, jak i krzywych wzorcowych powoduje lepsze ich wzajemne
dopasowanie. Tak więc, ograniczenie liczby kanałów powoduje zwiększenie liczby pikseli, dla
których krzywe spektralne uzyskują odpowiednio wysoki stopień dopasowania do charakterystyk
wzorcowych. Zwiększa się, zatem udział pikseli zidentyfikowanych jako dana klasa. Taka sytuacja
występuje w przypadku symulacji II i symulacji SRF. Dokładność całkowita (współczynnik CC)
przewyższa dokładność uzyskaną dla oryginalnego obrazu Hyperiona nawet o 16%. Jest to jednak
spowodowane zawyżonymi dokładnościami (współczynnikami CC) poszczególnych klas. Na
podstawie wyników przedstawionych w tym podrozdziale, zarówno w tabelach ( Tab 41, Tab 42), jak
i na wykresach ( Rys. 79, Rys. 81) z całą pewnością można stwierdzić, iż na wynik klasyfikacji ma
wpływ zakres spektralny, w którym rejestrowana jest informacja spektralna. Bardzo wyraźnie widać
to dla symulowanych obrazów sensorów wielospektralnych. Liczba kanałów w symulacjach II i SRF
była identyczna. Obrazy posiadały jednak inaczej uśrednioną informację spektralną dla
poszczególnych kanałów. W przypadku obrazów symulowanych za pomocą SRF była to informacja
uśredniona na podstawie rozdzielczości spektralnej kanałów sensorów wielospektralnych (zakresy
VNIR, SWIR): ALI (rozdzielczość 20−270 nm), Aster (rozdzielczość 40−100 nm), Landsat
(rozdzielczość 65 - 260 nm), Spot (rozdzielczość 70−170 nm). Natomiast dla symulacji II były to
kanały Hyperiona o rozdzielczości około 10 nm. Wyniki dokładności klasyfikacji dla obydwu
symulacji różnią się. Symulacja II w metodzie MF dostarczyła bardzo jednorodnych wyników dla
wariantu I. Po zmianie wzorców dokładności uległy znacznemu obniżeniu o 6% (Landsat) i 8% (ALI,
Aster). W przypadku obrazu Spota dokładność spadła aż o 18%. W klasyfikacji MF dla obrazów
symulowanych metodą SRF nie występują aż tak duże różnice dokładności (4 - 7%). Jednakże
zmiana sposobu resamplingu spektralnego spowodowała, że dokładności zmieniają się zarówno na
plus (Aster, Landsat), jak i na minus (ALI, Spot), bez wyraźnych przesłanek łączących te pary
obrazów, związanych np. z liczbą kanałów bądź podobieństwem zakresów spektralnych
symulowanych obrazów. W klasyfikacji metodą LSU obrazów SRF w obydwu wariantach
stwierdzono niskie dokładności dla obrazu Landsata (53% i 66%) i bardzo wysokie dla obrazu
Spota (94% i 96%).
Podsumowując dla obrazów symulowanych metody hiperspektralne dostarczają bardzo
różnych wyników w zależności od liczby kanałów oraz zakresów spektralnych. Na wyniki klasyfikacji
mają również wpływ krzywe spektralne wykorzystane jako dane referencyjne. Dla metody LSU
krzywe uzyskane z procedury PPI podwyższają dokładność klasyfikacji, natomiast dla metody MF
wartości współczynnika CC pozostają na tym samym poziomie (symulacja I) lub ulegają obniżeniu
(za wyjątkiem obrazu symulowanego Astera i Landsata - symulacja SRF). Największe zmiany
współczynnika dla poszczególnych klas w wariancie I i II zanotowano dla obrazów symulowanych
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
163
metodą SRF, najmniejsze dla obrazów symulowanych w symulacji I. Klasyfikacja obrazów o dużej
liczbie kanałów (45 - 94) dostarcza jednorodnych wyników dokładnościowych 76 - 86%, natomiast
obrazy o liczbie kanałów <10 uzyskują bardzo zróżnicowaną dokładność (53 - 96%), która jest
uzależniona od zakresu spektralnego oraz od rozdzielczości spektralnej kanałów. Dla wszystkich
symulowanych obrazów zdecydowanie lepsze dokładności uzyskano w metodzie LSU (nawet
o 28%). Można, zatem przypuszczać, że metoda liniowego rozmieszanie spektralnego jest metodą
bardziej odpowiednią do celów klasyfikacji zarówno obrazów o dużej, jak i małej liczbie kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
164
10. Wpływ redukcji kanałów Hyperiona i ALI na dokładno ść klasyfikacji wody
Przeprowadzona w rozdziale 9 analiza metod klasyfikacji oraz uzyskane wyniki były inspiracją
do wykonania dodatkowych badań. Z uwagi na wysokie dokładności klasyfikacji klasy wody, jakie
uzyskano niemal we wszystkich zastosowanych w ramach porównania metodach, klasa ta została
poddana indywidualnej analizie. Dodatkowym argumentem skłaniającym do przeprowadzenia
analiz w tym zakresie był fakt posiadania biblioteki spektralnej dla wód Zbiornika Dobczyckiego
z pomiaru in situ, pozyskanej w symultanicznym czasie do rejestracji źródłowego obrazu Hyperiona.
Analiza miała na celu porównanie uzyskiwanych dokładności klasyfikacji w zależności od liczby
kanałów i ich charakterystyki spektralnej. Dokonano również porównania wyników uzyskanych dla
obrazów symulowanych. Symulację podobnie jak w pierwszym etapie badań (rozdz. 8.4) wykonano
na podstawie charakterystyki spektralnej sensorów wielospektralnych ALI, Landsat, Aster i Spot.
Takie postępowanie miało za zadanie zbadanie przydatności tego typu obrazów do klasyfikacji
wody w kontekście wykorzystania w tym celu danych hiperspektralnych. Postawiono sobie
w związku z tym następujące dwa pytania:
1. Czy w klasyfikacji określonego typu obiektów, dla przykładu wody, konieczne jest
pozyskiwanie danych o wysokiej rozdzielczości spektralnej i dużym zasięgu
spektralnym?
2. Czy liczba kanałów biorących udział w procedurach klasyfikacyjnych dla takiego typu
pokrycia terenu ma wpływ na dokładność klasyfikacji? Jeżeli tak, to w jakim stopniu?
Analizując przykładową krzywą spektralną wody ( Rys. 83), można w niej wyróżnić kilka
charakterystycznych obszarów, których występowanie jest związane z obecnością określonego
składnika odpowiedzialnego za kształt tej krzywej. Dla krótkich długości fal w zakresie 400–500 nm
(obszar A) niskie wartości odbicia spowodowane są absorpcją promieniowania przez
chlorofil a, karotenoidy oraz rozpuszczoną materią organiczną (Rundquist i in., 1996). Maksymalne
wartości odbicia w zakresie 500 - 600nm (obszar B) występują na skutek słabej absorpcji
promieniowania przez pigmenty (np. pigmenty alg) oraz rozpraszania promieniowania wywołanego
przez cząstki zawieszonej materii nieorganicznej i fitoplankton (Schalles i Yacobi, 2000).
Obszary „C” i „D” (620–650 nm) ( Rys. 83) związane są z występowaniem pików absorpcyjnych
pigmentów np. fikocyjaniny - pigmentu występującego u krasnorostów i sinic (Schalles i Yacobi,
2000). Dla długości fali większej niż 650 nm (obszar E) ( Rys. 83) można zaobserwować ponowne
obniżenie wartości odbicia spowodowane obecnością chlorofilu a oraz rozpraszaniem
promieniowania od ścian cząstek. Natomiast występowanie wyraźnego piku dla długości fali około
700 nm (obszar F) ( Rys. 83) jest wynikiem interakcji rozpraszania promieniowania przez materię
zawieszoną oraz absorpcji promieniowania przez wodę i chlorofil a (Gitelson, 1992).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
165
Rys. 83. Przykładowa krzywa spektralna wody śródlądowej (źródło: Rundquist i in., 1996).
10.1 Metodyka redukcji
Analiza przebiegu krzywej spektralnej charakterystycznej dla wody ( Rys. 83), krzywych
z pomiaru in situ ( Rys. 84a,b), oraz wizualna analiza kanałów Hyperiona ( Rys. 84c) wskazują, iż
najlepszym przedziałem do klasyfikacji wody są dane zakresu spektralnego od 400 nm do 900 nm.
W przypadku danych Hyperiona w dalszym zakresie długości fali, woda na obrazach kolejnych
kanałów przestaje się różnicować. Już w kanale 30 (719,53 nm) nie można wizualnie wychwycić
żadnych różnic w jasności pikseli wskazujących na konkretne własności wody ( Rys. 84b).
Natomiast dla kanałów z numerem powyżej 47 odpowiedź spektralna uzyskuje wartości zerowe lub
poniżej zera. Taką tendencję można również zauważyć dla pomierzonych in situ krzywych
spektralnych wód zbiornika Dobczyckiego ( Rys. 84c). W przedziale 700–900 nm krzywe spektralne
wykazują bardzo jednorodny przebieg i nie posiadają żadnych pików absorpcyjnych.
Charakterystyczne jest natomiast podwyższenie wartości współczynnika odbicia, które można
zaobserwować w przedziale 700 - 900nm dla punktów pomiarowych 2 i 3. Analizie poddane zostały
również kompozycje barwne przygotowane dla obrazów symulowanych ALI, Landsat, Aster i Spot
( Rys. 85). Zarówno kompozycje RGB, jak i krzywe pomiarowe wyraźnie wskazują na zróżnicowanie
wartości współczynnika odbicia dla punktu 1, 2, 3 (jaśniejsze piksele na obrazie, wysokie wartości
dla krzywych punktów 1, 2, 3) w stosunku do współczynnika odbicia dla punktów 4 i 5 (ciemne
piksele, niskie wartości współczynnika odbicia pomierzone spektrometrycznie) ( Rys. 84a,c).
Wykorzystany w analizach obraz Hyperiona poddany został wstępnemu przetwarzaniu,
co zostało opisane w podrozdziałach 8.1 i 8.2. Przy czym, na podstawie powyższej
analizy krzywej spektralnej wody wybrano tylko dane z sensora VNIR czyli 47 kanałów z zakresu
424,06–892,74 nm. Następnie przeprowadzona została korekcja tych danych metodą Empirical
Line, wykorzystującą krzywe spektrometryczne z pomiaru in situ. Wybór ten był podyktowany
Długość fali [nm]
Wsp
ółcz
ynni
k od
bici
a [%
]
F D C A
B
400 500 450 550 600 650 700 750 800 850 0.00
0.01
0.02
0.03
0.04
0.05
E
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
166
bardzo dobrymi wynikami korekcji z wykorzystaniem tej metody w poprzednio prowadzonych
badaniach. Z uwagi na fakt, że analizie miała podlegać tylko jedna forma pokrycia terenu jakim była
woda, obszar analizy został ograniczony do największego obiektu wodnego (10,7 km2),
znajdującego się na opracowywanym obszarze, a mianowicie do Zbiornika Dobczyckiego ( Rys. 86).
Wybrany do analiz obiekt gwarantuje, że analizowane piksele obrazu stanowią reprezentację
spektralną tylko i wyłącznie wody, co jest bardzo istotne ze względu na problem pikseli mieszanych,
tzw. mikseli.
Rys. 84. Kanały obrazu Hyperiona a) kanał 27 (688 nm) z zaznaczonymi punktami pomiaru spektrometrycznego
b) kanał 30 (719 nm) oraz c) krzywe spektralne pomierzone dla wód Zbiornika Dobczyckiego.
Rys. 85. Kompozycja w barwach naturalnych dla obrazów symulowanych: Spot, Aster, Landsat, ALI oraz dla
źródłowego obrazu Hyperion.
Na potrzeby ograniczenia obszaru analizy przygotowano maskę w postaci obrazu binarnego
o wartościach 0 i 1 na podstawie wskaźnika NDVI ( Rys. 86). Wartość 1 została przyporządkowana
pikselom wód, natomiast wartość 0 reprezentowała pozostałe formy pokrycia terenu.
Krzywe spektralne wody pomierzone in situ dla wód zbiornika wykorzystano jako dane referencyjne
( Rys. 84c). Dodatkowo, przygotowane zostały obrazowe krzywe referencyjne. W oparciu
o nie sporządzono krzywe referencyjne dla symulowanych sensorów: ALI, Landsat, Aster i Spot
( Rys. 87a, b). W tym celu zastosowano procedurę PPI (podrozdział 3.5.3).
a) b) c)
1
2
3
4 5
długość fali [nm]
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
167
Rys. 86. a) kompozycja barwna RGB dla obrazu Hyperiona b) maska dla obszaru zbiornika c) mapa głębokości
zbiornika z zaznaczonymi strefami właściwości wody (1, 2, 3, 4, 5), wybranymi do klasyfikacji metodą Maximum Likelihood.
Rys. 87. Krzywe spektralne wody a) obrazowe, b) in situ, przepróbkowane do zakresów spektralnych VNIR sensorów
ALI, Landsat, Aster i Spot, wykorzystane jako wzorce w klasyfikacji SAM.
Do testowania dokładności klasyfikacji wykorzystano metodę SAM, dla której w przypadku
klasyfikacji wody w poprzednich analizach otrzymano bardzo dobre wyniki (PA ~ 85%, UA ~ 90% −
rozdz. 9.2.1.1). Metoda ta została zastosowana również ze względu na format obrazu wynikowego
klasyfikacji oraz charakter danych wzorcowych wykorzystanych do klasyfikacji (krzywe spektralne).
W celu sprawdzenia, jakie dokładności dla obrazów symulowanych można uzyskać metodami
tradycyjnymi zastosowano metodę Maxium Likelihood, która jest najpopularniejsza w klasyfikacji
obrazów rejestrowanych przez symulowane sensory i która okazała się najbardziej dokładna
w porównaniu wykonanym w podrozdziale 9.1.2.1. Analizowany fragment obrazu dotyczył tylko
obszaru wód zbiornika Dobczyckiego. W związku z tym pola treningowe obejmowały piksele
charakteryzujące poszczególne strefy wodne zbiornika o określonych właściwościach wody lub jego
głębokości. Analogicznie do typowania miejsc pomiarowych w przypadku pomiaru krzywych
spektrometrycznych, pola treningowe zostały wybrane w miejscach wskazanych przez służby
Punkt Punkt
Punkt
Punkt
Punkt
długość fali
Punkt Punkt
Punkt
Punkt
Punkt
długość fali
a)
b)
a) b) c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
168
badające właściwości i czystość wód zbiornika oraz na podstawie wyników klasyfikacji
nienadzorowanej. Przeprowadzona został również wnikliwa interpretacja wizualna kompozycji
barwnych z kanałów spektralnych, jak również kanałów uzyskanych w wyniku transformacji MNF
i PCA. Na tej podstawie wytypowanych zostało 5 klas wód zbiornika: strefa 1, strefa 2, strefa 3,
strefa 4, strefa 5 ( Rys. 86 c).
10.1.1 Redukcja kanałów obrazu hiperspektralnego Hy perion
W celu zbadania wpływu redukcji kanałów obrazu z sensora Hyperion na dokładność
klasyfikacji wody przeprowadzony został eksperyment polegający na testowaniu dokładności
klasyfikacji obrazu Hyperiona po ograniczeniu liczby kanałów w poszczególnych zakresach
rejestracji współczynnika odbicia. Obraz Hyperiona w zakresie VNIR został podzielony na
8 podzakresów (1’H, 1H, 2H, 3H, 3’H, 4H, 4’H, 4’’H), których zakresy spektralne są zbliżone do
przedziałów rejestracji odbicia spektralnego przez sensory wielospektralne: ALI, Aster, Landsat,
Spot ( Tab 43). Przy podziale na podzakresy uwzględniono długości fal, w jakich rejestrowane są
poszczególne kanały wszystkich analizowanych sensorów wielospektralnych ( Tab 43).
W przypadku sensora ALI mamy do czynienia z rozdzieleniem zakresu podczerwonego na
2 kanały: 775−805 nm i 845−890 nm ( Rys. 2). Dlatego też, dla pasma podczerwonego utworzone
zostały trzy podzakresy ( Tab 43):
1) 4H – kanały od 34 do 47 (14 kanałów), zakres spektralny 760–892 nm
3) 4’H – kanały od 34 do 41 (8 kanałów), zakres spektralny 760–801 nm
2) 4’’H – kanały od 42 do 47 (6 kanałów), zakres spektralny 841–892 nm
Pierwszy z nich uwzględnia kanały zakresu podczerwonego, który jest rejestrowany przez
sensory Landsat, Spot, Aster, natomiast dwa pozostałe podzakresy zawierają kanały z zakresem
spektralnym charakterystycznym dla sesora ALI.
Tab 43. Charakterystyka spektralna zakresów sensorów wielospektralnych i numeracja podzakresów Hyperiona – zakres VNIR.
ALI
[nm]
Landsat
[nm]
SPOT
[nm]
ASTER
[nm]
Podzakres
Hyperiona
Nr kanału
Hyperiona
Liczba
kanałów
Hyperiona
433-453 x x x 1’H 1 - 3 3
450-515 405-520 x x 1 H 4 - 10 7
525-605 520-600 500-590 520-600 2 H 11 - 18 8
630-690 630-690 610-680 630-690 3 H 19 - 27 9
x x x x 3’H 28 - 33 6
x 760-900 790-890 780-860 4 H 34 - 47 14
775-805 x x x 4’H 34 - 38 5
845-890 x x x 4’’H 42 - 47 6
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
169
W obrazie Hyperiona można wyróżnić jeszcze jeden podzakres 3'H (699–750 nm), który nie
jest rejestrowany przez żaden z wymienionych sensorów wielospektralnych. W ramach
prezentowanych testów zbadano również wpływ obecności kanałów tego podzakresu na
dokładność klasyfikacji.
Do omawianej klasyfikacji przygotowano 2 warianty redukcji poszczególnych podzakresów.
W pierwszym podejściu, z zestawu kanałów, które wykorzystano do klasyfikacji eliminowano jeden
z siedmiu podzakresów. Natomiast w drugim przypadku dany podzakres usuwany był łącznie
z podzakresem 3'H. Dla każdego obrazu uzyskanego po odpowiedniej selekcji kanałów
przeprowadzona została procedura klasyfikacji SAM (przy kącie 0,25 rad), a następnie porównanie
wyników z wynikiem klasyfikacji oryginalnego obrazu Hyperiona w zakresie VNIR (klasyfikacja SAM
dla Hyperiona 47 kanałowego - Rys. 88 b).
10.1.2 Redukcja kanałów obrazu sensora wielospektra lnego ALI
Z uwagi na podobieństwo zakresów rejestrowanych przez sensory Hyperion i ALI, zwłaszcza
w zakresie podczerwonym (posiadają one bowiem kanały, w zakresach promieniowania
elektromagnetycznego, jakich nie posiadają pozostałe analizowane w tej pracy sensory)
przetestowano także wpływ eliminacji poszczególnych kanałów dla sensora ALI ( Tab 44). Celem
było zbadanie czy w przypadku obrazu z sensora ALI, na dokładność klasyfikacji wpływa obecność
kanałów z zakresu podczerwonego. W tym celu przygotowano obrazy, w których eliminowane były
poszczególne kanały lub zestawy kanałów należące do tego samego zakresu długości fal
promieniowania elektromagnetycznego ( Tab 51). W pierwszym etapie usuwane były kolejno
pojedyncze kanały 1’, 1, 2, 3, 4, 4’ . Następnie dla uzyskanych obrazów przeprowadzono
klasyfikację SAM. Podobną procedurę zastosowano dla sześciu wybranych zestawów kanałów,
które były eliminowane a mianowicie: 1’,1; 1’,4; 1’,4’; 1,1’,4; 1,1’,4’; 4,4’. Przy czym, należy
zaznaczyć, iż dwa z nich powodują uzyskanie obrazów zgodnych z konfiguracją Landsata
(eliminacja zestawu 1’,4’ ) oraz Spota i Astera (usunięcie kanałów 1’,1,4’). Dlatego porównano
i przeanalizowano również dokładności, jakie uzyskano dla symulowanych obrazów Landsata,
Spota, Astera. Do szacowania dokładności klasyfikacji wykorzystano również w tym przypadku
obraz po klasyfikacji SAM przeprowadzonej dla Hyperiona (47 kanałów) ( Rys. 88 b).
Tab 44. Charakterystyka spektralna kanałów sensorów wielospektralnych w zakresie VNIR [nm]. Sensor
Nr kanału ALI Landsat SPOT ASTER
1’ 433-453 x x x
1 450-515 450-520 x x
2 525-605 520-600 500-590 520-600
3 630-690 630-690 610-680 630-690
4 775-805 760-900 790-890 780-860
4’ 845-890 x x x
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
170
10.2 Wyniki klasyfikacji obszaru zbiornika Dobczyck iego
W nieniejszym podrozdziale przedstawiono wyniki klasyfikacji wody uzyskane dla obrazów
symulowanych ALI, Aster, Landsat, Spot ( 10.2.1) oraz dla redukowanych obrazów Hyperiona
( 10.2.2) i ALI ( 10.2.3).
10.2.1 Wyniki klasyfikacji obrazów symulowanych
W tabeli ( Tab 45) przedstawiono dokładności uzyskane dla obrazów symulowanych
poddanych klasyfikacji metodą SAM. W przypadku klasyfikacji na podstawie krzywych z obrazu,
najlepszą dokładność (OA = 96%, kappa = 0,95) otrzymano dla obrazu ALI ( Tab 45, Rys. 89).
Natomiast najniższe wartości dokładności OA i kappa uzyskano dla obrazu Astera, odpowiednio
89% i 0,85. W przypadku symulowanych obrazów Landsata i Spota dokładności klasyfikacji
utrzymywały się były na bardzo zbliżonym poziomie OA = 91% i kappa = 0,9 ( Tab 45, Rys. 89).
Znaczne rozbieżności w wartościach dokładności otrzymano w przypadku wykorzystania krzywych
z pomiaru spektrometrycznego ( Tab 45, Rys. 90). Dokładność całkowita OA wynosiła 93% dla
obrazu ALI, natomiast dla obrazu Spota dokładność obniżyła się do wartości 57% (36 punktów
procentowych). Duże różnice wartości uzyskano także dla współczynnika kappa, który wynosił
odpowiednio 0,9 i 0,4. Można powiedzieć, że rozbieżności w otrzymanych dokładnościach są
uzasadnione ze względu na liczbę kanałów, jaką w analizowanym zakresie (400−900nm) posiada
ALI (6 kanałów) i Spot (3 kanały). Zadziwiająco wysoką dokładność 83% uzyskano dla
symulowanego obrazu Astera, pomimo, że obraz ten, podobnie jak SPOT, posiadał tylko 3 kanały.
Natomiast dokładność całkowita dla obrazu Landsata, który w analizowanym zakresie posiadał
4 kanały wynosiła tylko 64%, przy współczynniku kappa równym 0,5 ( Tab 45, Rys. 90).
Tab 45. Dokładności klasyfikacji SAM dla symulowanych sensorów wielospektralnych na podstawie krzywych z obrazu (endmembersów) oraz krzywych pomierzonych in situ.
Krzywe
referencyjne Dokładność ALI (6) LAN (4) SPOT (3) ASTER (3)
OA [%] 96,5 90,6 91,3 89,4 Endmembersy
kappa 0,95 0,86 0,87 0,85
OA [%] 92,7 64,1 57,0 83,0 In situ
kappa 0,9 0,5 0,4 0,8
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
171
Rys. 88. Krzywe spektrometryczne z pomiaru terenowego dla wód zbiornika Dobczyckiego oraz wynik klasyfikacji
SAM dla obrazu Hyperiona (47 kanałów) uzyskany na podstawie krzywych a) obrazowych b) in situ
Rys. 89. Wynik klasyfikacji SAM dla obrazów symulowanych (ALI, Landsat, Aster, Spot) na podstawie krzywych
obrazowych.
Rys. 90. Wynik klasyfikacji SAM dla obrazów symulowanych (ALI, Landsat, Aster, Spot) na podstawie krzywych
in situ.
a)
b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
172
W przypadku metody Maximum Likelihood dedykowanej danym wielospektralnym, uzyskane
dokładności klasyfikacji dla wszystkich symulowanych obrazów są do siebie bardzo zbliżone.
W tabeli ( Tab 46) przedstawiono wyniki porównania dokładności. Najlepszą klasyfikację uzyskano
dla ALI (88%) natomiast dla pozostałych obrazów (Landsat, Spot i Aster) dokładność była bardzo
zbliżona i wynosiła około 85%. Można uznać, że dla wszystkich 4 obrazów dokładność klasyfikacji
jest na podobnym poziomie. Potwierdza to również ocena wizualna wyników klasyfikacji ( Rys. 91).
Uzyskana dokładność całkowita dla symulowanego obrazu ALI ma wartość zbliżoną do dokładności
otrzymanej przez Hejmanowską (2007) w badaniach wykonanych na danych Hyperiona o podobnej
charakterystyce spektralnej.
Rys. 91. Wynik klasyfikacji ML dla obrazów Hyperion, ALI, Landsat, Spot, Aster.
Tab 46. Dokładność klasyfikacji Maximum Likelihood dla obrazów symulowanych.
ALI (6) LAN (4) SPOT (3) ASTER (3)
OA [%] 88,2 85,3 85,9 84,6
kappa 0,81 0,76 0,77 0,75
10.2.2 Wyniki klasyfikacji po redukcji kanałów Hype riona
Analizując tabelę ( Tab 47) można zauważyć, że dla dokładności klasyfikacji bardzo istotny jest
zakres, dla którego zarejestrowana została odpowiedź spektralna. Usunięcie trzech pierwszych
podzakresów (1’H, 1H, 2H - zakres niebieski i zielony) nie spowodowało znacznego obniżenia
dokładności klasyfikacji. Wynosiła ona odpowiednio 95%, 94,6% i 94%. Należy przy tym zaznaczyć,
że dla każdego z tych podzakresów usuwano różną liczbę kanałów: 3, 7, 8, natomiast wynik
dokładności klasyfikacji był bardzo zbliżony 94 - 95%. Większy spadek wartości dokładności
zanotowano po wyeliminowaniu kanałów z podzakresu 3H (607−688 nm - zakres czerwony).
Dokładność klasyfikacji po wyeliminowaniu kanałów z tego podzakresu wynosiła 87% czyli spadek
w stosunku do poprzednich wyników o około 7 punktów procentowych – przy czym należy
podkreślić, że liczba kanałów usuwanych wzrosła tylko o 1 w stosunku do redukcji podzakresu 2H
( Tab 47). Sprawdzony został także wpływ usunięcia podzakresu czerwonego 3'H (699−750 nm).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
173
Wyeliminowanie 6 kanałów z tego podzakresu w niewielkiej mierze wpłynęło na dokładność
klasyfikacji takiego obrazu i wynosiła ona 97%. Należy, zatem przypuszczać, że obecność kanałów
podzakresu 3'H charakterystycznego dla Hyperiona nie ma istotnego wpływu na rezultat
klasyfikacji, jeżeli występują pozostałe podzakresy lub jeżeli w całym zestawie kanałów są obecne
kanały z zakresu czerwonego.
Tab 47. Dokładność klasyfikacji SAM uzyskana dla obrazów po eliminacji pojedynczych podzakresów Hyperiona.
Nr eliminowanego
podzakresu 1’H 1H 2H 3H 3’H 4H 4’H 4’’H
Długość fali [nm] 424-444 454-515 525-597 607-688 699-750 760-892 760-801 841-892
Liczba usuniętych
kanałów 3 7 8 9 6 14 5 6
OA [%] 94,98 94,63 93,86 87,37 97,14 56,03 92,95 82,13
kappa 0,93 0,92 0,91 0,81 0,96 0,44 0,9 0,75
Tab 48. Dokładność klasyfikacji SAM uzyskana dla obrazów po eliminacji podzakresów Hyperiona łącznie z podzakresem 3’H’.
Nr eliminowanych podzakresów 1’H (3’H) 1H (3’H) 2H (3’H) 3H (3’H) 4H (3’H) 4’H (3’H) 4’’H (3’H)
Liczba usuniętych kanałów 9 13 14 15 20 11 12
OA' [%] 94,91 94,01 92,99 84,16 30,44 91,15 79,94
kappa 0,93 0,91 0,9 0,75 0,13 0,87 0,72
OA − OA' [%] 0,07 0,62 0,87 3,21 25,59 1,80 2,19
W wyniku analizy dokładności klasyfikacji obrazów po redukcji kanałów w paśmie
podczerwonym uzyskano bardzo różne rezultaty w zależności od eliminowanego podzakresu. Dla
obrazu, w którym usunięty został zakres 4’H (5 kanałów) uzyskano bardzo wysoką dokładność
OA = 93% ( Tab 47). Natomiast przy próbie eliminacji sześciu kanałów podzakresu 4’’H
(841−892 nm) wynik klasyfikacji dla obrazu znacznie się pogorszył. Dokładność klasyfikacji spadła
do wartości 82% ( Tab 47). W przypadku redukcji podzakresu 4H (760−892 nm), gdzie
wyeliminowano z obliczeń 14 kanałów dokładność obniżyła się prawie o połowę i wynosiła 56%
( Tab 47, Rys. 92b). Ze względu na tak duże różnice dokładności dla podzakresu 4H, przebadano
dokładnie wpływ obecności pojedynczych kanałów oraz grup (zestawów) kanałów z tego
podzakresu ( Tab 49 i Tab 50). Celem takiego podejścia było sprawdzenie, który z wyeliminowanych
14-stu kanałów ma tak duży wpływ na uzyskaną dokładność klasyfikacji.
Rys. 92. Wyniki klasyfikacji SAM dla obrazu Hyperiona a) źródłowego b) po usunięciu podzakresu 4H c) po usunięciu
podzakresu 4H i 3’H.
a) b) c)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
174
Z uwagi na fakt, że zakres 699−750 nm (podzakres 3’H) występuje tylko w przypadku
Hyperiona, sprawdzony został także wpływ usunięcia kanałów z tego podzakresu łącznie
z poszczególnymi podzakresami 1’H, 1H, 2H, 3H, 4H, 4’H, 4’’H ( Tab 48). Uzyskana dokładność
w przypadku trzech pierwszych podzakresów była bardzo zbliżona do wyników uzyskanych przy
obecności tych kanałów i wynosiła odpowiednio 95%, 94,1% oraz 93% ( Tab 48 i Tab 48). Sytuacja
zmienia się jednak, dla podzbioru 3H (czerwonego), gdzie uzyskana dokładność klasyfikacji spadła
do 84% ( Tab 48) (przed usunięciem podzakresu 3’H wynosiła 87% - Tab 48). Natomiast
w przypadku podzbioru 4H, dodatkowe usunięcie kanałów podzbioru 3’H powoduje bardzo duży
spadek dokładności, aż do 30% ( Tab 48, Rys. 92c). Brak podzakresu 4’’H wraz z podzakresem 3’H
także powoduje obniżenie dokładności do 80%.
30
40
50
60
70
80
90
100
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
liczba usuw anych kanałów
dokł
adność
kla
syfik
acji
[%]
1
2
Rys. 93. Zależność dokładności klasyfikacji SAM od liczby eliminowanych kanałów Hyperiona: 1 – po usunięciu
poszczególnych podzakresów, 2 - po usunięciu poszczególnych podzakresów wraz z podzakresem 3’H.
Analizując wykres dokładności klasyfikacji od liczby eliminowanych kanałów ( Rys. 93) można
zauważyć, iż nie ma prostej zależności liniowej pomiędzy tymi wielkościami. Widać to zwłaszcza
w przypadku różnych wartości dokładności klasyfikacji uzyskiwanej dla obrazów o takiej samej
liczbie eliminowanych kanałów. Przykładem może być sytuacja, w której usunięty został podzakres
4’’H oraz podzakres 3’H. W obydwu przypadkach wyeliminowano po 6 kanałów z każdego obrazu
( Tab 47). Dla pierwszego obrazu uzyskano dokładność 82%, natomiast dla drugiego obrazu
otrzymano dokładność ponad 97% ( Tab 47). Rozbieżność wyników wynosiła 15 punktów
procentowych. Jeszcze bardziej rozbieżne wyniki uzyskano, gdy wyeliminowanych zostało
14 kanałów. Po usunięciu podzakresu 4H, dokładność wynosiła 56% ( Tab 47). Natomiast przy
eliminacji podzakresu 2H i 3’H (łącznie również 14 kanałów) uzyskano dosyć dobrą dokładność
równą 92% ( Tab 48). Zatem różnica otrzymanych dokładności wynosiła aż 37 punktów
procentowych. Głównym powodem takiej różnicy jest zredukowanie kanałów z bardzo ważnego, jak
się okazuje zakresu podczerwonego.
Nasuwa się pytanie czy wystarczająca jest obecność odpowiedzi spektralnej z jednego kanału
w danym zakresie spektralnym czy też istnieje wartość graniczna liczby kanałów, która zapewnia
odpowiedni poziom dokładności klasyfikacji. W celu zbadania tej zależności przeprowadzono
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
175
podobną analizę eliminacji poszczególnych kanałów dla symulowanego sensora ALI (rozdz. 10.2.3).
Sprawdzono jak zmienia się dokładność klasyfikacji dla kolejnych obrazów, w stosunku do wyników
uzyskanych dla Hyperiona.
10.2.2.1 Wyniki klasyfikacji po redukcji kanałów Hyperiona z podzakresu 4H (podczerwonego)
Celem opisywanej analizy jest sprawdzenie, który z kanałów podzakresu 4H (760−892 nm) ma
wpływ na dokładność klasyfikacji obrazu Hyperiona oraz zbadanie czy usunięcie z testowanego
obrazu dodatkowo podzakresu 3’H (699−750 nm) ma wpływ na obniżenie wyników klasyfikacji.
Analizę przeprowadzono dla pojedynczych kanałów 41, 42, 43, 44, 45, 46, 47 oraz dla sześciu grup
(zestawów) kanałów: 34−40, 41−47, 41−43, 44−47, 44−46, 45−47.
Tab 49. Dokładność klasyfikacji SAM obrazu Hyperiona po eliminacji pojedynczych kanałów z podzakresu 4H oraz 4H i 3’H.
Nr kanału
(Dł. fali [nm])
41 (831) 42 (841) 43 (851) 44 (862) 45 (872) 46 (882) 47 (892)
Liczba usuniętych
kanałów 1 1 1 1 1 1 1
OA [%] 99,31 99,28 99,4 99,26 98,37 97,3 93,6
Ka
na
ły
po
dza
kre
su 4
H
kappa 0,99 0,99 0,99 0,99 0,98 0,96 0,91
Eliminowane:
podzakres i kanał
Hyperiona
3' H i 41 3'H i 42 3'H i 43 3'H i 44 3'H i 45 3'H i 46 3'H i 47
Liczba usuniętych
kanałów 7 7 7 7 7 7 7
OA' [%] 96,85 97,4 97,13 97,3 97,6 97,3 93,6
kappa 0,95 0,96 0,96 0,96 0,96 0,96 0,91
Po
dza
kre
s 3
'H
i k
an
ały
po
dza
kre
su
4H
Różnica (OA - OA') [%] 2,46 1,88 2,27 1,96 0,77 0 0
Wyniki testu dokładności klasyfikacji zestawów obrazów po usunięciu pojedynczych kanałów
były bardzo różne i wahały się od 99% do 93% ( Tab 49), w zależności od długości fali, w której były
rejestrowane. Okazuje się, że w przypadku usunięcia czterech pierwszych kanałów 41−44
uzyskano dokładność wynoszącą ponad 99%. Niewielki spadek wartości dokładności do 98%
można zaobserwować dla kanału 45 (872 nm). Dokładność zmniejszyła się także po usunięciu
następnego kanału nr 46 (882 nm) i wynosiła 97%. Natomiast po eliminacji ostatniego
z analizowanych kanałów, czyli kanału 47 (892 nm) dokładność klasyfikacji zmniejszyła się
o 6 punktów procentowych w stosunku do dokładności po wykluczeniu kanałów 41, 42, 43, 44
i wynosiła 93,6%.
Podsumowując dla przedziału 831 - 892 nm występuje następująca zależność im większa długość
fali eliminowanego z obliczeń kanału, tym mniejsza dokładność klasyfikacji ( Rys. 94). Tak więc,
w przypadku klasyfikacji wody najistotniejsze znaczenie ma zakres podczerwieni o długościach
powyżej 872nm.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
176
93
94
95
96
97
98
99
100
41 42 43 44 45 46 47
nr usuw anego kanału Hyperiona
dokł
adność
klas
yfik
acji
SA
M [%
]
1
2
Rys. 94. Dokładność klasyfikacji SAM dla dwóch wariantów eliminacji: 1) pojedyncze kanały podzakresu 4H
2) pojedyncze kanały podzakresu 4H łącznie z podzakresem 3’H.
Występuje jeszcze jedna zależność pomiędzy klasyfikacją a usuwanymi kanałami podzakresu
4H, związana z różnicą dokładności klasyfikacji dla obrazów, dla których wyeliminowano
pojedyncze kanały oraz obrazów, gdzie dodatkowo został usunięty podzakres 3’H. Otóż eliminując
z obrazu łącznie podzakres 3’H i poszczególne pojedyncze kanały, dla czterech pierwszych
obrazów uzyskujemy dokładność nieco pomniejszoną w stosunku do dokładności obrazu z jednym
usuniętym kanałem ( Rys. 94). Różnica dokładności wynosi od 2% - 2,5% (OA−OA’ - Tab 49).
W przypadku kanału 45 różnica zmniejsza się do 0,8%, natomiast dla ostatnich kanałów
46 i 47 spada do 0. Oznacza to, że bez występowania kanałów dla tych długości fal, nie ma
znaczenia czy istnieją jednocześnie kanały w zakresie czerwonym (699–750 nm). Główną rolę
informacyjną dla klasyfikacji SAM odgrywa odpowiedź spektralna w kanałach 46 i 47 (882 nm i 892
nm).
Kolejnym krokiem było powiększenie liczby eliminowanych z obrazu Hyperiona kanałów
poprzez grupowanie ich w odpowiednie zestawy kanałów. Wstępnie wszystkie 14 kanałów
podzakresu 4H zostało podzielone dwie grupy po 7 kanałów. Pierwsza z grup zawierała kanały
34 do 40 (760–831 nm), natomiast druga grupa obejmowała kanały od 41 do 47 (832–892 nm).
Taki podział dawał możliwość wskazania bardziej wrażliwego na usuwanie kanałów przedziału.
Ponieważ druga grupa prawie pokrywa się z podzakresem 4’’H (42−47 kanały Hyperiona),
przetestowano również wpływ rozdzielenia kanałów wewnątrz grupy. Przygotowane zostały obrazy,
w których usunięte zostały: w pierwszym 3 kanały (41−43) w drugim 4 kanały (44−47). Sprawdzone
zostały także dokładności w przypadku wyeliminowania jednakowej liczby 3 kanałów. W związku
z tym przygotowano obrazy, gdzie wyłączone zostały z obliczeń grupy kanałów: 44−46 oraz 45−47.
Dla obrazu z usuniętymi kanałami 34−40 (7 kanałów) otrzymano dokładność 94% ( Tab 50),
która jest równa dokładności obrazu, w którym wyeliminowany został podzakres 2H (8 kanałów)
(podrozdział 10.2.2 - Tab 47, Tab 48). Należy zauważyć, że w obydwu przypadkach usuwana była
podobna liczba kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
177
Tab 50. Dokładność klasyfikacji dla grup kanałów z podzakresu 4H wraz z podzakresem 3’H. Eliminowana
grupa kanałów 34 - 40 41- 47 41- 43 44 - 47 44 - 46 45 - 46 46 - 47 45 - 47
Zakres spektralny
[nm] 760-831 831-892 831-851 862-892 862-882 872-882 882-892 872-892
Liczba
usuniętych
kanałów
7 7 3 4 3 2 2 3
Overall Accuracy
(OA) [%] 93,98 80,52 98,02 85,38 94,49 95,39 89,97 86,93
kappa 0,91 0,73 0,97 0,80 0,92 0,93 0,86 0,82
Eliminowane:
podzakres i
grupa kanałów
3’H
(34 – 40)
3’H
(41- 47)
3’H
(41- 43)
3’H
(44 – 47)
3’H
(44 – 46)
3’H
(45 – 46)
3’H
(46 – 47)
3’H
(45 – 47)
Liczba
usuniętych
kanałów
13 13 9 10 9 8 8 9
Overall Accuracy
OA' 92,7 78,03 96,64 84,59 94,49 95,36 89,73 86,3
kappa 0,89 0,70 0,95 0,79 0,92 0,93 0,85 0,81 Różnica
(OA-OA') 1,28 2,49 1,38 0,79 0 0,03 0,24 0,63
Analogicznie zachowują się wartości dokładności klasyfikacji uzyskane dla tych obrazów (bez
grupy kanałów 34−40 i bez podzakresu 2H) po wyeliminowaniu dodatkowo podzakresu 3’H.
Zarówno dla pierwszego, jak i dla drugiego obrazu, dokładność klasyfikacji wynosiła około 93%.
Oznacza to, że pomimo zmniejszenia liczby kanałów, dokładność pozostała na dosyć wysokim
poziomie ponad 90%. Zatem, można stwierdzić, że w przypadku klasyfikacji SAM, zakres zielony
525–597nm (podzakres 2H) oraz zakres podczerwony 760−831 nm (kanały 34−40) są jednakowo
„niewrażliwe” na obecność lub brak informacji spektralnej z zakresu 699–750 nm (podzakres 3’H).
Dokładność klasyfikacji uzyskana dla obrazu po usunięciu kolejnej grupy siedmiu kanałów od 41 do
47 wynosiła 80% ( Tab 49, Tab 50). Spadek wartości dokładności o 14 punktów procentowych
w stosunku do omówionego wcześniej obrazu (bez kanałów 34−40) wyraźnie wskazuje, iż przedział
832–892 nm (kanały 41−47) ma dosyć istotny wpływ na wynik klasyfikacji. Analizując, ten przedział
fal w sposób bardziej szczegółowy, sprawdzona została dokładność obrazów powstałych przez
wyeliminowanie z niego dwóch grup kanałów. Były to obrazy po usunięciu zestawów 41–43
(3 kanały) oraz 44–47 (4 kanały). Dokładności, które dla nich uzyskano to odpowiednio 98% i 85%
( Tab 50). Pomimo różnicy tylko jednego kanału wartości dokładności znacznie odbiegają od siebie
(13 punktów procentowych), identyfikując zakres 862−892 nm jako kluczowy, jeżeli chodzi
o uzyskiwaną wartość dokładności klasyfikacji. Z uwagi na fakt, iż w przypadku eliminowania
pojedynczych kanałów z tego zakresu (kanały 44−47) dokładność klasyfikacji pozostawała na
poziomie 94 – 99% ( Tab 49), sprawdzono jaki poziom dokładności zostanie uzyskany dla obrazów
po eliminacji następujących grup kanałów: 44–46 (3 kanały), 45–46 (2 kanały), 46–47 (2 kanały),
45–47 (3 kanały). I tak, dla dwóch pierwszych obrazów otrzymano dokładność około 95%.
Natomiast w przypadku obrazów, dla których w zestawie usuwanych kanałów znajdował się kanał
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
178
47 (892 nm) dokładność klasyfikacji spadła poniżej 90% ( Tab 50). Można zatem stwierdzić, że na
dokładność klasyfikacji ma wpływ zakres spektralny a nie liczba kanałów.
Z analizy tabeli ( Tab 50) wynika, że grupy kanałów z zakresu 832 do 892 nm eliminowane
z obrazów samodzielnie lub wraz z podzakresem 3’H, dostarczają zestawów, dla których
dokładność klasyfikacji zmienia się w bardzo niewielkim stopniu (<1%). Podobną tendencję można
zaobserwować analizując różnicę dokładności w przypadku eliminacji pojedynczych kanałów ( Tab
49), gdzie również wyraźnie widać brak wpływu obecności/nieobecności podzakresu 3’H na
dokładność klasyfikacji po usunięciu poszczególnych kanałów. W przypadku usunięcia kanału
46 lub 47 obecność podzakresu 3’H nie ma żadnego znaczenia i różnica dokładności (OA−OA’)
wynosi 0 ( Tab 49). Podobna sytuacja występuje w przypadku obrazów, dla których eliminowane
były grupy kanałów z udziałem kanałów 46, 47, gdzie różnice dokładności oscylują wokół zera ( Tab
50).
10.2.3 Wyniki klasyfikacji po redukcji kanałów ALI
Dokładność klasyfikacji obrazów ALI po wyeliminowaniu pojedynczych kanałów
1’, 1, 2 wynosiła odpowiednio 90%, 92%, 91% ( Tab 51). Zatem, podobnie jak to miało miejsce
w przypadku redukowanych obrazów Hyperiona usuwanie kanałów z zakresów niebieskiego
i zielonego nie powoduje istotnego spadku dokładności klasyfikacji ( Tab 47). Średnia wartość
dokładności przy eliminacji omawianych kanałów wynosiła 91% (w przypadku Hyperiona 94%).
Zmianę można zaobserwować w sytuacji, gdy eliminowany z obliczeń został kanał 3 (czerwony).
Brak tego kanału (analogicznie do obrazu Hyperiona) powoduje znaczne obniżenie dokładności
klasyfikacji, która w tym przypadku wynosiła 82% (Hyperion - 87%) ( Tab 51, Tab 47). Analizując
wpływ wykluczenia kanałów zakresu podczerwonego można zauważyć analogie do wyników
uzyskanych w testowaniu obrazu Hyperiona (ALI − 2 kanały podczerwone, Hyperion − 14 kanałów
podczerwonych). W przypadku usunięcia pierwszego z kanałów pasma podczerwonego obrazu ALI
(kanału nr 4) dokładność klasyfikacji wynosiła 88% ( Tab 51) (w przypadku usunięcia
odpowiadających mu kanałów Hyperiona 93% - Tab 47). Po usunięciu z zestawu ALI drugiego
kanału podczerwonego uzyskano dokładność 77% (dla Hyperiona 82%). Różnica
dokładności wynosi w tym wypadku dla ALI 11 punktów procentowych, a dla Hyperiona
ponad 11 ( Tab 51, Tab 47).
Tab 51. Dokładności klasyfikacji dla symulowanego obrazu ALI po eliminacji poszczególnych kanałów lub zestawów kanałów.
Eliminowane kanały
1' 1 1,1' 2 3 4 4' 1',4 1,4 1,1',4 1',4' 1,4' 1,1',4' 4, 4'
OA [%] 90,10 92,10 75,81 91,48 81,65 88,14 76,58 84,5 88,47 68,70 70,17 76,88 62,80 34,81
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
179
30
40
50
60
70
80
90
100
1 1' 2 3 4 4' 1,1' 1',4 1',4' 1,4 1,4' 1,1',4 1,1',4' 4, 4'
Usuw ane kanały ALI
Dok
ładn
ość
klas
yfik
acji
SA
M [%
]
Rys. 95. Zależność dokładności klasyfikacji SAM od eliminowanych kanałów obrazu ALI.
W przypadku usunięcia z obrazu ALI dwóch kanałów niebieskich (1, 1’) dokładność klasyfikacji
jaką uzyskano wynosi 76% ( Tab 51), czyli prawie tyle ile otrzymano dla obrazu po eliminacji kanału
podczerwonego (kanał 4’), (dla Hyperiona 84%). Łączne usunięcie kanałów z zakresu niebieskiego
i podczerwonego powoduje dość duży spadek wartości dokładności klasyfikacji w zależności od
kombinacji eliminowanych kanałów. I tak, w sytuacji, gdy usuwany jest kanał niebieski (1’) łącznie
z kanałem podczerwonym (4), a następnie ponownie kanał 1’ z kanałem 4’ uzyskano dokładności:
85% i 70% (dla Hyperiona 94% i 79%) ( Tab 51, Tab 47). W przypadku wykluczenia kanału
niebieskiego 1 z kanałami podczerwonymi 4 i 4’ otrzymano odpowiednio: 88% i 77%(dla Hyperiona
96% i 83%) ( Tab 51, Tab 47). Kolejna kombinacja kanałów, którą wyeliminowano z obrazu
zawierała kanały 4 i 4’ czyli cały zakres podczerwony ALI. Dokładność jaką uzyskano dla
przygotowanego obrazu wynosiła tylko 35% (dla Hyperiona 56%) ( Tab 51, Tab 47). W przypadku
eliminacji kombinacji 3-kanałowych: 1, 1’, 4 i 1, 1’, 4, gdzie uwzględnione zostały obydwa kanały
niebieskie (1, 1’) i na przemian kanały podczerwone (4 i 4’ ), otrzymano również znacznie obniżone
dokładności klasyfikacji wynoszące odpowiednio 69% i 63% (dla Hyperiona 85% i 75%) ( Tab 51,
Tab 47). Zaznacza się wyraźna tendencja spadku dokładności klasyfikacji w przypadku usuwania
z całego zestawu kanałów wykorzystanych w klasyfikacji kanałów z zakresu podczerwonego. We
wszystkich przypadkach dokładność klasyfikacji obrazu ALI ulegała znacznemu obniżeniu z 76%
w sytuacji usunięcia tylko kanału 4’, do 35% po wyeliminowaniu obydwu kanałów
podczerwonych 4 i 4’. Różnica między tymi dokładnościami jest znacząca i wynosi 41 punktów
procentowych ( Tab 51).
W tabeli ( Tab 52) zamieszczono zestawienie wartości dokładności całkowitej oraz
współczynnika kappa uzyskane dla wszystkich obrazów symulowanych (ALI, Aster, Landsat, Spot)
klasyfikowanych metodą SAM. W klasyfikacji brały udział jedynie kanały z zakresu VNIR.
Najwyższą dokładność 97% uzyskano dla obrazu ALI (6 kanałów), najniższą 57% dla obrazu Spota
(3 kanały). Natomiast Aster (3 kanały) i Landsat (4kanały) zostały sklasyfikowane z dokładnością
całkowitą 83% i 64%.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
180
Wartości dokładności całkowitej uzyskane w klasyfikacji SAM, wykonanej dla obrazów ALI po
wyeliminowaniu zestawów kanałów: 1’, 4’ oraz 1, 1’, 4’, zaprezentowano w tabelach odpowiednio
( Tab 53) i ( Tab 54). Redukowane obrazy ALI posiadały konfigurację kanałów zgodną z konfiguracją
obrazów Landsat, Aster i Spot (w zakresie VNIR). W tabeli ( Tab 54) zamieszczono również wartość
dokładności klasyfikacji obliczoną dla obrazu Landsata z wyeliminowanym kanałem niebieskim
(LAN (3)) oraz dokładności symulowanych obrazów Aster i Spot. W ten sposób uzyskano tabelę
porównawczą dokładności z zestawem 3 kanałów z zakresu: zielonego, czerwonego,
podczerwonego ( Tab 54).
W przypadku konfiguracji obrazu ALI, który symulował Landsata (eliminowane kanały 1’, 4’)
( Tab 53) uzyskana wartość dokładności klasyfikacji wynosiła 70%, a więc o 6 punktów
procentowych wyższa niż otrzymana dokładność dla Landsata (64%). Natomiast dokładności
klasyfikacji dla redukowanych obrazów ALI z konfiguracją kanałów charakterystyczną dla sensorów
Landsat, Spot, Aster w zakresie VNIR, znacznie różnią się od dokładności klasyfikacji uzyskanych
dla tych obrazów ( Tab 54). Uzyskane wartości dokładności oscylowały w granicach od 33%
(Landsat) i do 83% (Aster). Dla obrazu ALI dokładność całkowita wynosiła 63%, natomiast dla
symulowanego Spota 57%. Zaskakująco wysoką dokładność klasyfikacji w stosunku do
dokładności pozostałych obrazów uzyskano dla Astera (83%). Największą niezgodność
dokładności klasyfikacji uzyskano w stosunku do dokładności redukowanego ALI (63%) ( Tab 54).
Różnica wynosiła aż 20 punktów procentowych. Należy podkreślić, że pomiędzy redukowanym
obrazem ALI, a obrazem Astera nie występowała różnica w liczbie kanałów. W obydwu obrazach
do obliczeń wykorzystywane były 3 kanały. Analiza rozdzielczości spektralnej poszczególnych
kanałów ( Tab 55) wykazała, iż kanał zielony i czerwony posiadają identyczną charakterystykę
spektralną odpowiednio 80nm i 60nm. Różnice występują tylko w rozdzielczości spektralnej kanału
podczerwonego. Zatem, ten duży spadek dokładności klasyfikacji dla ALI jest związany z różnicą
w przedziale spektralnym, w jakim jest rejestrowane promieniowanie elektromagnetyczne zakresu
podczerwonego sensora ALI (775–805 nm) i sensora Aster (780–860 nm) ( Rys. 96). Przy czym,
należy podkreślić, że w tej konfiguracji ALI zawiera tylko 1 kanał podczerwony (kanał 4). Tak, więc
informacja spektralna z zakresu podczerwonego została znacznie zredukowana, co skutkuje
spadkiem dokładności klasyfikacji. Jeszcze większą różnicę dokładności (50%) dla obrazów
3 kanałowych (zielony, czerwony, podczerwony) zanotowano dla redukowanego obrazu Landsata
i dla obrazu Astera ( Tab 55). W tym przypadku, powodem tak dużego spadku dokładności jest
rozdzielczość kanału podczerwonego obrazu Landsata (140 nm) ( Tab 55, Rys. 96).
Tab 52. Dokładności klasyfikacji SAM dla obrazów z kompletem kanałów w zakresie VNIR. Obraz (liczba kanałów sensora w
zakresie VNIR)
Dokładność klasyfikacji
ALI (6) LAN (4) SPOT (3) ASTER (3)
OA [%] 92,7 64,1 57,0 83,0
kappa 0,89 0,52 0,45 0,75
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
181
Tab 53. Dokładności klasyfikacji SAM dla obrazu Landsata z kanałami zakresu VNIR i dla zredukowanego obrazu ALI z kanałami charakterystycznymi dla Landsata (zakres VNIR).
Sensor (liczba kanałów) ALI (4) LAN (4)
Eliminowane kanały
Dokładność klasyfikacji 1’,4’ -
OA [%] 70,17 64,1
kappa 0,61 0,52
Tab 54. Dokładności klasyfikacji SAM dla obrazów z kanałami zielonym, czerwonym i podczerwonym (3 kanały).
Sensor (liczba kanałów) ALI (3) LAN (3) SPOT (3) ASTER (3)
Eliminowane kanały
Dokładność klasyfikacji 1,1’,4’ 1 - -
OA [%] 62,8 33,5 57,0 83,0
kappa 0,52 0,26 0,45 0,75
Tab 55. Rozdzielczość spektralna kanałów zielonego, czerwonego i podczerwonego dla obrazów z sensorów ALI, Landsat, Spot, Aster.
Rozdzielczość spektralna [nm]
Kanał ALI (3) LAN (3) SPOT (3) ASTER (3)
Zielony 80 80 90 80
Czerwony 60 60 70 60
Podczerwony 30 140 100 80
20
40
60
80
100
120
140
ALI(3) LAN(3) SPOT(3) ASTER(3)
rozd
ziel
czość
spek
tral
na [n
m]
0
10
20
30
40
50
60
70
80
90
dokł
adność
cał
kow
ita O
A [%
]
zielony czerw ony podczerw ony OA
Rys. 96. Rozdzielczość spektralna w zakresie VNIR dla sensorów ALI, Landsat, Spot, Aster oraz dokładność całkowita (OA)
uzyskana w metodzie SAM.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
182
Na podstawie przeprowadzonych symulacji i redukcji można stwierdzić, iż na dokładność
klasyfikacji obok liczby kanałów bardzo duży wpływ ma obecność zarejestrowanego sygnału
w danym zakresie spektralnym. Wyraźnie zaznacza się to dla fal pasma niebieskiego
i podczerwonego. Okazuje się, że w przypadku wody obecność odpowiedzi spektralnej w zakresie
podczerwonym obrazu ALI, podobnie jak w przypadku Hyperiona, ma ogromny wpływ na wynik
klasyfikacji. Próba wyeliminowania kanału podczerwonego (kanał 4) zakończyła się znacznym
obniżeniem dokładności klasyfikacji do 76%, a przy usunięciu obydwu kanałów podczerwonych
(4 i 4’) aż do 35%. W zakresie podczerwonym woda charakteryzuje się całkowitym pochłanianiem
padającego promieniowania elektromagnetycznego. Jeżeli w zakresie tym rejestrowane jest odbicie
spektralne, to jest ono związane z wpływem atmosfery lub musi pochodzić od cząstek i materii
znajdujących się w wodzie (Koponen i in., 2002). Odnosząc się do wyników badań prowadzonych
na oryginalnych danych ALI (obrazie zarejestrowanym razem z analizowanym w tej pracy obrazem
Hyperiona) (Mularz i in., 2006), należy stwierdzić, że za tak ogromny wpływ na wyniki klasyfikacji
wód Zbiornika Dobczyckiego, są odpowiedzialne właściwości spektralne wody. Autorzy
wspomnianych badań wykazują, iż według zastosowanych wskaźników kompozycji barwnych OIF
(Optimum Index Factor) i MOIK, najlepszy zestaw danych do analizy wód zbiornika stanowią kanały
niebieskie (1, 1’), kanał czerwony (3) oraz kanały podczerwone (4, 4’). Zastrzegają jednak, że
kanały podczerwone znajdują się w tym zestawie ze względu rejestrację zakłóceń typu
zadymienia/zamglenia. W prezentowanych w niniejszej pracy testach i analizach wykorzystano
obraz, który został poddany poprawnej korekcji atmosferycznej na podstawie krzywych
pomierzonych in situ, nie zawierających zakłóceń atmosferycznych. Zatem, należy przypuszczać,
że zarejestrowane dla obrazów Hyperion i ALI kanały podczerwone niosą w sobie informację
spektralną związaną z właściwościami spektralnymi wody, które są charakterystyczne dla tego
zbiornika.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
183
11. Podsumowanie i wnioski
W niniejszej pracy podjęto próbę porównania metod przetwarzania danych hiperspektralnych
o różnej rozdzielczości spektralnej. Analiza porównawcza nakierowana była, zarówno na zakres
spektralny (rozpiętość długości fali, dla których rejestrowana jest informacja spektralna), jak i na
zasięg spektralny danych (liczba kanałów rejestrujących odpowiedź spektralną). Do celów
realizacji zadań badawczych wykorzystano dane hiperspektralne zarejestrowane przez satelitarny
sensor hiperspektralny Hyperion (pracujący w zakresach VNIR i SWIR). Na podstawie kanałów
Hyperiona w wyniku przeprowadzenia operacji selekcji, transformacji i symulacji uzyskano obrazy
pochodne o zróżnicowanej rozdzielczości, które posłużyły jako obrazy testowe do przeprowadzenia
klasyfikacji tematycznej. Wyniki porównania dokładności klasyfikacji dla różnych typów odpowiedzi
spektralnej (obrazy z różnych sensorów) stanowią wiarygodne źródło informacji na temat potencjału
informacyjnego poszczególnych kanałów z uwagi na fakt, że obrazy wykorzystane do klasyfikacji
były rezultatem symulacji z danych Hyperiona. W związku z powyższym, wszystkie poddane
analizie obrazy miały identyczne parametry, które ewentualnie mogły mieć wpływ na dokładność
porównania.
W pracy przedstawiono szczegółowe wprowadzenie teoretyczne do wszystkich metod
zastosowanych do przetwarzania danych hiperspektralnych Hyperiona. Są to metody, niezbędne
podczas przygotowania i opracowania obrazów o zwiększonej rozdzielczości spektralnej. Ta część
pracy została przygotowana ze względu na małą liczbę publikacji w języku polskim, które opisują
i przedstawiają dogłębnie zagadnienia związane z wykorzystaniem i przetwarzaniem danych
hiperspektralnych. W opisie metodyki szczególną uwagę zwrócono na etap przygotowania obrazów
do analizy tematycznej czyli na etap przetwarzania wstępnego.
Podsumowując wyniki uzyskane w klasyfikacji metodami tradycyjnymi można zauważyć pewne
zależności, jeżeli chodzi o dokładność całkowitą i zestaw kanałów wykorzystanych do klasyfikacji.
W przypadku obrazów uzyskanych po selekcji zdecydowanie najlepsz ą metod ą klasyfikacji jest
metoda Maximum Likelihood . Analizując wartość dokładności całkowitej, uzyskanej dla obrazów
począwszy od źródłowego Hyperiona (174 kanały) do obrazu liczącego 11 kanałów (H11), można
zaobserwować tendencję wzrostową dokładności całkowitej (z 57% do 71%) ( Rys. 97). Tak, więc,
dokładno ść całkowita klasyfikacji ML jest odwrotnie proporcjo nalna do liczby kanałów
klasyfikowanych obrazów. Dla obrazów składaj ących si ę z kanałów o liczbie mniejszej ni ż
11 zależność ta ulega zmianie i dokładno ść całkowita klasyfikacji jest wprost proporcjonalna
do liczby kanałów.
Klasyfikacja tej samej serii obrazów metodą Minimum Distance powoduje uzyskanie
dokładności całkowitej na jednakowym poziomie 61% dla wszystkich klasyfikowanych obrazów
(za wyjątkiem H10 z OA = 57%). Zatem, w przypadku obrazów poddanych selekcji mo żna
stwierdzi ć, że metoda MD nie jest czuła na liczb ę kanałów u żytych do klasyfikacji.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
184
30
35
40
45
50
55
60
65
70
ML MD MhD
dokł
adność
cał
kow
ita [%
]
174 87 44 22 20 18 16 14 12 11 10 6
Rys. 97. Zależność wartości dokładności całkowitej klasyfikacji od liczby kanałów uzyskanych po selekcji I i II klasyfikowanych
metodami tradycyjnymi (ML, MD, MhD).
Na podstawie przeprowadzonych testów można stwierdzić, iż metoda Mahalanobis Distance
nie naddaje si ę do klasyfikacji obrazów o liczbie kanałów wi ększej ni ż 16 i mniejszej ni ż 10.
Dokładność klasyfikacji osiąga, bowiem wartości poniżej 52% (obrazy z dużą liczbą kanałów)
i poniżej 38% (liczba kanałów <10). Należy zaznaczyć, iż analiza dotyczyła dokładności klasyfikacji
obrazów, dla których nie rozpatrywano wpływu zakresów długości fali poszczególnych kanałów,
lecz liczbę kanałów biorących udział w klasyfikacji.
Podobne założenia przyjęto dla obrazów poddanych redukcji kanałów za pomocą transformacji
PCA (Principial Components Analysis) i MNF (Minimum Noise Fraction). Dla serii obrazów
transformowanych najwyższe dokładności klasyfikacji również uzyskano po zastosowaniu metody
ML. Przy czym, wartości dokładności równej lub wyższej niż 70% zanotowano dla obrazu
zawierającego 10 pierwszych składowych PCA ( Rys. 98a) oraz dla wszystkich obrazów MNF
(3MNF, 5MNF, 10MNF, 50MNF) ( Rys. 98b). Porównanie wyników dokładności klasyfikacji ML dla
obrazów PCA i MNF wskazuje, iż obrazy po transformacji MNF klasyfikowane s ą z lepsz ą
dokładno ścią niż obrazy po transformacji PCA (różnice wynoszą 6 - 8%). Zależność ta dotyczy
także dokładności testowych obrazów poddanych transformacji odwrotnej PCA i MNF, gdzie
różnica w wartości dokładności całkowitej wynosiła aż 23%. Warto wspomnieć również, iż
dokładno ść transformowanego obrazu MNF (H_inv_10MNF) wzrosła (o 2%) w stosunku do
dokładno ści obrazu źródłowego, co argumentuje zasadno ść transformowania danych za
pomoc ą metody MNF - obraz po transformacji odwrotnej PCA uzyskał dokładność prawie o
połowę niższą niż źródłowy obraz Hyperiona. Wniosek ten, jest oparty jednak tylko na podstawie
wyniku transformacji odwrotnej przeprowadzonej dla 10 kanałów PCA i MNF. Zatem, dla
potwierdzenia powyższych rozważań planowane są dodatkowe badania, mające na celu
sprawdzenie zmian dokładności obrazów w zależności od liczby składowych wykorzystanych do
transformacji odwrotnej PCA i MNF.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
185
Analiza wyników klasyfikacji obrazów PCA metodą MD wskazuje na brak zależności pomiędzy
liczbą klasyfikowanych składowych, a uzyskiwaną dokładnością całkowitą klasyfikacji (OA = 62%
dla wszystkich obrazów PCA). Natomiast dla obrazów MNF stwierdzono tendencję obniżania
wartości dokładności całkowitej wraz ze wzrostem liczby kanałów MNF. Przy czym, istotne jest, iż
dokładności te są niższe od dokładności uzyskanej dla źródłowego Hyperiona (o 9 - 16%). Można
sformułować tezę, iż transformacja PCA nie powoduje podwy ższenia dokładno ści całkowitej
obrazów klasyfikowanych metod ą MD, natomiast transformacja MNF skutkuje obni żeniem
dokładno ści całkowitej klasyfikacji MD.
0
10
20
30
40
50
60
70
80
ML MD MhD
dokł
adność
cał
kow
ita [
%] Hyperion
50PCA
10PCA
6PCA
5PCA
3PCA
H_inv_10PCA
0
10
20
30
40
50
60
70
80
ML MD MhD
dokł
adność
cał
kow
ita [%
] Hyperion
50MNF
10MNF
6MNF
5MNF
3MNF
H_inv_10MNF
Rys. 98. Zależność wartości dokładności całkowitej klasyfikacji od liczby kanałów obrazów uzyskanych po transformacji metodą
a) PCA, b) MNF klasyfikowanych metodami tradycyjnymi (ML, MD, MhD).
Najni ższe warto ści dokładno ści klasyfikacji dla obrazów transformowanych uzyska no
dla metody MhD. Dla obrazów PCA dokładno ść całkowita mie ściła si ę w przedziale 35 - 56%.
Natomiast dla obrazów po transformacji MNF warto ść dokładno ści spadła do poziomu 26 -
36%. Istotne jest to, że w obydwu przypadkach najniższą dokładność uzyskały obrazy zawierające
pierwsze składowe PCA i MNF (3, 5, 6 kanałów). Natomiast, wyniki klasyfikacji obrazów
o największej liczbie kanałów (50PCA/MNF), dostarczyły zafałszowanej informacji tematycznej
(strefowość klas, błędne klastry). Dzieje się tak, pomimo uzyskania wyższych wartości dokładności
(52%/36%) w stosunku do pozostałych klasyfikowanych zestawów danych.
W przypadku obrazu złożonego z 10 kanałów (PCA i MNF) można zaobserwować pewną
prawidłowość. Polega ona na podwyższeniu dokładności całkowitej w stosunku do obrazów
o mniejszej liczbie kanałów transformowanych oraz na „przeniesieniu” wartości dokładności
całkowitej na obraz po transformacji odwrotnej (PCA, MNF) opartej na 10 kanałach. Na podstawie
przedstawionych wyników, można przypuszczać, iż dokładno ść klasyfikacji metod ą MhD,
uzyskana dla 10 pierwszych składowych PCA/MNF jest równa dokładno ści całkowitej
klasyfikacji dla obrazu hiperspektralnego po transf ormacji odwrotnej PCA/MNF . Dodatkowo,
obraz po transformacji odwrotnej PCA uzyskuje dokładność o 3% wyższą niż obrazu źródłowego
Hyperiona. Występuje, zatem, analogia do wyników uzyskanych dla obrazów MNF,
klasyfikowanych metodą ML. Przy czym, w tym wypadku bardzo niski poziom otrzymanej
dokładności (56%), niejako wyklucza stosowanie metody MhD w celach ekstrakcji informacji.
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
186
Na podstawie wyników dokładno ści uzyskanych dla obrazów po redukcji, wyra źnie
zaznacza si ę rola obrazów z liczb ą kanałów 10 (transformacja - Rys. 98) i liczb ą 11 (selekcja -
Rys. 97).
Dokładność klasyfikacji dla obrazów symulowanych wykazuje dużą analogię do tej uzyskanej
dla obrazów redukowanych, zwłaszcza, jeżeli chodzi o wyniki otrzymane dla poszczególnych
metod. Należy zaznaczyć, że dla tej grupy obrazów obok liczby kanałów (zasięg spektralny) bardzo
ważnym aspektem porównawczym była rozdzielczość spektralna oraz zakres spektralny dla
kanałów tworzących obrazy testowe (ALI, Aster, Landsat, Spot). Dla przypomnienia:
- obrazy po symulacji I, posiadały zasięg spektralny (liczba kanałów 45−95) i rozdzielczość
spektralną (około 10nm) charakterystyczne dla obrazów hiperspektralnych,
- obrazy po symulacji II posiadały zasięg spektralny (liczba kanałów 4−9) typowy dla obrazów
wielospektralnych, natomiast rozdzielczość spektralną (około 10nm) właściwą obrazom
hiperspektralnym
- obrazy po symulacji SRF charakteryzowały się zasięgiem i rozdzielczością spektralną typową
dla obrazów wielospektralnych.
Najwyższe wartości dokładności całkowitej (65 - 71%) uzyskano dla metody ML, natomiast
najniższe (43 - 59%) dla klasyfikatora MhD. Różnica pomiędzy wartością dokładności uzyskaną
metodami ML i MhD wynosiła około 20%. Dla metody MD, podobnie jak w przypadku obrazów po
redukcji otrzymano bardzo jednorodne wyniki dokładności na poziomie 57 - 62%.
Po porównaniu dokładności całkowitej obrazów symulowanych klasyfikowanych metodą ML,
można stwierdzić, że każdy zestaw obrazów symulowanych uzyskał zróżnicowane wyniki
w zależności od liczby kanałów i charakterystyki spektralnej obrazu. Najbardziej jednorodne
warto ści dokładno ści (69%) otrzymano dla obrazów z konfiguracj ą uzyskan ą w symulacji II.
Natomiast dla obrazów po symulacji I uzyskano dokładność niższą o 2% (Aster) i 4% (ALI, Landsat)
oraz wyższą o 2% dla obrazu Spota. W przypadku obrazów ALI, Aster, Spot uzyskanych
w symulacji SRF, zaobserwowano tendencj ę obni żania dokładno ści klasyfikacji (z 70% do
66%) wraz ze zmniejszeniem liczby kanałów. Wyjątek stanowił Landsat, dla którego uzyskano
dokładność 71%.
W oparciu o te wyniki można stwierdzić, że głównym czynnikiem wpływaj ącym na
dokładno ść całkowit ą klasyfikacji metod ą ML jest charakterystyka spektralna (rozdzielczo ść
spektralna i długo ść rejestrowanej fali elektromagnetycznej), natomiast zasięg spektralny
może dodatkowo poprawi ć parametry dokładno ściowe klasyfikacji.
Najbardziej stabiln ą, okazała si ę konfiguracja obrazów po symulacja II, charakteryzu jąca
się bardzo dobr ą rozdzielczo ścią spektraln ą i słabym zasi ęgiem spektralnym (4 - 9 kanałów).
Warto zaznaczyć, iż dokładności uzyskane dla wszystkich obrazów symulowanych
w klasyfikacji ML (tak że te po symulacji I), s ą zdecydowanie wy ższe (o 10 - 14%) od
dokładno ści, jak ą otrzymano dla źródłowego obrazu Hyperiona (174 kanały) ( Rys. 99).
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
187
Natomiast odwrotną prawidłowość zaobserwowano dla wartości dokładności uzyskiwanych
w metodzie MD, dla której obrazy symulowane zostały sklasyfikowane na takim samym poziomie
dokładności 62% lub z dokładnością niższą o 2 - 4%. Generalnie, wyniki uzyskane dla metody
MD (niemal identyczne dla ka żdej badanej konfiguracji obrazów), wskazuj ą, iż na dokładno ść
klasyfikacji obrazów symulowanych t ą metod ą nie ma wpływu żaden z rozpatrywanych
czynników.
40
45
50
55
60
65
70
ML_SI ML_SII ML_SRF MD_SI MD_SII MD_SRF MhD_SI MhD_SII MhD_SRF
dokł
adn
ość
całk
ow
ita [%
]
ALI
Aster
Landsat
Spot
Hyperion
Rys. 99. Zależność wartości dokładności całkowitej klasyfikacji od liczby kanałów obrazów uzyskanych po symulacji (SI – symulacja
I, SII – symulacja II, SRF – symulacja SRF), klasyfikowanych metodami tradycyjnymi (ML, MD, MhD).
Analiza wyników uzyskanych dla klasyfikatora MhD wykazała, iż dla obrazów po symulacji II
i SRF występuje duża zależność wartości dokładności klasyfikacji od zakresu spektralnego, dla
którego rejestrowane są kanały obrazów. Związane jest to głównie z obecnością lub brakiem
kanałów w zakresie niebieskim. Symulowane obrazy ALI i Landsat, posiadające kanały w paśmie
niebieskim uzyskały bardzo słabe dokładności klasyfikacji zarówno po symulacji II (<45%), jak i po
symulacji SRF (<51%). Natomiast obrazy Aster i Spot (bez kanału niebieskiego) uzyskały
dokładność klasyfikacji zbliżoną do 60%. Na warto ść dokładno ści klasyfikacji metod ą MhD
wpływa równie ż rozdzielczo ść spektralna kanałów. Jednak że zaznacza si ę to w du żo
mniejszym stopniu (ró żnice dokładno ści wynosz ą 1 - 5%) niż obecno ść informacji
spektralnej w zakresie niebieskim . W przypadku konfiguracji hiperspektralnej (symulacja I) dla
obrazu ALI o największym zasięgu spektralnym (95 kanałów) uzyskano najniższą wartość
dokładności całkowitej (50%). Natomiast dla pozostałych obrazów uzyskana dokładność
pozostawała na bardzo zbliżonym poziomie (średnio 54%). Wynik ten mo że wskazywa ć, iż
w przypadku metody MhD liczba kanałów oraz ich char akterystyka spektralna nie ma
wpływu na dokładno ść całkowit ą obrazów po symulacji I.
Wyniki klasyfikacji metodami podpikelowymi LSU i MF są bardzo zróżnicowane w zależności
od konfiguracji zestawu obrazów poddanych klasyfikacji oraz zestawu krzywych wykorzystanych
jako dane referencyjne. Dla większej części obrazów, użycie krzywych wzorcowych uzyskanych
w procedurze PPI (wariant II), spowodowało podniesienie wartości całkowitego współczynnika
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
188
poprawności klasyfikacji CC. Wyjątek stanowiły wyniki uzyskane dla obrazów po symulacji II,
klasyfikowane metodą MF, gdzie współczynnik CC uległ obniżeniu (7 - 18%).
0
10
20
30
40
50
60
70
80
90
LSU MF
wsp
ółcz
ynni
k C
C [%
]
0
10
20
30
40
50
60
70
80
90
LSU MF
174
H87
H44
H22
H20
H18
H16
H14
H12
H11
H10
H6
Rys. 100. Zależność wartości całkowitego współczynnika poprawności klasyfikacji CC od liczby kanałów obrazów uzyskanych po
selekcji I i II, klasyfikowanych metodami podpikselowymi (LSU, MF) – a) wariant I (WI), b) wariant II (WII).
Analizując wyniki otrzymane dla obrazów po selekcji ( Rys. 100), można stwierdzić, że
zdecydowanie najlepszą dokładność uzyskano dla metody LSU. Dla obrazów z liczbą kanałów
większą od 10 uzyskane wartości współczynnika CC są bardzo jednorodne i wynoszą średnio 81%
(WI i WII). Natomiast dla obrazów liczących 6 i 10 kanałów dokładność uległa obniżeniu o ponad
40% dla wariantu I i o 20% dla wariantu II. Można, zatem stwierdzić, że przy tego rodzaju redukcji
danych (brak uwzgl ędnienia zakresu spektralnego redukowanych kanałów), metoda LSU
wykorzystuj ąca krzywe wzorcowe WI nie naddaje si ę do klasyfikacji obrazów o liczbie
kanałów mniejszej b ądź równej 10.
W przypadku zastosowania metody MF, uzyskano wartości współczynnika CC odwrotnie
proporcjonalne do liczby klasyfikowanych kanałów. Wzrost wartości współczynnika ma charakter
skokowy ( Rys. 100) dla następujących grup obrazów H87−H44, H22−H18, H16−H6. Przy czym,
znaczne podwyższenie dokładności (o 14% - WI i 11% - WII) zaobserwowano dla obrazów z liczbą
kanałów większą od 16. Biorąc pod uwagę uzyskane wyniki, można stwierdzić, że im mniejsza
liczba kanałów obrazu, tym lepszy wynik klasyfikacj i metod ą MF.
Wartości współczynnika CC uzyskane dla obrazów po transformacji MNF klasyfikowanych
metodą LSU, charakteryzowały się dużymi wahaniami od 38% do 70% (WI) i od 9% do 66% (WII)
( Rys. 101). Dokładno ść klasyfikacji była silnie zale żna od liczby kanałów MNF bior ących
udział w klasyfikacji. W obydwu wariantach najwyższą dokładność (70% - WI, 62% - WII)
uzyskano dla najmniejszej liczby kanałów - obraz 3MNF. Zwiększenie liczby składowych MNF
powodowało spadek dokładności o 20 - 30% (WI) i o 10 - 50% (WII). Tak więc, klasyfikacja
obrazów po transformacji MNF jest uzasadniona tylko dla obrazów zawieraj ących trzy
pierwsze kanały MNF . W wyniku klasyfikacji LSU obrazów po transformacji odwrotnej MNF, dla
różnych zestawów krzywych wzorcowych uzyskano rozbieżne wyniki. W wariancie I (krzywe
generowane z pól treningowych) otrzymano dokładność najniższą w stosunku do wszystkich
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
189
obrazów transformowanych i o 42% niższą od współczynnika CC źródłowego Hyperiona. Natomiast
w wariancie II (krzywe generowane w procedurze PPI) uzyskana wartość współczynnika CC była
najwyższą spośród otrzymanych obrazów MNF i o 14% niższa od dokładności Hyperiona. Dlatego
też, przeprowadzenie transformacji odwrotnej MNF dla 10 kanałów w celu poprawy jako ści
klasyfikacji LSU, mo żna uznać za bezzasadne . Niemniej jednak, wskazane jest przeprowadzenie
testów polegających na transformacji odwrotnej dla mniejszej liczby kanałów MNF ( np. dla 3, 4, 5)
i klasyfikacji uzyskanego w ten sposób obrazu.
0
10
20
30
40
50
60
70
80
90
LSU MF
wsp
ółcz
ynni
k C
C [%
]
LSU MF
Hyperion
50MNF
10MNF
6MNF
5MNF
3MNF
H_inv_10MNF
Rys. 101. Zależność wartości całkowitego współczynnika poprawności klasyfikacji CC od liczby kanałów obrazów uzyskanych po
transformacji metodą MNF, klasyfikowanych metodami podpikselowymi (LSU, MF)
a) wariant I (WI), b) wariant II (WII).
Wyniki uzyskane po przeprowadzeniu klasyfikacji metodą MF były znacznie bardziej
jednorodne. Wartość współczynnika CC oscylowała w granicach 48 - 64% (WI) i 58 - 70%(WII)
( Rys. 101). Stwierdzono odwrotn ą tendencj ę w stosunku do wyników metody LSU,
a mianowicie obraz o najni ższej liczbie kanałów (3MNF) uzyskał najni ższą warto ść
współczynnika CC (48% - WI i 58% - WII). Dla pozostałych obrazów wartość współczynnika CC
w wariancie II była wyższa, zarówno od dokładności źródłowego Hyperiona (60%), jak i od
dokładności obrazu po transformacji odwrotnej (55%).
Porównanie dokładności dla obrazów symulowanych uzyskanych w klasyfikacji podpikselowej
wskazuje, iż współczynnik CC dla metody LSU jest wyższy od dokładności MF i to zarówno
w wariancie I, jak i wariancie II ( Rys. 102). Różnice wynoszą od 4% (SII) do 29% (SI).
Najbardziej jednorodne wartości współczynnika poprawności klasyfikacji CC uzyskano dla
obrazów o konfiguracji hiperspektralnej - dokładność na poziomie 79%. Najwyższy współczynnik
CC dla symulowanego Spota (45 kanałów) wynosił 84%. Równie wysokie wartości współczynnika
CC uzyskano dla obrazów po symulacji II. Przy czym, stwierdzono wyra źną tendencj ę wzrostu
dokładno ści wraz ze spadkiem liczby kanałów w obrazie. Współczynnik CC dla obrazu ALI
(9 kanałów) osiągnął wartość 74% (WI) i 79% (WII), natomiast dla Spota (4 kanały) wartość
współczynnika wzrosła aż 95% (WI i WII). Należy zaznaczy ć, że jest to najlepsza dokładno ść,
jaką otrzymano w ramach prezentowanych bada ń. Wyniki dla obrazów symulowanych metodą
SRF są bardzo zbliżone do dokładności otrzymanych dla obrazów po symulacji II (79 - 95%), za
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
190
wyjątkiem współczynnika uzyskanego dla obrazu Landsata (53% - WI, 66% - WII). Tak znaczny
spadek dokładno ści w stosunku do dokładno ści pozostałych obrazów oraz w stosunku do
konfiguracji symulacji II, świadczy o du żym wpływie rozdzielczo ści spektralnej na
dokładno ść całkowit ą klasyfikacji LSU ( Rys. 102). Sensor Landsat posiada kanały o najsłabszej
rozdzielczości spektralnej (65 - 140 nm), co prawdopodobnie spowodowało tak duże obniżenie
dokładności (27% - WI, 15% - WII). Dlatego wydaje się zasadne przeprowadzenie kolejnych badań
mających na celu sprawdzenie szerokości zakresów spektralnych poszczególnych kanałów, dla
których dokładność klasyfikacji osiąga maksymalną wartość.
0
10
20
30
40
50
60
70
80
90
100
LSU_SI LSU_SII LSU_SRF MF_SI MF_SII MF_SRF
wsp
ółcz
ynni
k C
C [%
]
0
10
20
30
40
50
60
70
80
90
100
LSU_SI LSU_SII LSU_SRF MF_SI MF_SII MF_SRF
ALI
Aster
Landsat
Spot
Hy perion
Rys. 102. Zależność wartości całkowitego współczynnika poprawności klasyfikacji CC od liczby kanałów obrazów uzyskanych po
symulacji (SI – symulacja I, SII – symulacja II, symulacja SRF), klasyfikowanych metodami podpikselowymi (LSU, MF)
a) wariant I (WI), b) wariant II (WII).
W przypadku klasyfikacji metodą MF paradoksalnie najniższą dokładność (około 53%)
uzyskano dla konfiguracji charakterystycznej dla obrazów hiperspektralnych. Natomiast dla
obrazów z konfiguracją typową dla danych wielospektralnych (symulacja II i SRF), otrzymano
znaczne podwyższenie wartości współczynnika CC nawet do 76%. Przy czym, lepsze wyniki
(o 4−18%) uzyskano w klasyfikacji wykorzystującej krzywe wzorcowe wariantu II.
Obrazy po symulacji II uzyskały dokładności na zbliżonym poziomie 75% dla wariantu I.
Wykorzystanie innego zestawu krzywych referencyjnych (wariant II) spowodowało spadek
dokładności do 67%, a dla obrazu Spot aż do 58%. Biorąc pod uwagę fakt, że dla obrazu Aster
również występuje niewielki spadek dokładności (1 - 1, 5%) w stosunku do wartości współczynnika
CC obrazów ALI i Landsat, można by przypuszczać, iż powodem tego jest brak kanału
niebieskiego, a w przypadku Spota dodatkowo pomniejszona liczba kanałów. Jednakże wyniki
uzyskane dla obrazów symulowanych metodą SRF są tego zaprzeczeniem (współczynniki dla
Spota i Astera są zbliżone lub wyższe od dokładności Landsata i ALI).
Na podstawie wyników uzyskanych z symulacji i selekcji można stwierdzić, iż metoda LSU jest
bardzo czuła na generalizację krzywych wykorzystywanych jako krzywe wzorcowe oraz na
zmniejszenie liczby kanałów poniżej 10. Natomiast metoda MF wykazuje tendencję odwrotną czyli
dostarcza lepszych wyników dla danych o mniejszej liczbie kanałów. Ponadto obie metody
wykazują przeciwstawne tendencje zmian dokładności klasyfikacji w przypadku zmiany danych
referencyjnych. Metoda LSU w każdym badanym zestawie kanałów wykazuje podwyższenie
a) b)
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
191
dokładności dla krzywych uzyskanych w wyniku procedury PPI. Metoda MF dla przeważającej
części obrazów, które były klasyfikowane, po zmianie krzywych utworzonych z pól treningowych na
krzywe utworzone w oparciu o endmembersy dostarczała obniżonych wartości współczynnika CC.
W metodzie MF obrazy o liczbie kanałów 45 - 94 (symulacja I) oraz obrazy o liczbie kanałów > 18
(selekcja I i II) uzyskują wartość współczynnika CC na poziomie 50 - 55%. Może to wskazywać na
właściwą klasyfikację z wykorzystaniem tej metody obrazów o maksymalnej liczbie kanałów jak na
przykład Hyperion (174 kanały, CC = 62%) lub obrazów o zredukowanej liczbie kanałów (np. dla H6
CC = 70%, dla Spota CC = 76%). Wyniki klasyfikacji metodą MF obrazów po selekcji wykazują
następującą tendencję: im mniej kanałów (większa generalizacja), tym lepsza dokładność dla takich
klas jak wody, lasy, tereny przemysłowa (selekcja I).
Przedstawiona w niniejsze pracy analiza porównawcza metod klasyfikacji potwierdziła, że
obraz teledetekcyjny należy analizować używając wszystkich dostępnych metod i algorytmów.
W obrębie opracowywanej w ramach badań sceny znajdują się tereny, gdzie odpowiedź spektralna
może pochodzić od grupy pikseli czystych spektralnie (woda) lub od pikseli silnie zmieszanych
(tereny zielone). W przypadku obiektów, dla których istnieje duże prawdopodobieństwo zmieszania
pikseli poprawne wyniki klasyfikacji dostarczają metody podpikselowe (LSU, MF), bardzo dobrze
rozróżniające obiekty wskazane jako wzorce. Natomiast dla metod pikselowych (SAM) dobrą
dokładność uzyskano dla takich obiektów jak woda i lasy. Jest to związane występowaniem grup
pikseli, które stanowią piksele czyste spektralnie (Zbiornik Dobczycki, duże kompleksy leśne).
Przeprowadzone testy, których celem było zbadanie w pływu kanałów spektralnych
z zakresu podczerwonego na dokładno ść przeprowadzonej klasyfikacji wody potwierdziły
niebagateln ą rolę informacji spektralnej, która jest rejestrowana pr zez dodatkowe kanały
Hyperiona i ALI . Chodzi tu głównie o zakres 850 do 900 nm. Ten zakres promieniowania
elektromagnetycznego jest także rejestrowany przez sensory wielospektralne Aster, Landsat, Spot.
Jednakże, jest to realizowane tylko w jednym kanale o szerszym zakresie długości fal
promieniowania, które zawiera także zakłócenia związane z tłumieniem atmosfery (głównie
cząsteczki H2O), powodujące zaburzenia w rejestrowanej energii promieniowania
elektromagnetycznego. W przypadku obrazów Hyperiona i ALI, promieniowanie pasma
podczerwonego rejestrowane jest odpowiednio w 14 i 2 kanałach spektralnych.
Kanały podczerwone obydwu sensorów posiadają bardzo dobrą rozdzielczość spektralną
(Hyperion–10 nm, ALI–30 i 45nm) w stosunku do pozostałych analizowanych sensorów
wielospektralnych (80–140nm).
Analizując wykres ( Rys. 103) dla obrazów z usuwanymi kolejno podzakresami Hyperiona
(1'H, 1H, 2H, 3H,3'H, 4H) można zauważyć następującą zależność: wraz ze wzrostem długo ści
fali eliminowanych kanałów nast ępuje spadek dokładno ści klasyfikacji, który jest odwrotnie
proporcjonalny do liczby usuwanych kanałów. Wyjątek stanowi dokładność uzyskana dla
obrazu bez podzakresu 3'H, dla którego wartość OA prawie nie ulega zmianie, pomimo usunięcia
6 kanałów. Największy spadek dokładności (do 56%) zanotowano dla obrazu po eliminacji
podzakresu podczerwonego 4H składającego się z 14 kanałów. Po rozdzieleniu tej grupy kanałów
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
192
na podzakresy 4' i 4'' (zgodne z charakterystyką spektralną ALI) można zaobserwować zależność
występującą dla pierwszych podzakresów - dokładno ść klasyfikacji redukowanych obrazów
spada wraz ze wzrostem długo ści fali usuwanych kanałów oraz zwi ększeniem ich liczby ,
uzyskując wartość 93% i 82% ( Rys. 103). Analogiczną tendencję zanotowano dla obrazów,
w których z kolejnymi podzakresami usuwano zakres 3'H ( Rys. 103). Pomimo zwiększenia
o 6 liczby eliminowanych kanałów wartości dokładności dla badanych obrazów uległy minimalnym
zmianom. Jedynie usunięcie informacji spektralnej z kanałów podczerwonych łącznie z kanałami
z zakresu czerwonego (podzakresy 4H i 3'H – 20 kanałów) powoduje drastyczny spadek
dokładności aż do 30%.
W wyniku badania dokładności klasyfikacji obrazów, w których usunięte zostały pojedyncze
kanały ( Tab 49, Rys. 94) lub wybrane grupy kanałów zakresu podczerwonego ( Rys. 104)
stwierdzono, iż najwi ększy spadek warto ści dokładno ści jest spowodowany przez eliminacj ę
kanałów 46 (882nm) i 47 (892nm). Na podstawie wykresu ( Rys. 104) można zaobserwować, że
dokładność obrazów, w których redukowano grupy kanałów podczerwonych (liczba eliminowanych
kanałów 3–7, w tym kanały nr 46 i 47) ulegała obniżeniu o 11 - 17%. W przypadku jednakowej
liczby eliminowanych kanałów wartość dokładności klasyfikacji jest niższa dla obrazów bez kanałów
podczerwonych ( Rys. 104). Redukcja grup kanałów wraz z podzakresem 3'H nie wp ływa na
zmian ę wyników dokładno ści klasyfikacji.
3
8
14
5
1314
15
20
1112
9 9
667
20
30
40
50
60
70
80
90
100
1'H 1H 2H 3H 3'H 4H 4'H 4''H 1'H (3'H)
1H (3'H)
2H (3'H)
3H (3'H)
4H (3'H)
4'H (3'H)
4''H (3'H)
dokł
adność
klas
yfik
acji
SA
M [%
]
1
23
4
56
7
89
10
11
1213
14
1516
17
1819
20
liczb
a us
uwan
ych
kana
łów
OA [%] liczba kanałów
Rys. 103. Dokładność klasyfikacji SAM obrazów po redukcji podzakresów Hyperiona oraz liczba redukowanych kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
193
4
10
22
88
33
999
1313
77
3
20
30
40
50
60
70
80
90
100
34-40 41-47 41-43 44-47 44-46 45-46 46-47 45-47 34-40(3'H)
41- 47(3'H)
41-43(3'H)
44-47(3'H)
44-46(3'H)
45-46(3'H)
46-47(3'H)
45-47(3'H)
dokł
adność
klas
yfik
acji
SA
M [%
]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
liczb
a us
uwan
ych
kana
łów
OA [%] liczba kanałów
Rys. 104. Dokładność klasyfikacji SAM obrazów po redukcji grup kanałów obrazu Hyperiona oraz liczba redukowanych
kanałów.
20
30
40
50
60
70
80
90
100
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
liczba usuw anych kanałów
dokł
adność
kla
syfik
acji
SA
M [%
]
Rys. 105. Dokładność klasyfikacji obrazów po redukcji kanałów źródłowego obrazu Hyperiona.
Opisane zmiany wartości dokładności w stosunku do liczby usuwanych kanałów przedstawiają
jedynie występujące tendencje. Nie wskazują jednoznacznej zależności definiującej liczbę kanałów,
których usunięcie z klasyfikowanego obrazu spowoduje spadek dokładności o określonej wartości.
Jak wynika z przeprowadzonych testów, taka sama lic zba kanałów usuwanych z obrazu
hiperspektralnego ( Rys. 97 - Rys. 105) powoduje obni żenie dokładno ści klasyfikacji
w stopniu uzale żnionym od charakterystyki spektralnej eliminowanych kanałów .
Stwierdzono, że najwi ększy wpływ na dokładno ść klasyfikacji miało usuni ęcie kanałów
z zakresu podczerwonego i to zarówno w przypadku el iminacji pojedynczych podzakresów
zawieraj ących kanały podczerwone, jak i przy eliminacji tych podzakresów razem z kanałami
wyst ępującymi tylko w obrazie Hyperiona (podzakres 3'H). Dla tych obrazów uzyskano
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
194
najniższe wartości dokładności odpowiednio 56% i 30%. W tym wypadku duży spadek dokładności
spowodowany jest liczbą i zakresem spektralnym eliminowanych kanałów.
Przedstawione wyniki dowodzą zasadności przeprowadzonych analiz. Wskazują na
konieczność starannego planowania zadań, związanych z opracowaniem danych
hiperspektralnych. Kontynuacja badań pozwoli optymalizować algorytmy właściwej obróbki danych
hiperspektralnych w celu ich efektywniejszego wykorzystania. Wyniki przetwarzania obrazu
Hyperiona potwierdzają postawioną na początku tezę.
• Najbardziej istotny etap w procesie przetwarzania danych hiperspektralnych, którego
celem jest pozyskiwanie mapy tematycznej o założonej dokładności, stanowi faza
przygotowania obrazu do klasyfikacji (korekcja atmosferyczna, usunięcie szumów).
• W celu uzyskania właściwego wyniku ekstrakcji tematycznej niezbędne jest wybranie
odpowiedniego algorytmu redukcji danych hiperspektralnych, który w procedurze
klasyfikacji umożliwiłby identyfikację konkretnych obiektów. Etap wyboru stosowanego
algorytmu redukcji/selekcji kanałów (zakresów) obrazu, powinien być poprzedzony
wnikliwą analizą.
W podsumowaniu można stwierdzić, że:
• Zaprezentowane porównanie wyników klasyfikacji wykonanej różnymi metodami dla
obrazów o różnej rozdzielczości potwierdza, iż zwiększenie zasięgu spektralnego
i rozdzielczości spektralnej nie jest tożsame ze wzrostem informacji spektralnej i poprawą
jakości klasyfikacji.
• Klasyfikacja obrazów hiperspektralnych metodami tradycyjnymi pozwala na uzyskanie
mapy tematycznej o dokładności całkowitej klasyfikacji na poziomie 30 – 74%. Wartość
dokładności jest jednak znacznie zawyżona w stosunku do zawartości tematycznej
otrzymanej mapy. Najlepszą z metod tradycyjnych jest metoda Maxium Likelihood, dla
której dokładności całkowite wahały się w granicach 60-70%. Metoda MhD nie nadaje się
do klasyfikacji danych hiperspektralnych (OA < 50%), natomiast metoda MD jest, nieczuła
na liczebność kanałów, ich zakresy spektralne oraz na zbyt małą próbkę pikseli
treningowych (OA~60%)
• Zastosowanie hiperspektralnych metod klasyfikacji pikselowej SFF i SAM do klasyfikacji
obrazu Hyperiona i jego pochodnych nie pozwoliły uzyskać map tematycznych
o dokładności całkowitej większej niż 45%. Mogło to być spowodowane nieprawidłowym
przygotowaniem danych referencyjnych lub nieodpowiednio dobraną metodą szacowania
dokładności klasyfikacji
• Metody rozmieszania spektralnego LSU i MF umożliwiły klasyfikację obrazów testowych
na poziomie dokładności 50 – 96%. Wartość dokładności klasyfikacji zależy od
zastosowanych danych referencyjnych, charakterystyki spektralnej klasyfikowanych
kanałów.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
195
• Analiza zarejestrowanego dla danego obszaru obrazu hiperspektralnego może przyczynić
się do zgromadzenia informacji: jakie zakresy spektralne oraz jaka liczba kanałów jest
optymalna do przygotowania poprawnej mapy tematycznej wybranego obszaru.
Zaprezentowane wyniki testów stanowią tego potwierdzenie.
• Wypracowanie odpowiedniej metodyki opartej na właściwych zasadach przetwarzania
informacji spektralnej pozwala na efektywne prognozowanie rodzaju danych, które są
optymalne dla określonego typu i kierunku badań na wybranym obszarze. Takie
rozwiązanie może znacznie ułatwić wybór odpowiedniego obrazu teledetekcyjnego
i technologii jego przetwarzania, które dają możliwość uzyskania określonych parametrów
dokładnościowych mapy tematycznej analizowanego obszaru.
W ramach zaprezentowanych badań zaproponowano metodykę szczegółowej analizy zestawu
danych, pod kątem doboru danych wejściowych do prawidłowej detekcji i klasyfikacji określonych
obiektów, zarejestrowanych na obrazach hiperspektralnych.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
196
12. Bibliografia
1. Abbasi M., Schaepman M., Darvishsefat A., Bartholomeus H., Marvi Mohajer M., Sobhani H., 2008. Spectroradiometric Measurements of Tree Species in the Caspian Forests of Iran. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 291−296.
2. Adamczyk J., Będkowski K., 2005. Metody cyfrowe w Teledetkcji. Wydawnictwo SGGW, Warszawa
3. Adams J., Smith M., Johnson P., 1986. Spectral Mixture Modeling: a New Analysis of Rock and Soil Types at the Viking Lander 1 Site. Journal of Geophysical Research, 91, s. 8089−8122.
4. Adler-Golden S., Matthew M., Bernstein L., Levine R., Berk A., Richtsmeier S., Acharya P., Anderson G., Felde G., Gardner J., Hike M., Jeong L., Pukali B., Mello J., Ratkowski, A., Burke H., 1999. Atmospheric correction for short-wave spectral imagery based on MODTRAN4. SPIE Proceedings Imaging Spectrometry, vol. 3753, s. 61−69.
5. Anderson G., Berk A., Acharya P., Matthew M., Bernstein L., Chetwynd J., Dothe H., Adler-Golden S., Ratkowski A., Felde G., Gardner J., Hoke M., Richtsmeier S., Pukall B., Mello J. , Jeong L., 2000. MODTRAN4: Radiative Transfer Modeling for Remote Sensing. Algorithms for Multispectral, Hyperspectrul, and Ultraspectral Imagery VI. Proceedings of SPIE, vol. 4049, s. 176−183.
6. Aspinall R., 2002. A geographic information science perspective on hyperspectral remote sensing. Journal of Geographical Systems, vol. 4, nr 1, s.127−140.
7. Aspinall R., Marcus A., Boardman J., 2002. Considerations in collecting, processing, and analyzing high spatial resolution hyperspectral data for environmental investigations. Journal of Geographical Systems, vol. 4, s. 15–29.
8. Barry P. Mendenhall J. Jarecke P. Folkman M. Pearlman J. Markham B. 2002. EO-1 Hyperion hyperspectral aggregation and comparison with EO-1 Advanced Land Imager and Landsat 7 ETM+. Geoscience and Remote Sensing Symposium, IEEE International, vol.3, s.1648–1651.
9. Bateson, C., Asner, G., Wessman, C., 2000. Endmember Bundles: A New Approach to Incorporating Endmember Variability into Spectral Mixture Analysis. IEEE Transactions on Geoscience and Remote Sensing, vol. 38 issue 2 cz: 2, s. 1083–1094.
10. Bajcsy P., Groves P., 2004. Methodology for hyperspectral band selection. Photogrammetric Engineering and Remote Sensing, vol. 70, nr 7, s. 793−802.
11. Ben-Dor E., Patkin K., Banin A., Karnieli A., 2002. Mapping of several soil properties Rusing DAIS-7915 hyperspectral scanner data – a case study over clayey in Israel. International Journal of Remote Sensing, vol.23, nr 6, s. 1043−1062.
12. Ben-Dor E., Carmina K., Heller D., Chudnovsky S., 2008. A Novel Combined Optical Method For Objectively Map Soil in a Near Real Time Domaine. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7. Pekin, Chiny, s. 239−242.
13. Berk A., Bernstein L., Robertson D., 1989. MODTRAN: A Moderate Resolution Model for LOWTRAN 7. Spectral Sciences, Inc. Burlington, Massachusetts.
14. Bernstein R., Lotspoech J., Myers H., Kolsky H., Lees R., 1984. Analysis And Processing of LANDSAT−4 Sensor Data Using Advanced Image Processing Techniques And Technologies. IEEE Transactions on Geoscience and Remote Sensing, vol. GE-22, nr 3, s. 192−221.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
197
15. Bian M., Skidmore A., Schlerf M., Liu Y., Wang T., 2012. Estimating biochemical parameters of tea (Camellia sinensis (l.)) using hyperspectral techniques. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXIX. Part B8, Melbourne, Australia, s. 237−241.
16. Bierwith P., Pfitzner K., 2001. Identyfying Acid Mine-Drainage Pollution at Captains Flat, NSW, Rusing Airborne HyMap Data. Geoscience and Remote Sensing Symposium, 2001. IGARSS '01. IEEE 2001 International, vol.6, s. 2563–2565.
17. Boardman J., 1989. Inversion of imaging spectrometry data using singular value decomposition. Proceedings, IGARSS’89, 12th Canadian Symposium on Remote Sensing, vol. 4, s. 2069–2072.
18. Boardman J., 1993. Automated spectral unmixing of AVIRIS data using convex geometry concepts. Summaries, 4th JPL Airborne Geoscience Workshop, JPL Publication 93-26, vol. 1, s.11–14.
19. Boardman J., 1998. Leveraging the high dimensionality of AVIRIS data for improved subpixel target unmixing and rejection of false positives: Mixture Tuned Matched Filtering. AVIRIS 1998 Proceedings, JPL, California.
20. Boardman J., Kruse F., 1994. Automated spectral analysis: A geologic example using AVIRIS data, north Grapevine Mountains, Nevada. Proceedings, Tenth Thematic Conference on Geologic Remote Sensing, Environmental Research Institute of Michigan, Ann Arbor, MI, s. I-407−I-418.
21. Boardman J., Kruse F., Green R., 1995. Mapping target signatures via partial unmixing of AVIRIS data. Summaries, Fifth JPL Airborne Earth Science Workshop, JPL Publication 95- 1, vol.1, s. 23−26.
22. Boardman, J., 1992. Sedimentary facies analysis using imaging spectrometry: A geophysical inverse problem: Unpublished Ph. D. Thesis, University of Colorado, Boulder, s. 212.
23. Boardman, J., Biehl L., Clark R., Kruse F., Mazer A., Torson J., Staenz K., 2006, Development and Implementation of Software Systems for Imaging Spectrometry: Proceedings, IGARSS 2006, 31 July – 4 August, Denver, Colorado.
24. Börner M., Wiest L., Keller P., Reulke R., Richter R., Schläpfer D., Schaepman M., 2001. SENSOR: a tool for the simulation of hyperspectral remote sensing systems. ISPRS Journal of Photogrammetry and Remote Sensing, vol. 55, nr 6, s. 299−312.
25. Bowles J., Palmadesso P., Antoniades J., Baumbeck M., Rickard L., 1995. Use of Filter Vectors in Hyperspectral Data Analysis. Infrared Spaceborne Remote Sensing 111, M. S. Scholl, B. F. Andresen, Editors, Proceedings SPIE, vol. 2553, s. 148−157.
26. Brando V., Dekker A., 2003. Satellite hyperspectral remote sensing for estimating estuarine and coastal water quality. IEEE Transactions on Geoscience and Remote Sensing, vol. 41, nr 6, s. 1378−1387.
27. Brunn A., Fischer C., Dittmann C., Richter R., 2003. Quality assessment, Atmospheric and Geometric Correction of airborne hyperspectral HyMap Data. Imaging Spectroscopy: 3rd workshop, Herrsching, Niemcy 2003, s. 72−81.
28. Bruzzone L., Roli F., Serpico S., 1995. An extension of the Jeffreys–Matusita distance to multiclass cases for feature selection. IEEE Transactions of Geoscience and Remote Sensing, vol. 33, nr 6, s. 1318–1321.
29. Bruzzone L., Serpico S., 2000. A technique for feature selection in multiclass cases. International Journal of Remote Sensing, vol. 21, nr 3, s. 549–563.
30. Bryant R., Moran M., McElroy S., Holifield C., Thome K., Miura T., 2002. Data continuity of Landsat–4 TM, Landsat-5 TM, Landsat-7 ETM+, and Advanced Land Imager (ALI) sensors. Geoscience and Remote Sensing Symposium, 2002. IGARSS '02. 2002 IEEE International, vol.1, s. 584–586.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
198
31. Brylicki W., Wieja K., Łaciak H., Dziedzic J., Iwanciw J., Jaśkiewicz G., Jazowy R., 1991. Ocena składu fazowego oraz niektórych właściwości fizyko-mechanicznych żużli stalowniczych i wielkopiecowych. Zakład Materiałów Budowlanych AGH.
32. Chang C.- I., 2013. Hyperspectral Data Processing Algorithm Design and Analysis. John Wiley & Sons, Inc., Hoboken, NJ, USA.
33. Chavez, P., 1988. An improved Dark-Object Subtraction Technique for Atmospheric Scattering Correction of Multispectral Data. Remote Sensing of Environment, vol. 24, s. 459−479.
34. Chavez, P., 1996. Image-Based Atmospheric Corrections – Revisited and Improved. Photogrammetric Engineering and Remote Sensing, vol.62, nr 9, s. 1025−1036.
35. Chen C., Lin Y., Chang L., Son N., 2012. Retrieving surface soil moisture from MODIS and AMSR-E data: A case study in Taiwan. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXIX. Part B3. Melbourne, Australia, s. 379−383.
36. Chen F., Niu Z., Sun G., Wang C., Teng, J., 2008. Using low-spectral-resolution images to acquire simulated hyperspectral images. Int. J. Remote Sens., vol. 29, s. 2963–2980.
37. Chen J-Ch., Chen Ch-T., 2008. Correlation Analysis between Indices of Tree Leaf Spectral Reflectance and Chlorophyll Content. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Commission VII papers, Vol. XXXVII, part B7, Pekin, Chiny, s. 231−238.
38. Cho M., Sobhan I., Skidmore A., de Leeuw J., 2008. Discriminating Species Using Hyperspectral Indices at Leaf and Canopy Scales. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Commission VII, vol. XXXVII, part B7, Pekin, Chiny, s. 369−376.
39. Clark R., Roush T., 1984. Reflectance spectroscopy: Quantitative analysis techniques for remote sensing applications. Journal of Geophysical Research, vol. 89, nr B7, s. 6329−6340.
40. Clark R., Gallagher A., Swayze G., 1990. Material absorption band depth mapping of imaging spectrometer data using the complete band shape least-squares algorithm simultaneously fit to multiple spectral features from multiple materials. Proceedings of the Third Airborne Visible/Infrared Imaging Spectrometer (AVIRIS) Workshop, JPL Publication 90-54, s. 176–186.
41. Clark R., Swayze G., Gallagher A., Gorelick N., Kruse F., 1991. Mapping with imaging spectrometer data using the complete band shape least-squares algorithm simultaneously fit to multiple spectral features from multiple materials. Proceedings, 3rd Airborne Visible/Infrared Imaging Spectrometer (AVIRIS) workshop, JPL Publication 91-28, s. 2−3.
42. Clark R., Swayze G., Gallagher A., 1992. Mapping the mineralogy and lithology of Canyonlands, Utah with imaging spectrometer data and the multiple spectral feature mapping algorithm. Summaries of the Third Annual JPL Airborne Geoscience Workshop, JPL Publication 92-14, vol. 1, s. 11−13.
43. Clark R., Swayze G., 1995. Mapping minerals, amorphous materials, environmental materials, vegetation, water, ice, and snow, and other materials. The USGS Tricorder Algorithm: in Summaries of the Fifth Annual JPL Airborne Earth Science Workshop, JPL Publication 95-1, s. 39−40.
44. Clark R., Swayze G., Livo K., Kokaly R., Sutley S., Dalton J., McDougal R., Gent C., 2003. Imaging Spectroscopy: Earth and Planetary Remote Sensing with the USGS Tetracorder and Expert Systems. Journal of Geophysical Research, vol.108 (E12), s. 5−44.
45. Comon P., 1994. Independent component analysis, a new concept. Signal Processing, vol. 36, nr 3, s. 287–314.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
199
46. Conel J., Green R., Vane G, Bruegge C., Alley R., Curtiss B., 1987. Airborne Imaging Spectrometer-2: Radiometric spectral characteristics and comparison of ways to compensate for the atmosphere. Proceedings SPIE, vol. 834, s. 140–157.
47. Coulson K., Fraser R., 1975. Radiation in the atmosphere. Reviews of Geophysics vol. 13, nr 3, s. 732−737.
48. Cudahy T., Okada K., 2000. Targeting Vms-Style Zn Mineralisation at Panorama, Australia, Using Airborne Hyperspectral Vnir-Swir Hymap Data. ERIM Proceedings of the 14th International Conference on Applied Geologic Remote Sensing, 6-8 November, Las Vegas, s. 395−402.
49. Cudahy T., Roger A., Barry P., Mason P., Quigley M., Folkman M., Pearlman J., 2002. Assessment of the stability of the Hyperion SWIR module for hyperspectral mineral mapping using multi-date images from Mount Fitton, Australia. IEEE International Geoscience and Remote Sensing Symposium, vol.6, s. 3504–3506.
50. Dadon A., Ben-Dor E., Karnieli A., 2010. Use of Derivative Calculations and Minimum Noise Fraction Transform for Detecting and Correcting the Spectral Curvature Effect (Smile) in Hyperion Images. IEEE Transactions on Geoscience and Remote Sensing, vol. 48, nr 6, s. 2603−2612.
51. Dall'Olmo G., Gitelson A., Rundquist D., Leavitt B., Barrow T., Holz J., 2005. Assessing the potential of SeaWiFS and MODIS for estimating chlorophyll concentration in turbid productive water using red and near-infrared bands. Remote Sensing of Environment, vol. 96, s. 176−187.
52. Darvishzadeh R., Skidmore A., Schlerf M., Atzberger C., Corsi F., Cho M., 2008. Estimation of Leaf Area Index and Chlorophyll for a Mediterranean Grassland Using Hyperspectral Data. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 471−478.
53. Datt B., McVicar T., Van Niel T., Jupp D. , Pearlman J., 2003. Pre-processing EO−1 Hyperion hyperspectral data to support the application of agricultural indices. Institute of Electrical and Electronics Engineers (IEEE), Transactions on Geoscience and Remote Sensing, vol. 41, s.1246−1259.
54. De Backer S., Kempeneers P., Debruyn W., Scheunders P., 2005. A Band Selection Technique for Spectral Classification. IEEE Geoscience and Remote Sensing Letters, vol. 2, nr 3, s. 319−323.
55. De Souza E., Vicens R., Rosa A., Cruz C., 2012. Spectral analysis of different vegetation cover using the Hyperion sensor – A case study in the state of Rio de Janeiro – Brazil. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXIX. Part B7. Melbourne, Australia, s. 109−111.
56. Debba P., Carranza E., Stein A., van der Meer F., 2009. Optimum sampling scheme for characterization of mine tailings. IEEE International Geoscience and Remote Sensing Symposium, IGARSS 2009. vol. 3, s. IV-897−IV-900.
57. DeFries R., Chan J., 2000. Multiple criteria for evaluating machine learning algorithms for land cover classification from satellite data. Remote Sensing of Environment, vol.74, s. 503−515.
58. Dehaan R.., Taylor G., 2003. Image derived spectral endmembers as indicators of salinisation. International Journal of Remote Sensing, vol. 24, nr 4, s.775–794.
59. Dekker A., Malthus T., Wijnen M., Seyhan E., 1992. Remote sensing as a tool for assessing water quality in Loosdrecht lakes. Hydrobiologia, vol. 233, s.137−159.
60. Demir B., Erturk S., 2008. Spectral Magnitude and Spectral Derivative Feature Fusion for Improved Classification of Hyperspectral Images. Geoscience and Remote Sensing Symposium, 2008. IGARSS 2008. IEEE International, vol.3, s. 1020−1023.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
200
61. Du Q., Yang H., 2008. Similarity-Based Unsupervised Band Selection for Hyperspectral Image Analysis. IEEE Geoscience And Remote Sensing Letters, vol. 5, nr 4, s. 564−568.
62. Dwyer J., Kruse F., Lefkoff A., 1995. Effects of empirical versus model-based reflectance calibration on automated analysis of imaging spectrometer data; a case study from the Drum Mountains, Utah. Photogrammetric Engineering and Remote Sensing, vol. 61, s. 1247−1254.
63. Dworak T., Hejmanowska B., Pyka K., 2011. Problemy teledetekcyjnego monitoringu środowiska. Wydawnictwa AGH, 2011.
64. Dyk A., Goodenough D. G., Bhogal A. S., Pearlman J., Love J., 2002. Geometric correction and validation of Hyperion and ALI data for EVEOSD. Proceedings of IGARSS, vol. 1, Toronto, Canada, 2002, s. 579–583.
65. Emami H., Mojaradi B., 2009. A New Method for Accuracy Assessment of Sub-Pixel Classification Results. American Journal of Engineering and Applied Sciences, vol. 2, s. 456–465.
66. Eyers R., Mills J., Cutler M., 2004. The topographic and spectral expression of mining subsidence. Proceedings of the Annual Conference of the Remote Sensing and Photogrammetry Society (RSPSoc), U.K.
67. Farrand W., Singer, R., Merenyi E., 1994. Retrieval of Apparent Surface Reflectance from AVIRIS Data: A Comparison of Empirical Line, Radiative Transfer, and Spectral Mixture Methods. Remote Sensing of Environment, vol.47, s. 311–321.
68. Farrell M., Mersereau R., 2005. On the impact of PCA dimension reduction for hyperspectral detection of difficult targets. IEEE Geoscience And Remote Sensing Letters., vol. 2, nr 2, s. 192–195.
69. Fauvel M., Chanussot J., Benediktsson J., 2009. Kernel principal component analysis for the classification of hyperspectral remote sensing data over urban areas. EURASIP Jurnal of Advances in Signal Processing, 2009, s. 1–14.
70. Fengjie Y., Peng H., Guangzhu Z., Qingting L., Jie W., Jianguang Ch., 2006. Study on environment detection and appraisement of mining area with Remote Sensing. Proceedings of the SPIE, vol. 6405.
71. Ferrier G., Rumsby B., Pope R., 2007. Application of hyperspectral remote sensing data in the monitoring of the environmental impact of hazardous waste derived from abandoned mine sites. Geological Society, Special Publications, London 2007, vol. 283, s. 107–116.
72. Fleming C., Marsh S. 2005. The role of remote sensing in geo-environmental management. Proceedings of the EARSeL Workshops, Warszawa 2005, Polska, s.437–447.
73. Foody G., 1996. Approaches for the production and evaluation of fuzzy land cover classifications from remotely sensed data. International Journal of Remote Sensing, vol. 17, s. 1317–1340.
74. Foody G., 2002. Status of land cover classification accuracy assessment. Remote Sensing of Environment, vol. 80, s.185–201.
75. Fukunaga K., 1990. Introduction to Statistical Pattern Recognition. Wydanie drugie, Nowy York: Academic, 1990.
76. Gallo, K., Daughtry, C., 1987. Differences in vegetation indices for simulated Landsat–5 and TM, NOAA-9 AVHRRa nd SPOT-1 sensor systems. Remote Sensing of Environment, vol. 23, s. 439–452.
77. Gao B., Goetz, A., 1990. Column atmospheric water vapor and vegetation liquid water retrievals from airborne imaging spectrometer data. Journal of Geophysical Research, vol. 95, nr D4, s. 3549–3564.
78. Gao B., Heidebrecht K., Goetz A., 1993. Derivation of scaled surface reflectances from AVIRIS data. Remote Sensing of Environment, vol. 44, s.165–178.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
201
79. Głowienka E., 2007. Korekcja atmosferyczna i wzmocnienie jakości obrazu DAIS dla terenów byłej kopalni Jeziorko. Materiały niepublikowane.
80. Głowienka E, 2008 a. Przetwarzanie wstępne danych z hiperspektralnego sensora satelitarnego Hyperion. Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol.18, s.131–140.
81. Głowienka E., 2008 b. Porównanie metod korekcji atmosferycznej dla danych z sensorów hiperspektralnych. Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol.18, s.121–130.
82. Gill P., Murray W., Wright M., 1991. Numerical Linear Algebra and Optimization, vol. 1, Addison-Wesley Publishing Company, s. 223.
83. Gitelson A., 1992. The peak near 700 nm on radiance spectra of algae and water: relationships of its magnitude and position with chlorophyll concentration. International Journal of Remote Sensing, vol. 13, s. 3367–3373.
84. Gnyp M., Li F., Hennig S., Koppe W., Jia L., Chen X., Zhang F., Laudien R., Bareth G., 2008. Hyperspectral Data Analysis of N-Fertilisation Effects on Winter Wheat: a Case Study of Huimin County, North China Plain. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 309–314.
85. Goetz A., Boardman J., 1997. Atmospheric Corrections: On Deriving Surface Reflectance from Hyperspectral Imagers. In Descour, Michael R. and Shen, S.S. (eds.), Imaging Spectrometry III: Proceedings of SPIE, 3118, s. 14–22.
86. Goetz A., Ferri M., Kindel B., Qu Z., 2002. Atmospheric Correction of Hyperion Data and Techniques for Dynamic Scene Correction. Geoscience and Remote Sensing Symposium. IGARSS '02. 2002 IEEE International. Vol.3. s. 1408–1410.
87. Goetz A., Kindel B., Ferri M., Qu Z., 2003. HATCH: Results From Simulated Radiances, AVIRIS and Hyperion. IEEE Transactions On Geoscience And Remote Sensing, vol. 41, nr 6, s. 1215–1222.
88. Goldberg D., Deb K., 1991. A comparative analysis of selection schemes used in genetic algorithms. Foundations of Genetic Algorithms, Morgan Kaufmann, s. 69–93.
89. Goodchild M., 2003. Geographic information science and systems for environmental management. Annual Reviews of Environment and Resources, vol. 28, s. 493–519.
90. Goodenough D., Dyk A., Niemann K., Pearlman J., Chen H, Han T., Murdoch M., West Ch., 2003. Processing Hyperion and ALI for Forest Classification. IEEE Transactions On Geoscience And Remote Sensing, vol. 41, Nr 6.
91. Gordon H., Clark D., 1980. Remote sensing optical properties of a stratified ocean: An improved interpretation. Applied Optics, vol. 18, s. 3428–3430.
92. Green A., Berman M., Switzer B., Craig, M., 1988, A transformation for ordering multispectral data in terms of image quality with implications for noise removal: IEEE Transactions on Geoscience and Remote Sensing, vol. 26, nr 1, s. 65–74.
93. Green A., Craig M., 1985. Analysis of aircraft spectrometer data with logarithmic residuals. Proceedings, AIS workshop, 8-10 April, 1985, JPL Publication 85-41, Jet Propulsion Laboratory, Pasadena, California, s. 111–119.
94. Green R., 2001. Atmospheric Correction Now (ACORN), developed by ImSpec LLC, available from Analytical Imaging and Geophysics LLC. http://www.aigllc.com/imspec_transition.htm.
95. Griffice C., Purcell C., Danahy S., Keller R., 1998. Simulation and Exploitation of Proposed Commercial Multispectral Remote Sensing Systems. Aerospace Conference Proceedings IEEE, vol.5, s. 151–158.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
202
96. Griffin M., Burke H., 2003. Compensation of Hyperspectral Data for Atmospheric Effects. Lincoln Laboratory Journal, vol. 14, nr 1.
97. Grösel K., Belocky R., 2003. Mining site environmental assessment and re-vegetation planning in an alpine environment utilizing advanced remote sensing techniques. Proceedings of the 3rd EARSel Workshop on Imaging Spectroscopy, Herrsching, Germany, s. 313–323.
98. Hakvoort H., De Haan J., Jordans R., Vos R., Peters S., Rijkeboer M., 2002. Towards airborne remote sensing of water quality in the Netherlands-validation and error analysis. ISPRS Journal of Photogrammetry and Remote Sensing, vol. 57, s. 171–183.
99. He T., Wang J., Lin Z., Cheng Y., 2008. Study on Spectral Features of Soil Organic Matter. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 261–268.
100. Hauff P., Lindsay N., Peters D., Borstad G., Peppin W., Costick L., Glanzman R., 2000. Hyperspectral Evaluation Of Mine Waste And Abandoned Mine Lands Nasa And Epa Sponsored Projects In Idaho. Airborne Visible/Infrared Imaging Spectrometer (AVIRIS): Airborne Geoscience 2000 Workshop Proceedings.
101. Hejmanowska B., Głowienka E, 2004. Wstępne wyniki pomiarów spektrometrycznych i klasyfikacji obrazów hiperspektralnych rekultywowanego obszaru Tarnobrzeskiego Zagłębia Siarkowego. Geoinformatica Polonica, T6, Prace Komisji Geoinformatyki PAU, Kraków, s. 49–58.
102. Hejmanowska B., Drzewiecki W., Głowienka E., Mularz S., Zagajewski B., Sanecki J., 2006. Próba integracji satelitarnych obrazów hiperspektralnych z nieobrazowymi naziemnymi danymi spektrometrycznymi na przykładzie Zbiornika Dobczyckiego, Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 16, s. 207–216.
103. Hejmanowska B., 2007. Porównanie wyników klasyfikacji obrazów satelitarnych HYPERION i ALI. Archiwum Fotogrametrii, Kartografii i Teledetekcji vol.17a, s. 291–300.
104. Hossain M., Pickering M., Xiuping Jia, 2011. Unsupervised feature extraction based on a mutual information measure for hyperspectral image classification. IEEE Geoscience and Remote Sensing Symposium (IGARSS), Australia 2011, s. 1720–1723.
105. Huang R., He M., 2005. Band selection based on feature weighting for classification of hyperspectral imagery. IEEE Geoscience And Remote Sensing Letters, vol. 2, nr 2, s. 156–159.
106. Hughes G., 1968. On the mean accuracy of statistical pattern recognizers. IEEE Trans. Inform. Theory, vol. IT-14, s. 55–63.
107. Ichino M., Sklansky J., 1984. Optimum feature selection by zero–one integer programming. IEEE Transactions on Systems, Man, and Cybernetics, vol. SMC-14, nr 5, s. 737–746.
108. Ifarraguerri A., Chang C.-I., 2000. Unsupervised hyperspectral image analysis with projection pursuit. IEEE Transactions of Geoscience and Remote Sensing, vol. 38, nr 6, s. 2529–2538.
109. Ifarraguerri A., Prairie M., 2004. Visual Method for Spectral Band Selection. IEEE Geoscience And Remote Sensing Letters, vol. 1, nr 2, s. 101–106.
110. Jacquemoud S., Bacour C., Poilvé H. Frangi J., 2000. Comparison of Four Radiative Transfer Models to Simulate Plant Canopies Reflectance: Direct and Inverse Mode. Remote Sensing of Environment, vol. 74, s. 471–481.
111. Jain A., Zongker D., 1997. Feature selection: Evaluation, application, and small sample performance. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, nr 2, s. 153–189.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
203
112. Jarecke P., Barry P., Pearlman J., Markham B., 2002. Aggregation of Hyperion hyperspectral spectral bands into Landsat-7 ETM+ spectral bands. Proceedings of Imaging Spectrometry VII, vol. 4480, s. 259–263.
113. Jarocińska A., 2012. Ocena skuteczności modeli transferu promieniowania w badaniach stanu roślinności łąk. Teledetekcja Środowiska, vol. 48, s. 1–52.
114. Jensen J., 1986. Introductory Digital Image Processing. Prentice-Hall, Englewood Cliffs, New Jersey, s. 379.
115. Jensen J., Cowen D., 1999. Remote sensing of urban/suburban infrastructure and socio-economic attributes. Photogrammetric Engineering and Remote Sensing, vol. 65, s. 611–622.
116. Jiao H., Zha Y., Gao J., Li Y., Wei Y., Huang J., 2006. Estimation of chlorophyll-a concentration in Lake Tai, China using in situ hyperspectral data. International Journal of Remote Sensing, vol. 27, s. 4267–4276.
117. Jimenez L., Landgrebe D., 1998. Supervised classification in highdimensional space: Geometrical, statistical, and asymptotically properties of multivariate data, IEEE Trans. Syst., Man, Cybern. C, Appl. Rev., vol. 28, nr 1, s. 39–54.
118. Joelsson S., Benediktsson J., Sveinsson J., 2005. Random forest classifiers for hyperspectral data. Geoscience and Remote Sensing Symposium, IGARSS '05 Proceedings, 2005 IEEE International, 25–29 lipiec 2005.
119. Junying S., Ning S., 2008. A Dimensionality Reduction Algorithm of Hyperspectral Image Based on Fract Analysis. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7, Pekin, Chiny, s. 297–302.
120. Kajtoch Ł., 2002. Awifauna Pogórza Wielickiego i Podgórza Bocheńskiego-zagrożenia i propozycja ochrony. Chrońmy Przyrodę Ojczyzny, vol. 58 (3), s. 38–54.
121. Kalman L., Pelzer G., 1993. Simulation of landsat thematic mapper imagery using AVIRIS hyperspectral imagery. Summmries of the Fourth Annual JPL Airborne Geoscience Workshop, JPL Pasadena, California, s. 97–100.
122. Kallio K., Kuster T., Hannonen T., Koponen S., Pullianinen J., Vepsalainen J., 2001. Retrieval of water quality from airborne imaging spectromentry of various lake types in different season. The Science of the Total Environment, vol. 268, s. 59–77.
123. Kallio K., Koponen S., Pullianinen J., 2003. Feasibility of airborne imaging spectrometry for lake monitoring - a case study of spatial chlorophyll a distribution in two meso-eutropic lakes. International Journal of Remote Sensing, vol. 24, s. 3771–3790.
124. Kavzoglu, T., Mather P., 2000. The Use of Feature Selection Techniques in the Context of Artificial Neural Networks, Proceedings of 26th Annual Conference of the Remote Sensing Society, Leicester, Wielka Brytania. Online http://wenku.baidu.com/view/fc91391555270722192ef792.html.
125. Kavzoglu T., 2004. Simulating Landsat ETM imagery using DAIS 7915 hyperspectral scanner data. International Journal of Remote Sensing, vol. 25, nr 22, s. 5049–5067.
126. Kempeneers P., 2007. Information Extraction from Hyperspectral Image. – rozprawa doktorska, Faculteit Wetenschappen Departement Natuurkunde, Uniwersytet w Antwerpii.
127. Kirkpatrick S., Gelatt C., Vecci M.,1983. Optimization by simulated annealing, Science, vol. 220, nr 4598, s. 671–680.
128. Kondracki J., 2002. Geografia regionalna Polski. PWN. Warszawa, 2002.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
204
129. Kopaliński W., 2007. Słownik wyrazów obcych i zwrotów obcojęzycznych z almanachem. Wydawnictwo Rytm, Warszawa, 2007.
130. Koponen S., Pulliainen J., Kallio K., Hallikainen M., 2002. Lake water quality classification with airborne hyperspectral spectrometer and simulated MERIS data. Remote Sensing Environment, vol. 79, s. 51–59.
131. Kruse F., Raines G., Watson K., 1985. Analytical techniques for extracting geologic information from multichannel airborne spectroradiometer and airborne imaging spectrometer data. Proceedings, International Symposium on Remote Sensing of Environment, Thematic Conference on Remote Sensing for Exploration Geology, 4th, Environmental Research Institute of Michigan, Ann Arbor, s. 309–324.
132. Kruse F., 1988. Use of Airborne Imaging Spectrometer data to map minerals associated with hydrothermally altered rocks in the northern Grapevine Mountains, Nevada and California. Remote Sensing of Environment, vol. 24(1), s. 31–51.
133. Kruse F., Lefkoff A., Boardman J., Heidebrecht K., Shapiro A., Barloon P., Goetz A., 1993. The Spectral Image Processing System (SIPS) - Interactive Visualization and Analysis of Imaging Spectrometer Data. Remote Sensing of Environment, Special issue on AVIRIS, May-June 1993, vol. 44, s. 145–163.
134. Kruse F., 1994. Imaging spectrometer data analysis. A tutorial. International Symposium on Spectral SensingResearch ’94, San Diego, CA, 9 July 1994.
135. Kruse F., 1998. Advances in Hyperspectral Remote Sensing for Geologic Mapping and Exploration. Proceedings 9th Australasian Remote Sensing Conference, Sydney, Australia, July 1998.
136. Kruse F., Boardman J., Huntington J., 2002. Comparison of EO-1 Hyperion and airborne hyperspectral remote sensing data for geologic applications. Proc. SPIE Aerospace Conf., Big Sky, MO, Mar. 9–16, 6.0102, s. 12.
137. Kruse F., Boardman J., Huntington J., 2003. Comparison of Airborne Hyperspectral Data and EO-1 Hyperion for Mineral Mapping. IEEETransactions On Geoscience And Remote Sensing, vol. 41, nr 6, s. 1388–1400.
138. Kruse F., 2004. Comparison of ATREM, ACORN, and FLAASH atmospheric corrections using low-altitude AVIRIS data of Boulder, Colorado. Proceedings 13th JPL Airborne Geoscience Workshop, Jet Propulsion Laboratory, 31 March – 2 April 2004.
139. Kruse F., Perry S., 2007. Regional Mineral Mapping by Extending Hyperspectral Signatures Using Multispectral Data. IEEE AeroSpace Conference Proceedings, 2007.
140. Kudo M., Sklansky J., 2000. Comparison of algorithms that select features for pattern classifiers. Pattern Recognition, vol. 33, nr 1, s. 25–41.
141. Künzer C., Zhang J., Voigt S., 2003. Set Up of a Spectral Database for Unmixing Approaches in Mining Environments in Northcentral China: Demarcating Coal Fire Risk Areas. Proceedings of the 3rd EARSel Workshop on Imaging Spectroscopy, May 13−16, 2003, Herrsching, Germany
142. Law M., Figueiredo M., Jain A., 2004. Simultaneous feature selection and clustering using mixture models. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 26, nr 9, s. 1154−1166.
143. Lee Z., Carder K., Mobley C., Steward R., Patch J., 1999. Hyperspectral remote sensing for shallow waters: 2. Deriving bottom depths and water properties by optimization. Applied Optics, vol. 38, s. 3831–3843.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
205
144. Lei Q., Bodechtel J. 1999. Application of MAIS (Modular Airborne Imaging Spectrometer) Data for Mineral Prospection in Gansu Province, China. Geoscience and Remote Sensing Symposium, 1999. IGARSS '99 Proceedings. IEEE 1999 International, vol.1, s. 392 – 394.
145. Lewiński S., 2000. The satellite maps of Poland elaborated on the basis of Landsat MSS, TM and IRS-1C images. Proceedings of 28 the International Symposium on Remote Sensing of Environment, Cape Town, RPA. 2000, s. 27–30.
146. Lewiński S., 2007. Obiektowa klasyfikacji zdjęć satelitarnych jako metoda pozyskiwania informacji o pokryciu i użytkowaniu ziemi. Seria Monograficzna nr 12, IGiK, Warszawa.
147. Li S., Wu H., Wan D, Zhu J., 2011. An effective feature selection method for hyperspectral image classification based on genetic algorithm and support vector machine. Knowledge-Based Systems, vol. 24, nr 1, s. 40–48.
148. Liu B., Zhang L., Zhang X., Zhang B., Tong Q., 2009. Simulation of EO-1 Hyperion Data from ALI Multispectral Data Based on the Spectral Reconstruction Approach. Sensors, vol. 9, s. 3090–3108.
149. Liu Y., Islam M., Gao J., 2003. Quantification of shallow water quality parameters by means of remote sensing. Progress in Physical Geography, vol. 27, s. 24–43.
150. Mannheim S., Segl K., Heim B., Kaufmann H., 2004. Monitoring of Lake Water Quality Using Hyperspectral CHRIS-PROBA Data. Proc. of the 2nd CHRIS/Proba Workshop, ESA/ESRIN, Frascati, Włochy 2004, (ESA SP-578, Lipiec 2004).
151. Maselli F., Rodolfi A., Conese C., 1996. Fuzzy classification of spatially degraded Thematic Mapper data for the estimation of sub-pixel components. Remote sensing of Environment, vol. 17(3), s. 537–551.
152. Mather P., 1999. Computer processing of remotely-sensed images: An introduction Chichester, John Wiley and Sons, Anglia (2 wydanie).
153. Matthew M., Adler-Golden S., Berk A., Felde G., Anderson G., Gorodetzky D., Paswaters S., Shippert M., 2003. Atmospheric correction of spectral imagery: evaluation of the FLAASH algorithm with AVIRIS data. SPIE Proceeding, Algorithms and Technologies for Multispectral, Hyperspectral, and Ultraspectral Imagery IX, 2003.
154. Mazer, A., Martin M., Lee M., Solomon, J., 1988. Image Processing Software for Imaging Spectrometry Analysis. Remote Sensing of the Environment, vol. 24, nr 1, s. 201–210.
155. Melgani F., Bruzzone L., 2004. Classification of Hyperspectral Remote Sensing Images With Support Vector Machines. IEEE Transactions On Geoscience And Remote Sensing, vol. 42, nr 8, s. 1778–1790.
156. Michałowska K., Głowienka-Mikrut E. 2010. Wieloczasowe dane obrazowe w badaniu zmian pokrycia terenu, Archiwum Fotogrametrii, Kartografii i Teledetekcji, Vol. 21, s.281–289.
157. Middleton E., Ungar S., Mandl D., Ong L., Frye S., Campbell P., Landis D., Young J., Pollack N., 2013. The Earth Observing One (EO-1) Satellite Mission:Over a Decade in Space Over a Decade in Space. IEEE Journal Of Selected Topics In Applied Earth Observations And Remote Sensing, vol. 6, nr 2, s. 243–256.
158. Milton E., Choi K., 2004. Estimating the spectral response function of the CASI–2, RSPSoc2004: Mapping and Resources Management. Annual Conference of the Remote Sensing and Photogrammetry Society, Aberdeen, Scotland.
159. Milton E., 1987. Review Article Principles of field spectroscopy. International Journal of Remote Sensing, vol. 8, nr 12, s. 1807–1827.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
206
160. Mojaradi B., Emami H., Varshosaz M., Jamali S. 2008. A Novel Band Selection Method For Hyperspectral Data Analysis. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7, Pekin, Chiny, s. 447–452.
161. Morel A., Prieur L., 1977. Analysis of variations in ocean color. Limnology and Oceanography, vol. 22, s. 709–722.
162. Morel A., Gordon H., 1980. Report of the Working Group on water color. Boundary Layer Meteorology, vol.18, s. 343–355.
163. Mozaffar M., Valadan Zoej M., Sahebi M., Rezaei Y., 2008. Vegetation Endmember Extraction in Hyperion Images. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7, Pekin, Chiny, s. 409–412.
164. Mularz S., 2004 Podstawy Teledetekcji. Wprowadzenie do GIS. Politechnika Krakowska, Kraków 2004.
165. Mularz S., Drzewiecki W., Hejmanowska B., Pirowski T., 2006. Wykorzystanie teledetekcji satelitarnej do badania procesu akumulacji zanieczyszczeń w rejonie Zbiornika Dobczyckiego. Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 16, s. 425–435.
166. Nakanishi T., Imai Y., Morita T., Akamatsu Y., Odagawa S., Takeda T., Kashimura O., 2012. Evaluation of wheat growth monitoring methods based on hyperspectral data of later grain filling and heading stages in western Australia. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXIX. Part B8, Melbourne, Australia, s. 295–300.
167. Narendra P., Fukunaga K., 1977. A branch and bound algorithm for feature subset selection. IEEE Transactions on Computers, vol. 26, s. 917–922.
168. Neville R., Staenz K., Szeredi T., Lefebvre J., Hauff P., 1999. Automatic endmember extraction from hyperspectral data for mineral exploration. Proceedings of 21st Canadian Symposium of Remote Sensing, s. 21–24.
169. Newnham G., Lazaridis D., Sims N., Robinson A., Culvenor D., 2012. Assessing the significance of Hyperion spectral bands in forest classification. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXIX. Part B7. Melbourne, Australia s. 147–149.
170. Olesiuk D., Zagajewski B., 2008, Wykorzystanie obrazów hiperspektralnych do klasyfikacji pokrycia terenu zlewni Bystrzanki. Teledetekcja Środowiska, vol. 39, s. 125–148.
171. Ong C. Cudahy T., Swayze G., 2003. Predicting Acid Drainage Related Physicochemical Measurements Using Hyperspectral Data. Proceedings of 3rd Workshop on Imaging Spectroscopy, Herrsching, Germany s. 363–373.
172. Osińska-Skotak K., Kruk M., Mróz M., Szumiło M., 2005, CHRIS/PROBA superspectral data for inland water quality studies. W: B. Zagajewski, M. Sobczak (red.), Imaging Spectroscopy. New quality in environmental studies, EARSeL, Warsaw University, s. 356–366.
173. Penatti N., de Almeida T., 2012. Subdivision of pantanal quaternary wetlands: MODIS NDVI timeseries in the indirect detection of sediments granulometry. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXIX. Part B8, Melbourne, Australia, s. 311–316.
174. Plaza A., Martínez P., Pérez R., 2003. Spatial/Spectral Analysis of Hyperspectral Image Data. Proceedings IEEE Workshop Advances Techn. Anal. Remotely Sensed Data, Oct. 2003, s. 298–307.
175. Price J., 1994. Band selection procedure for multispectral scanners. Applied Optics, vol. 33, s. 3281–3288.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
207
176. Pu R., 2008. An Exploratory Analysis of in Situ Hyperspectral Data for Broadleaf Species Recognition. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXVII, Part B7. Pekin, Chiny, s. 255–260
177. Pudil P., 2002. Feature selection toolbox software package. Pattern Recognition Letters, vol. 23, nr 4, s. 487–492.
178. Pudil P., Novovicova J., Kittler J., 1994a. Floating search methods in feature selection. Pattern Recognition Letters, vol.15, nr 11, s. 1119–1125.
179. Pudil P., Novovicova J., Choakjarernwanit N., Kittler J., 1994b. Feature selection based on the approximation of class densities by finite mixtures of special type. Pattern Recognition Letters, vol. 28, nr 9, s. 1389–1398.
180. Qu Z., Kindel B., Goetz A., 2003. The High Accuracy Atmospheric Correction for Hyperspectral Data (HATCH) model. IEEE Trans. Geosci. Remote Sensing, vol. 41, s. 1223–1231.
181. Raymer M., Punch W., Goodman E.., 2000. Dimensionality reduction using genetic algorithms. IEEE Transactions Evolutionary Computation, vol. 4, nr 2, s. 164–171.
182. Rast M., Hook C., Elvidge C., Alley R., 1991. An evaluation of techniques for extraction of mineral absorption feature from high spectral resolution remote sensing. Photogrammetric Engineering and Remote Sensing, vo.57 (10), s. 1303–1309.
183. Research Systems Inc (RSI), 2003. ENVI User’s Guide, Research Systems Inc.
184. Reulke R., Reulke N., Herbert J., 1994. Numerical simulation system for generation of image data from spaceborne imaging sensors for planetary exploration. Recent Advances in Remote Sensing and Hyperspectral Remote Sensing Proceedings of SPIE, vol. 2318.
185. Riaza A., Carrere V., 2009. Monitoring of superficial contamination produced by massive sulphide mine waste along the Odiel River (Andalusia, Spain) using hyperspectral data. IEEE International Geoscience and Remote Sensing Symposium, IGARSS 2009. vol. 3, s. III-1071 - III-1074.
186. Richards J., 1993. Remote Sensing Digital Image Analysis. An Introduction. Second Revised and Enlarged Edition. Wyd. 2, Springer Verlag, Berlin-Heidelberg-New York.
187. Richards J., 1999. Remote Sensing Digital Image Analysis, Springer-Verlag, Berlin.
188. Richards J., Jia X., 2006. Remote Sensing Digital Image Analysis. An Introduction. Wyd.4, Springer-Verlag Berlin Heidelberg 2006.
189. Richter K., Vuolo, F., D’Urso, G., 2008. Leaf Area Index And Surface Albedo Estimation: Comparative Analysis From Vegetation Indexes To Radiative Transfer Models. IEEE, IGARSS 2008.
190. Richter, N., Kaufmann, H.J., Staenz, K., 2004, Hyperspectral TRWIS III data to delineate the Kam Kotia Mine tailings areas (Ontario, Canada). Remote Sensing for Environmental Monitoring, GIS Applications, and Geology IV, edited by Ehlers, M., Posa, F., Kaufmann, H.J., Michel, U., De Carolis, G., Proceedings of SPIE Vol. 5574, (SPIE Bellingham, WA, 2004), s. 214–223.
191. Richter N., Staenz K., Kaufmann H., 2008. Spectral unmixing of airborne hyperspectral data for baseline mapping of mine tailings areas. International Journal of Remote Sensing, vol. 29, nr 13, s. 3937–3956.
192. Richter R., 1996. Atmospheric correction of DAIS hyperspectral image data. Computers & Geosciences, vol. 22, s. 785–793.
193. Richter R., 1997. Correction of atmospheric and topographic effects for high spatial resolution satellite imagery. International Journal of Remote Sensing, vol.18, s. 1099–1111.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
208
194. Richter R., 2006. Atmospheric/Topographic Correction for Airborne Imagery (ATCOR-4 Podręcznik użytkownika, Ver. 4.1) http://www.rese.ch/pdf/atcor4_manual.pdf.
195. Rogan J., Chen D., 2004. Remote sensing technology for mapping and monitoring land-cover and land-use change. Progress in Planning, vol. 61, s. 301–325.
196. Rundquist D., Han L., Schalles J., Peake J., 1996. Remote measurement of algal chlorophyll in surface waters: the case for the first derivative of reflectance near 690 nm. Photogrammetric Engineering and Remote Sensing, vol. 62, s. 195–200.
197. Russ J., 1999. The Image Processing Handbook. Wydanie trzecie, CRC Press LLC.
198. Schalles J., Gitelson, A., Yacobi Y., Kroenke A., 1998. Estimation of chlorophyll a from time series mesurements of high spectral resolution reflectance in an eutrophic lake. Journal of Phycology, vol. 34, s. 383–390.
199. Schalles J., Yacobi Y., 2000. Remote detection and seasonal patterns of phycocynin, carotenoid and chlorophyll pigments in eutrophic waters. Archive for Hydrobiologie- Special Issues Advancements in Limnology, vol. 55, s. 153–168.
200. Schläpfer D., Böerner A., Schaepman M., 1999. The potential of spectral resampling techniques for the simulation of apex imagery based on aviris data. Summaries of the Eighth Annual JPL Airborne Earth Science Workshop (CA), s. 377–384.
201. Schowengerdt R., 2007. Remote Sensing. Models and Methods for Image Processing. Elsevier, USA, 2007.
202. Serpico S., Moser G., 2007. Extraction of Spectral Channels from Hyperspectral Images for Classification Purposes. IEEETransactions On Geoscience And Remote Sensing, vol. 45, nr 2, s. 484–495.
203. Shang M., Staenz K., Levesque J., Howarth P., Morris B., Lanteigne L., 2002. Mine tailings characterization using PROBE data (preliminary results). IEEE International Geoscience and Remote Sensing Symposium, IGARSS 2002, vol.5, s. 2921–2923.
204. Siedlecki W., Sklansky J., 1988. On automatic feature selection. International Journal of Pattern Recognition and Artificial Intelligence, vol. 2, nr 2, s. 197–210.
205. Siedlecki W., Sklansky J., 1989. A note on genetic algorithms for large-scale feature selection. Pattern Recognition Letters, vol. 10, s. 335–347.
206. Silva L., Hoffer R., Cipra J., 1971. Extended wavelength field spectroradiometry. Proceedings 7th International Symposium on Remote Sensing of Environment, Ann Arbor, s. 1509-1518.
207. Singer R., 1981. Near-Infrared spectral reflectance of mineral mixtures: systematic combination of pyroxenes, olivine and iron oxides. Journal of Geophysical Research, vol. 86, s. 7967-7982.
208. Smailbegovic A., Michalski J., Rael A., 2004. Classification of geologic features in the open pit mines using high resolution HyperSpecTir imagery. IEEE Proceedings of Aerospace Conference, 2004.
209. Smith M., Adams J., 1985. Interpretation of AIS images of Curpite, Nevada using constraints of spectral mixtures. Proceedings, AIS Workshop 8–10 April, JPL Publication 85–41, Pasadena, s. 62–67.
210. Sobczak M., Folbrier A., Krówczyńska M., Pabjanek P., Wrzesień M., Zagajewski B., 2005. Assessment of the potential of hyperspectral data and techniques for mountain vegetation analysis. Proceedings of 4th EARSeL Workshop on Imaging Spectroscopy, Warszawa 2005.
211. Sommer T., Sommer S., 2004. Use of Airborne Hyperspectral Data to Estimate Residual Heavy Metal Contamination and Acidification Potential in the Guadiamar Floodplain Andalusia, Spain after the
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
209
Aznacollar Mining Accident Kemper. Remote Sensing for Environmental Monitoring, GIS Applications, and Geology IV. Proceedings of SPIE-The International Society for Optical Engineering, vol. 5574, s. 224–234.
212. Starmach J., Mazurkiewicz-Boroń G., 2000. Zbiornik Dobczycki. Ekologia – Eutrofizacja – Ochrona. Zakład biologii wód im. Karola Starmacha PAN, Kraków 2000.
213. Steven D., Malthus T., Baret F., Xud H., Chopping M., 2003. Intercalibration of vegetation indices from different sensor systems. Remote Sensing of Environment, vol. 88, s. 412–422.
214. Stumpf R., 2001. Applications of satellite ocean color sensors for monitoring and predicting harmful algal blooms. Human and Ecological Risk Assessment, vol. 7, s. 1363–1368.
215. Su H., Sheng Y., Du P., 2008. A New Band Selection Algorithm for Hyperspectral Data Based On Fractal Dimension. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7. Pekin, Chiny, s. 279–284.
216. Su L., Liu X., Wang X, Jiang N., 2008. Dimensional Reduction in Hyperspectral Images by Danger Theory Based Artificial Immune System. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. XXXVII. Part B7.Pekin, Chiny, s. 341–346.
217. Sun Y., Liu X., Wu Y., Liao C., 2008. Identifying Hyperspectral Characters of Wetland Species Using In-Situ Data. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXVII, Part B7. Pekin, Chiny, s. 459–466.
218. Swain P., Davis S., 1978. Remote Sensing: the Quantitative Approach. New York: McGraw-Hill.
219. Swayze G., Smith K., Clark R, Sutley S., Pearson R., Vance J., Hageman P., Briggs P., Meier A., Singleton M., Roth S., 2000. Using imaging spectroscopy to map acidic mine waste. Environmental Science and Technology, vol. 34, s. 47–54.
220. Teillet P., Staenz K., William D., 1997. Effects of spectral, spatial, and radiometric characteristics on remote sensing vegetation in dices of forested regions. Remote Sensing of Environment, vol.61, nr 1, s.139–149.
221. Thiemann S., Kaufmann H., 2002. Lake water quality monitoring using hyperspectral airborne data – a semiempirical multisensor and multitemporal approach for the Mecklenburg Lake District, Germany. Remote Sensing Environment, vol. 81, s. 228–237.
222. Tilley D., Ahmed M., Sonc J.,Badrinarayanan H., 2003. Hyperspectral reflectance of emergent macrophytes as an indicator of water column ammonia in an oligohaline, subtropical marsh. Ecological Engineering, vol. 21, s. 153–163.
223. Tou J., Gonzalez R., 1974. Pattern Recognition Principles, Addison-Wesley Publishing Company, 1974.
224. Townshend J., Huang C., Kalluri S., DeFries R., Liang S., 2000. Beware of per-pixel characterization of land cover. International Journal of Remote Sensing, vol. 21, nr 4, s. 839-843.
225. van der Meer F., van Dijk P., Gangopadhyay P., Hecker Ch., 2004.Remote-sensing GIS based investigations of coal fires in northern China; global monitoring to support the estimation of CO2 emissions from spontaneous combustion of coal. Proceeding of the 1st Asian Space Conference ASC, Thailand, 2004.
226. van der Meer F., 1994. Calibration of Airborne Visible/Infrared Imaging Spectrometer Data (AVIRIS) to Reflectance and Mineral Mapping in Hydrothermal Alteration Zones: An Example from the Cuprite Mining District. Geocarto International, vol. 3, s. 23–37.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
210
227. van Wagtendonk, J., Root R., 2000. Hyperspectral analysis of multi-temporal Landsat TM data for mapping fuels in Yosemite National Park. Proc. Joint Fire Sci. Conf. and Workshop, vol. 1, s. 224–228
228. van Wagtendonk, J., Root R., Key C., 2004. Comparison of AVIRIS and Landsat ETM+ detection capabilities for burn severity. Remote Sensing of Environment, vol. 92, nr 3, s. 397–408.
229. Varshney P., Arora M., Rao R., 2006. Signal Processing for Hyperspectral Data. Proceedings IEEE International Conference ICASSP 2006, Acoustics, Speech and Signal Processing, vol. 5, s. V–V.
230. Verikas A., Bacauskiene M., 2002. Feature selection with neural networks. Pattern Recognition Letters, vol. 23, nr 11, s. 1323–1335.
231. Vermote E., Tanrè D., Deuze J., Herman M., Morcette J., 1997. Second Simulation of the Satellite Signal in the Solar Spectrum, 6S: an overview. IEEE Geoscience and Remote Sensing, vol.35, s. 675–686.
232. Verzakov S., Paclik P., Duin R., 2004. Feature Shaving for Spectroscopic Data. Lecture Notes in Computer Science, Springer-Verlag, vol. 3138, s. 1026–1033.
233. Vos R., Hakvoort J., Jordans R., Ibelings B., 2003. Multiplatform optical monitoring of eutrophication in temporally and spatially variable lakes. Science of the Total Environment, vol. 312, s. 221–243.
234. Wagner A., Mazur R., Mazur J., 2008. Możliwości turystycznego wykorzystania Zbiornika Dobczyckiego i rzeki raby w świetle pilotażowych badań ankietowych. Infrastruktura i ekologia terenów wiejskich, nr 5/2008, s. 117–127.
235. Wang J., Chang C., 2006. Independent component analysis-based dimensionality reduction with applications in hyperspectral image analysis. IEEE Trans. Geosci. Remote Sens., vol. 44, nr 6, s. 1586–1600.
236. Wang L., Shen Ch., Hartley R., 2011. On the Optimality of Sequential Forward Feature Selection Using Class Separability Measure. IEEE Conference Publications Digital Image Computing Techniques and Applications (DICTA), s. 203–208.
237. Wang S., Yan F., Zhou Y., Zhu L., Wang L., Jiao Y., 2005. Water quality monitoring using hyperspectral remote sensing data in Taihu Lake China. Geoscience and Remote Sensing Symposium, vol. 7, s. 4553–4556.
238. Wang X., Liu X., Su L., Jiang N., 2008. ICA Based Model for Extracting Information of Contaminative Soil from Hyperion Data. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXVII, Part B7. Pekin, Chiny, s. 335–340.
239. Warner T., Steinmaus K., Foote H., 1999. An evaluation of spatial autocorrelation feature selection. International Journal of Remote Sensing, vol. 20, nr 8, s. 1601–1616.
240. Wennzhi L., Pizurica A., Philips W., Youguo Pi, 2011. Feature extraction for hyperspectral images based on semi-supervised local discriminant analysis. IEEE Conference Publications Urban Remote Sensing Event (JURSE), s. 401–404.
241. Wężyk P., Wertz B., Waloszek A., 2003. Skaner hiperspektralny AISA (Airborne Imaging Spectrometer for Applications) jako narzędzie pozyskiwania informacji o ekosystemie leśnym. Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 13b, s. 485–496.
242. White D., Williams M., Barr S., 2008. Detecting Sub-Surface Soil Disturbance Using Hyperspectral First Derivative Band Ratios of Associated Vegetation Stress. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXVII, Part B7. Pekin, Chiny, s. 243–248.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
211
243. White D., Lewis M., 2012. Mapping the wetland vegetation communities of the australian great artesian basin springs using sam, mtmf and spectrally segmented pca hyperspectral analyses. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. vol. XXXIX. Part B7. Melbourne, Australia, s. 163–165.
244. Winter, M., 1999. Fast Autonomous Spectral Endmember Determination In Hyperspectral Data. Proceedings of the Thirteenth International Conference on Applied Geologic Remote Sensing, vol. 11, s. 337–344, Vancouver, B.C., Kanada, 1999.
245. Wittamperuma I., Hafeez M., Pakparvar M., Louis J., 2012. Remote-sensing-based biophysical models for estimating lai of irrigated crops in Murry Darling Basin. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXIX. Part B8, Melbourne, Australia, s. 367–373.
246. Xiaogang N., Yonghong Z., 2008. An CBRSIR Features Compression Approach Based on DPSO and SVM. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 269–272.
247. Yang G., Yu X., Zhou X., 2008. Hyperspectral Image Feature Extraction Based on Generalized Discriminant Analysis. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 285–290.
248. Yang K., Chen Y., Guo D., Jiang J., 2006. Spectral analysis and information extraction of crop disease by multi-temporal hyperspectral images. Proceedings of SPIE, vol. 6419, Geoinformatics 2006.
249. Yu B., Backer S., Scheunders P., 2002. Genetic feature selection combined with composite fuzzy nearest neighbor classifiers for hyperspectral satellite imagery. Pattern Recognitio. Letters, vol. 23, nr 1–3, s. 183–190.
250. Yu B., Yuan B., 1993. A more effcient branch and bound algorithm for feature selection. Pattern Recognition Letters, vol. 26, nr 6, s. 883–889.
251. Yuanlei H., Daizhi L., Shihua Y., 2010. Recursive Spectral Similarity Measure-Based Band Selection for Anomaly Detection in Hyperspectral Imagery. Journal of Optics vol. 13, nr 1.
252. Yue Y, Wang K., Chen Z., Yu Y., 2008. Extraction of Karst Rocky Desertification Information from EO-1 Hyperion Data. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 467–470.
253. Yueting X., Jinling S., Jindi W., 2008. The Temporal Changing Information Extraction on Spectral Reflectance and Growth Parameters of Typical Crops. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 455–460.
254. Zabcic N., Ong C., Müller A., Rivard B., 2005. Mapping pH from airborne hyperspectral data at the Sotiel-Migollas mine Calanas, Spain. Proceedings 4th EARSeL Workshop on Imaging Spectroscopy, 27-29 kwietnia 2005, Warszawa, Polska.
255. Zagajewski B., Jarocińska A., Oleksiuk D., 2009. Metody i techniki badań geoinformatycznych. Wydział Geografii i Studiów Regionalnych UW. Warszawa. Wydanie elektroniczne http://telegeo.wgsr.uw.edu.pl/bz/Zagajewski_Jarocinska_Olesiuk_cpo_2.pdf.
256. Zagajewski B., 2010. Ocena przydatności sieci neuronowych i danych hiperspektralnych do klasyfikacji roślinności Tatr Wysokich. Warszawa: Klub Teledetekcji Środowiska Polskiego Towarzystwa Geograficznego.
257. Zanoni V., Davis B., Ryan R., Gasser G., Blonski S., 2002. Remote Sensing Requirements Development: A Simulation-Based Approach. ISPRS Commission I Symposium, Denver 2002.
Analiza porównawcza metod przetwarzania danych hiperspektralnych o zróżnicowanej rozdzielczości
212
258. Zhao H., Tang Z., Yang B., Zhao M., 2008. Agriculture Drought and Forest Fire Monitoring in Chongqing City With MODIS and Meteorological Observations. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 421–428.
259. Zhang L., Zhong Y., Huang B., Gong J., Li P., 2007. Dimensionality Reduction Based on Clona Selection for Hyperspectral Imagery. IEEE Transactions On Geoscience And Remote Sensing, vol. 45, nr 12, s. 4172–4186.
260. Zhang J., Staenz K., Eddy P., Rochdi N., Rolfson D., Smith A., 2008. Analysis of Spaceborne Hyperion Imagery for the Estimation of Fractional Cover of Rangeland Ecosystems. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 377–382.
261. Zhu Z., Yang L., Stehman S., Czaplewski R., 2000. Accuracy assessment for the U.S. Geological Survey regional land-cover mapping programme: New York and New Jersey region. Photogrammetric Engineering and Remote Sensing, vol. 66, s. 1425–1435.
262. Zhuo L., Zheng J., Wang F., Li X., Ai B., Qian J., 2008. A Genetic Algorithm Based Wrapper Feature Selection Method for Classification of Hyperspectral Images Using Support Vector Machine. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII. Part B7. Pekin, Chiny, s. 397–402.
263. Zimba P., Gitelson A., 2006. Remote estimation of chlorophyll concentration in hyper-eutrophic aquatic systems: Model tuning and accuracy optimization. Aquaculture, vol. 256, s. 272–286.
Źródła on-line:
264. AIG, 2007 http://www.aigllc.com/acorn/intro.asp
265. Dyrektywa 2006/21/WE Parlamentu Europejskiego i Rady z dnia 15 marca 2006 r. w sprawie gospodarowania odpadami pochodzącymi z przemysłu wydobywczego oraz zmieniająca dyrektywę 2004/35/WE-Oświadczenie Parlamentu Europejskiego, Rady i Komisji: http://eur-lex.europa.eu/
266. ESA, 2012: http://www.esa.int
267. eoPortal, 2012: http://www.eoportal.org
268. DLR, 2012: http://www.dlr.de
269. Geoportal, 2012: http://mapy.geoportal.gov.pl/wss/service/img/guest/ORTO/MapServer/WMSServer
270. Jezioro Dobczyckie, 2013: http://jezioro-dobczyckie.pl
271. JPL, 2012: http://www.jpl.nasa.gov
272. MicroImages, 2007: http://www.microimages.com
273. Przyroda ziem wielicko-limanowskich, 2013: http://www.pzwl.republika.pl
274. ReSe Application Schlapfer, 2007: http://www.rese.ch/parge/index.html
275. USGS, 2012: http://eo1.usgs.gov
276. Wikipedia, 2012: http://wikipedia.org
Top Related