Post on 28-Feb-2019
Prace doktorantów Wydziału Elektrotechniki i Informatyki Politechniki Lubelskiej
Wybrane zagadnienia z zakresu elektrotechniki i inżynierii biomedycznej
redakcjaRóża Dzierżak Żaklin Maria Grądz
Lublin 2018
Autor ty
tuł
Prace doktorantów Wydziału Elektrotechniki i Informatyki Politechniki Lubelskiej
Wybrane zagadnienia z zakresu elektrotechniki i inżynierii biomedycznej
Politechnika Lubelska Wydział Elektrotechniki I Informatyki ul. Nadbystrzycka 38 A 20-618 Lublin
Prace doktorantów Wydziału Elektrotechniki i Informatyki Politechniki Lubelskiej
Wybrane zagadnienia z zakresu elektrotechniki i inżynierii biomedycznej
pod redakcją Róży Dzierżak
Żaklin Marii Grądz
Wydawnictwo Politechniki Lubelskiej Lublin 2018
XX Jubileuszowe Warsztaty Doktoranckie WEiI PL 2-3 lutego 2018
dr hab. Tomasz Zientarski, prof. PL – Przewodniczący Komitetu Naukowego dr hab. inż. Jerzy Montusiewicz, prof. PL – Wiceprzewodniczący Komitetu
prof. dr hab. inż. Piotr Kacejko – Rektor PL dr hab. inż. Anna Halicka, prof. PL – Prorektor ds. współpracy z otoczeniem
społeczno-biznesowym dr hab. inż. Paweł Droździel, prof. PL – Prorektor ds. studenckich
prof. dr hab. inż. Henryka Stryczewska – Dziekan WEiI dr hab. inż. Wojciech Jarzyna, prof. PL – Kierownik Studiów Doktoranckich
prof. dr hab. inż. O. Hotra prof. dr hab. M. Kosmulski prof. dr hab. inż. J. Sikora prof. dr hab. inż. A. Wac-Włodarczyk prof. dr hab. inż. W. Wójcik dr hab. inż. H. Banach, prof. PL dr hab. inż. D. Czerwiński, prof. PL dr hab. inż. R. Goleman, prof. PL dr hab. E. Jartych, prof. PL
dr hab. inż. P. Kisała, prof. PL dr hab. inż. J. Kolano, prof. PL dr hab. inż. P. Miller, prof. PL dr hab. inż. J. Partyka, prof. PL dr hab. inż. J. Pawłat, prof. PL dr hab. inż. J. Sikora, prof. PL dr hab. inż. P. Surdacki, prof. PL dr hab. inż. P. Węgierek, prof. PL dr hab. P. Żukowski, prof. PL
Recenzenci
prof. dr hab. inż. P. Kacejko dr hab. inż. P. Miller, prof. PL prof. dr hab. inż. O. Hotra dr hab. inż. T. Kołtunowicz, prof. PL
dr hab. inż. J. Kolano, prof. PL dr inż. J. Szulżyk-Cieplak dr inż. W. Surtel
Redakcja nie odpowiada za treści zawarte w publikacji
Publikacja wydana za zgodą Rektora Politechniki Lubelskiej
© Copyright by Politechnika Lubelska 2018
ISBN: 978-83-7947-328-1
Wydawca: Wydawnictwo Politechniki Lubelskiej ul. Nadbystrzycka 36C, 20-618 Lublin tel. (81)538-46-59, www. biblioteka.pollub.pl
5
Spis treści
Magdalena Michalska
Wielowarstwowe modele ludzkiej skóry ...........................................................................7
Magdalena Michalska
Parametry i właściwości optyczne skóry ........................................................................ 19
Katarzyna Baran
Rozpoznawanie emocji za pomocą technologii:
elektroencefalografia (EEG), motion capture i wirtualna rzeczywistość (VR) ........................ 32
Magdalena Michalska
Wybrane metody segmentacji obrazów medycznych ...................................................... 47
Róża Dzierżak
Zastosowanie deep learningu w analizie obrazów medycznych ...................................... 59
Magdalena Michalska
Atlasy mózgu we wspieraniu działań diagnostycznych i neurochirurgicznych .................... 70
Magdalena Michalska
Modele układu krwionośnego człowieka ........................................................................ 80
Magdalena Michalska
Wykorzystanie spektroskopii w badaniach nad tkankami .............................................. 92
Dawid Zarzeczny
Kondensatory grzebieniowe z miedzi do badania
parametrów elektrycznych komórek ............................................................................. 104
Dawid Zarzeczny
Kondensatory grzebieniowe z tytanu do monitorowania wzrostu komórek ................. 112
Żaklin Maria Grądz, Joanna Styczeń
Wybrane problemy diagnostyki procesu spalania z wykorzystaniem
sztucznych sieci neuronowych .................................................................................................. 120
Joanna Styczeń, Danuta Barnat-Hunek, Arkadiusz Urzędowski
Analiza właściwości fizycznych hydrofobizowanych lekkich
zapraw z dodatkiem zeolitu ............................................................................................. 130
Rafał Kwoka, Janusz Kozak, Michał Majka
Badania rezystancji połączeń taśm HTS 2G stosowanych
w nadprzewodnikowych ogranicznikach prądów zwarciowych ................................... 142
7
* Magdalena Michalska
Wielowarstwowe modele ludzkiej skóry
1. Wstęp
Spektrofotometria jest obiecującym narzędziem do nieinwazyjnego badania
właściwości optycznych ludzkiej skóry. Na podstawie analizy widm
spektrofotometrycznych można opisać transport światła przez tkanki dla każdej
warstwy ludzkiej skóry i używając modeli matematycznych przedstawić jej
właściwości optyczne. Wyznacza się również transmitancję, współczynniki
absorpcji, rozproszenia i załamania światła oraz koncentrację wybranych
elementów budujących.
W celu uproszczenia i dokładniejszego poznania ludzkiej skóry
przedstawiana jest ona za pomocą różnego rodzaju modeli. Na początku
stworzono proste modele jednowarstwowe. Kolejnym krokiem były modele
dwuwarstwowe, gdzie analizowano warstwy naskórka i skóry z jednorodnym
rozkładem krwi. Naukowcy zajmowali się wielowarstwowymi modelami,
rozbudowano pięciowarstwowy model skóry dodając warstwę podskórną pod
faktycznym modelem. Baranoski i Krishnaswamy [1] badali pięciowarstwowy
model pod kątem pigmentacji skóry. Bardziej złożony model skóry uwzględniał
z kolei sześć warstw. Siedmiopoziomowy model i symulację odbicia spektralnego
skóry opracowali Meglinski i Matcher [2]. Jednak ich algorytm przyjmuje
niezależny od długości fali współczynnik rozproszenia i parametr rozpraszania
anizotropii, a zatem jest nadal niezadowalający dla realistycznej symulacji
spektrum widmowego skóry [3,4]. Badania spektrofotometryczne dostarczają
wielu informacji na temat zawartości wody, melaniny, tłuszczu, bilirubiny,
keratyny oraz beta karotenu. W skórze współczynniki absorpcji są różne dla
każdego ze składników ludzkiej skóry i zależą od długości fali użytej
w badaniach. Najczęściej określanymi są współczynniki absorpcji melaniny,
oksy- i deoksyhemoglobiny [5].
Niniejsza praca zawiera przegląd dostępnych obecnie modeli
wielowarstwowych skóry począwszy od struktur dwuwarstwowych do
rozbudowanych modeli dziewięciowarstwowych.
2. Model dwuwarstwowy
Naukowcy w różny sposób starają się zinterpretować zachodzące w skórze
zjawiska optyczne. W pracy [6] przedstawiony został model określający skórę
*magdalena.michalska@pollub.edu.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
8
jako płaszczyznę równoległą posiadającą dwie warstwy, które są zasadniczo
różne pod względem składu i optycznych właściwości. Górną warstwą jest
naskórek (epidermis) o grubości 50–150 μm. Kolejna niższa warstwa to skóra
właściwa (dermis), która pod względem optycznym jest uważana za
nieskończenie gruby element. Współczynniki pochłaniania objętościowego
epidermy ke i dermis kd są symulowane jako kombinacje liniowe współczynników
absorpcji bezkrwistej tkanki kt [7], melaniny km [8] i krwi kbl. W modelu
uwzględniona została również zawartość objętościowa melaniny w naskórku
fm = 0,5–20%, zawartość objętościowa naczyń krwionośnych w skórze właściwej
(dermisie) fbl = 0,2–7% i korekta α uwzględniająca wpływ zmiany absorpcji
światła przez naczynia krwionośne [9, 10].
)()1()()( tmmme kfkfk (1)
)()1()()( tblblbld kfkfk (2)
Współczynnik absorpcji krwi kbl może być reprezentatywny jako suma
współczynników absorpcji oksyhemoglobiny i deoksyhemoglobiny.
W pracy [3] zastosowany model skóry jest odwrotny do wcześniej opisanego
przez Spotta [11], Randeberga [12–13] oraz Svaasanda [14]. Składa się on
z dwóch płaskich warstw. Pierwsza warstwa reprezentuje naskórek (epidermis).
To warstwa o skończonej grubości zawierająca melaninę i niewielką ilość krwi.
Krew jest dodawana do warstwy naskórka w celu skorygowania zmian głębokości
brodawek. Druga warstwa jest jednorodną warstwą skórną zawierającą krew
i inne chromofory równomiernie rozmieszczone w całej objętości.
Zastosowany model absorpcji melaniny [11] jest podany jako:
46,3
694,,,694
)(
nmmama
(3)
Zawartość melaniny oznaczana jest jako absorpcja melaniny przy długości fali
694 nm, absorpcja we krwi powstaje z odtlenionych i utlenionych hemoglobin
[15–16]. Zależy także od frakcji objętości krwi (BVF) i nasycenia tlenem.
W modelu widma absorpcyjne są mnożone przez ich objętościowe frakcje
i zsumowane, aby uzyskać całkowitą długość fali zależną od współczynnika
absorpcji skórnej, μa,d(λ).
Na Rys. 1 przedstawiony został dwuwarstwowy model skóry nałożony na
model trójwarstwowy. Dwuwarstwowy model skóry jest zbliżony do właściwości
wielu niejednorodnych warstw. Uwzględniona została warstwa (s.i.), w której
dystrybuowane są właściwości pochodne równomiernie w całej warstwie.
9
Składowe odbicia rozproszonego widma zawierają informacje o różnych
głębokościach penetracji promieni świetlnych przez skórę [17].
Rys. 1. Model dwuwarstwowy skóry
Źródło: Bjorgan A., Milanic M., Randeberg L.L., Estimation of skin optical parameters for real-
time hyperspectral imaging applications, Journal of biomedical optics, 19(6), 2014.
Model przedstawia również wybrane przedziały dopasowania: 510–590 i 690–
820 nm. Światło penetruje bardziej powierzchownie przy krótszych falach
z powodu wysokiej absorpcji hemoglobiny i melaniny [18–20]. Autor modelu
określił jako typowe średnie głębokości penetracji optycznej przez skórę właściwą
na około 200 μm dla 510–590 nm i ponad 500 μm dla 690–820 nm. Ustalonymi
parametrami w wybranym modelu skóry są współczynniki rozproszenia grubości
warstw (100 μm dla naskórka).
3. Modele trójwarstwowe
Skóra ludzka jest strukturą wielowarstwową, może być podzielona na dwie
warstwy: naskórek i skórę właściwą. Poniżej skóry właściwej stwierdzono
podskórną warstwę tłuszczu. Naskórek może być dalej podzielony na kilka
podwarstw. Wśród nich wyróżnia się: warstwę rogowa, lucidum, warstwę
ziarnistą, spinosum i germinativum.
10
Sposób, w jaki skóra odbija i przepuszcza światło o różnej barwie czy długości
fal są określone przez nieodłączne właściwości optyczne warstwy skóry. Każda
z tych warstw ma różne wrodzone właściwości optyczne, głównie ze względu na
różnice w stężeniu melaniny, krwi i keratyny. Własne właściwości optyczne
konkretnej warstwy można przedstawić za pomocą zestawu liczb. Należą do nich
głębokość optyczna, pojedyncze rozproszenie albedo, znormalizowana funkcja
rozproszenia objętości. Wszystko zależy od długość fali. Głębokość optyczna
warstwy (τ na rys. 2) jest zintegrowana współczynnikiem tłumienia wiązki
prostopadłej do tej warstwy. Światło może zostać osłabione przez absorpcję lub
rozproszone w innym kierunku.
Rys. 2. Trójwarstwowy model skóry
Źródło: Zhao L., Stamnes J.J., Stamnes K., Moan J., The optics of human skin: Aspects
important for human health, Solar Radiation and Human Health, 1, 35–46, 2008.
Na rysunku 2 przedstawiona została wiązka wejściowa promieniowania
I0 wraz z wiązką rozproszoną Ir i transmitowaną Ia. Uwzględnione zostały
współczynniki: załamania światła n1 = 1,0 i n2 = 1,36 oraz właściwości optyczne
poszczególne warstwy skóry oznaczone jako τ, a, i g.
Model uwzględnia głębokość optyczną (τ) warstwy, która jest zintegrowanym
współczynnikiem tłumienia wiązki, pojedynczy albedo rozproszenia (a) dający
prawdopodobieństwo, że a zdarzenie rozproszenia jest zdarzeniem rozproszonym,
funkcja normalizowanego rozpraszania objętości (g) dająca prawdopodobieństwo
rozproszenia w określonym kierunku.
11
Stosuje się również inny trójwarstwowy model – pokazano na rysunku 3.
Model uwzględnia cienką warstwę sebum pokrywającą naskórek skóry, którego
głębokość wynosi 0,1 cm. Naskórek jest najcieńszą warstwą skóry o grubości
ustalonej – maksymalnie 0,1 cm. Zawiera określone cząsteczki pigmentu
melaniny, które działają jako absorbenty promieniowania zależnie od długości
fali. Dla jasnych typów skóry istnieje mniejsze wchłanianie z powodu małej ilości
melaniny. Natomiast dla ciemniejszych karnacji wchłanianie zwiększa się, gdyż
skóry te zawierają więcej melaniny.
Rys. 3. Model trójwarstwowy skóry
Źródło: So-Ling Ng C., Li L., A Multi-Layered Reflection Model of Natural Human
SkinProceeding, Computer Graphics International 2001.249–256, IEEE Conferences, 2001
4. Modele czterowarstwowe
Widmowe spektrum symulowane jest również za pomocą czterowarstwowego
modelu uwzględniając metodę Monte Carlo [5]. Model został użyty do
przetestowania niezawodności odwrotnej dyfuzji. W modelu Monte Carlo skóra
właściwa została podzielona w dwie warstwy, pierwsza reprezentująca skórę
brodawkowatą oraz druga skóra siatkowa. Czwarta warstwa reprezentowała
bezkrwistość to warstwa podskórna zawierająca 40% tłuszczu i 60% absorpcji tła.
Absorpcja tła wynosi [21]:
)82.1682.0(100)( 5,80/)400(1
,
nmnm
ba em (4)
Współczynnik załamania światła n ustawiono na 1,4 dla wszystkich warstw.
Dermis modelowano za pomocą krwi i stałej absorpcji tła. Zredukowany
współczynnik rozproszenia dla skóry właściwej uproszczono by ułatwić
zastosowanie odwrotnego modelu dyfuzji. Przeprowadzona symulacja sprawdza
dokładność parametrów optycznych podanych przez odwrotny model dyfuzji
12
i testuje zastosowanie dyfuzji jednowymiarowej. Do symulacji współczynnika
odbicia zastosowano model widma 1-D Monte Carlo [22]. Melanina w naskórku
i BVF w powierzchniowej warstwie skórna była zróżnicowana. Model
odwrotności został przetestowany pod kątem możliwość oszacowania zmian tych
parametrów i stabilności innych szacowanych parametrów (natlenianie i BVF
w głębszej warstwie dermisu). Model używany jest do symulacji zjawisk odbicia
zachodzących w ludzkiej skórze.
Rys. 4. Model czterowarstwowy skóry zasymulowany przy użyciu metody Monte Carlo
Źródło: Bjorgan A, Milanic M, Randeberg LL., Estimation of skin optical parameters for real-
time hyperspectral imaging applications, J Biomed Opt. 19(6), 2014.
5. Model pięciowarstwowy
W modelu zaprezentowanym w pracy [23] uwzględniono skończony rozmiar
wiązki padającej oraz odbicie i załamanie światła na styku między warstwami.
Użyte podczas badan nieinwazyjne dla tkanki promieniowanie laserowe
o długościach fali 633 i 337 nm. Pierwsza metoda napromieniowania znana jest
jako laseroterapia intensywna, drugi a zaś stosowana jest w laseroterapii
łuszczycy i innych chorób skóry. Autorzy artykułu zaproponowali użycie modelu
pięciowarstwowego skóry uwzględniając naskórek i skórę właściwą.
Dodatkowym elementem jest wydzielenie kolejnej warstwy z dermisu (skóry
właściwej) warstwy skóry powierzchownej. Została ona utworzona jako nowa
warstwa skóry ze względu na inne właściwość optyczne wynikające z obecności
13
w niej dużej liczby drobnych sieci naczyń krwionośnych. Rysunek 5 przedstawia
pięciowarstwowy model ludzkiej skóry. Wybrane z dostępnej literatury [24–26]
parametry optyczne tkanek współczynnik absorpcji (μα), współczynnik
rozproszenia (μs), współczynnik załamania ośrodka (n), grubość próbki (d)
w centymetrach przedstawiono w Tabeli 1.
Rys. 5. Pięciowarstwowy model skóry
Źródło: Tuchin V.V., Light scattering study of tissues, Physics-Uspekhi, 40(5), 495–515, 1997.
Tabela 1. Parametry optyczne warstw skóry w modelu pięciowarstwowym dla wybranych
długości fali.
Warstwa λ [nm] μ μ n d
epidermis 337
633
32
4,3
165
107 1,5 0,01
I dermis 337
663
23
2,7
227
187 1,4 0,02
warstwa skóry
powierzchniowej
337
633
40
3,3
246
192 1,4 0,02
II dermis 337
633
23
2,7
227
187 1,4 0,09
warstwa skóry
zagłębionej
337
633
46
3,4
253
194 1,4 0,06
Źródło: Tuchin V. V., Yaroslavsky I. V., Tissue optics, light distribution, and spectroscopy,
3180 Optical Engineering, 33(10), 1994.
14
6. Modele sześcio-, siedmio- i dziewięciowarstwowe
Wielu naukowców buduje modele skóry składające się z większej ilości
warstw sześciu, siedmiu czy nawet dziewięciu. Model sześciowarstwowy skóry
do symulacji MCML jest używany w wielu pracach [27–29]. Strukturę modelu
pokazano na rysunku 6. Parametry modelu składają się z wartości, które określono
na podstawie stężenia najważniejszych chromoforów skóry. W przedstawionym
modelu uwzględniona została przykładowa droga promieni świetlnych
w poszczególnych z warstw skóry. Model zawiera warstwę epidermie, I dermis,
warstwę skóry podpowierzchniowej, II dermis, warstwę skóry zagłębionej
i ostatnią z warstw warstwę podskórną. Dla każdej z warstw na osi Z oznaczona
została grubość w milimetrach.
Rys. 6. Model sześciowarstwowy skóry.
Źródło: Välisuo P., Mantere T., Alander J., Solving optical skin simulation model parameters using
genetic algorithm, 2nd International Conference on BioMedical Engineering and Informatics, 376–380,
2009.
15
W Tabeli 2 dla każdej z sześciu warstw modelu znajdują się zawartości krwi
i melaniny. Największą zawartością krwi cechuje się warstwa skóry zagłębionej,
to w tej warstwie znajduje się najwięcej naczyń krwionośnych. W warstwie epidermie
jest z kolei najwięcej melaniny.
Tabela 2. Zawartość krwi i melaniny w warstwach modelu sześciowarstwowego skóry
Warstwa Zawartość
krwi
Zawartość
melaniny
epidermis 0 0.05
I dermis 0 0
warstwa skóry
powierzchniowej 0,0556 0
II dermis 0,0417 0
warstwa skóry
zagłębionej 0,2037 0
warstwa
podskórna 0,0417 0
Źródło: Välisuo P., Alander J., The effect of the shape and location of the light source in diffuse
reflectance measurements, 21st IEEE International Symposium on Computer-Based Medical
Systems, 81–86, IEEE Computer Society, 2008.
Dziewięciowarstwowy model tkanki skóry został opracowany i przedstawiony
w pracy w [30] do symulacji widmowej z użyciem metody Monte Carlo.
Wyprowadzono niezbędne parametry dla każdej z dziewięciu warstw
w symulacji. Parametry stosowane w konwencjonalnym modelu trójwarstwowym
zostały zmodyfikowane na podstawie niektórych ustaleń histologicznych na
skórze i zgłaszanych przykładów.
Warstwa rogowa (L1) ma około 10 mm grubości obejmuje górną powierzchnię
skóry, a naskórek występuje pod warstwą L1. Warstwa naskórka jest składa się
z warstwy ziarnistej, warstwy spinosum (L2) i warstwy podstawowej(L3). Skóra
właściwa jest pod naskórkiem i dzieli się na pięć warstw (L4–L8), ma całkowitą
grubość około 1,5 mm. Tkanka podskórna (L9) ma w przybliżeniu 5–10 mm
grubości i znajduje się pod skórą właściwą.
W skórze właściwej naczynia krwionośne nie są jednorodne i nasycenie
hemoglobiny tlenem musi zostać rozdzielone. Objętość i skład elementów
włókienkowatych mogą się również różnić. Dzięki przyjęciu różnych wartości
parametrów optycznych i geometrycznych w każdej z dziewięciu warstw można
symulować spektrum odbicia w różnych warunkach.
16
Rys. 7. Rozbudowany na podstawie trzywarstwowego dziewięciowarstwowy model skóry
powstały z modelu zawierającego 3 warstwy
Źródło: Maeda T., Arakawa N., Akahashi M., Aizu Y., Monte Carlo Simulation of spectral
reflectance using a multilayered skin tissue model, Optical Review, 17(3), 223–229, 2010.
7. Podsumowanie
Wykorzystanie modeli skóry może pomóc w dalszych krokach by określić
obecności lub etap procesu nowotworowego. Użycie spektrofotometrii umożliwi
zmniejszyć użycie inwazyjnej biopsji, co jest bolesne dla pacjenta. Metoda może
być również używana dla nieinwazyjnego monitorowania stężenia hemoglobiny
i bilirubiny we krwi noworodków, w celu uzyskania informacji na temat dynamiki
zmian we krwi w układzie krążenia. Pomiary mogą być wykonywane zdalnie, bez
kontaktu między przyrządem pomiarowym a skórą. Ludzka skóra jest
zorganizowana w złożony sposób, różni się rodzajami tkanek i naczyń. Posiada
złożoną strukturę anatomiczną.
Modele jedno–, dwu– i trójwarstwowe oparte są na mniej skomplikowanych
założeniach dotyczących właściwości optycznych elementów budujących skórę.
Potrzebna jest do ich użycia niewielka liczba zmiennych by w pełni
przeprowadzić symulację modeli. Są użyteczne w wyznaczaniu koncentracji,
współczynników absorpcji elementów skóry. Natomiast mniej dokładniej opisują
oddziaływania optyczne zachodzące w ludzkiej skórze.
Bardziej złożone modele zawierające cztery warstwy i więcej dokładnie
opisują procesy związane z oddziaływaniem promieniowania w skórze. Pozwalają
na dokładne poznanie właściwości optycznych elementów skóry. Posiadają one
jednak swoje minusy. Mianowicie znane dane nie są dokładne, stosowane jest
wiele przybliżeń i założeń. Wprowadzają wiele złożonych zmiennych do
symulacji dających błędy. Wiele zawartych w nich założeń opartych jest na
uproszczeniach skomplikowanych i jeszcze nie do końca zbadanych i opisanych
zjawisk.
17
Bibliografia
1. Baranoski V.G., Krishnaswamy A., Study on skin optics, Technical Report
CS–2004–01, 2004.
2. Meglinski I.V., Matche S.J., Computer simulation of the skin reflectance
spectra, Computer Methods and Programs in Biomedicine, 70,
179–186,2003.
3. Wang L., Jacques S.L., Zheng L., MCML - Monte Carlo modeling of light
transport in multi-layered tissues, Computer Methods and Programs,
Biomedicine 47, 131–146, 1995.
4. Darvin M.E., Gersonde I., Albrecht H., Gonchukov S.A., Sterry W.,
Lademann J., Determination of beta carotene and lycopene concentrations
in human skin using resonance raman spectroscopy, Laser Physics 5(2),
295–299, 2005.
5. Bjorgan A., Milanic M., Randeberg L.L., Estimation of skin optical
parameters for real-time hyperspectral imaging applications, Journal of
Biomedical Optics 19(6), 2014.
6. Lisenko S., Kugeiko M., A method for operative quantitative interpretation
of multispectral images of biological tissues, Optics and Spectroscopy
115(4), 610–618, 2013.
7. Jacques S. L., Origins of tissue optical properties in the UVA, visible and
NIR regions, Adv. Opt. Imaging Photon Migr. 2, 364–369, 1996.
8. Jacques S. L, http://omlc.ogi.edu/news/jan98/skinoptics.html.
9. Young A. R., Chromophores in human skin, Physics in Medicine and
Biology, 42(5), 789, 1997.
10. Barun V. V., Ivanov A. P., Optical parameters of disperse medium with large
absorbing and scattering inclusions, Opt. Spektrosk. 96 (6), 1019, 2004.
11. Spott T. et al., Application of optical diffusion theory to transcutaneous
bilirubinometry, Proc. SPIE 3195, 234–245, 1998.
12. Randeberg L. L. et al., Performance of diffusion theory vs. monte carlo
methods, Proc. SPIE 5862, 2005.
13. Randeberg L. L., Roll E. B., Nilsen L. T., Christensen T., Svaasand L. O., In
vivo spectroscopy of jaundiced newborn skin reveals more than a bilirubin
index, Acta Paediatr. 94(1), 65–71, 2005.
14. Svaasand L. O, Norvang L. T., Fiskerstrand E. J., Stopps E. K. S., Berns M. W.,
Nelson J.S., Tissue parameters determining the visual appearance of normal skin
and port-wine stains, Laser Med. Sci. 10, 55–65, 1995.
15. Fergusonpell M., Hagisawa S., An empirical technique to compensate for
melanin when monitoring skin microcirculation using reflectance
spectrophotometr, Medical Engineering & Physics 17(2), 104–110, 1995.
16. Khan T. K., Wender P. A., Alkon D. L., Bryostatin and its synthetic analog,
picolog rescue dermal fibroblasts from prolonged stress and contribute to
18
survival and rejuvenation of human skin equivalents, Journal of Cellular
Physiology 233(2), 1523–1534, 2018.
17. Lisenko S. A., Kugeiko M. M., Firago V. A., Sobchuk A. N., Analytical
model of diffuse reflectance spectrum of skin tissue, Quantum Electronics,
44(1), 69, 2014.
18. Lysenko S., Kugeiko M., Method of noninvasive determination of optical and
microphysical parameters of human skin, Measurement Techniques, 56(1),
104–112, 2013.
19. Prince S., Malarvizhi S., Analysis of spectroscopic diffuse reflectance plots
for different skin conditions, Journal of spectroscopy, 24(5), 467–481, 2010.
20. Wego A., Accuracy simulation of an led based spectrophotometer, Optik,
124(7), 644–649, 2013.
21. Salomatina E., Brian Jiang S. I, Novak J., Yaroslavsky A. N., Optical
properties of normal and cancerous human skin in the visible and near-
infrared spectral range, J. Biomed. Opt. 11(6), 2006.
22. Alerstam E., Chun Yip Lo W.,. Han T. D, Rose J, Andersson-Engels S., and Lothar
Lilge, Next-generation acceleration and code optimization for light transport in
turbid media using gpus, Biomed. Opt. Express 1(2), 658–675, 2010.
23. Tuchin V. V., Light scattering study of tissues, Physics-Uspekhi 40,
495–515, 1997.
24. Van Gemert M. J. C., Jacques S. L., Sterenborg H. J. C. M., Star W. M., Skin
optics, IEEE Trans. Biomed. Eng. 36, 1146–1154, 1989.
25. Cheong W. F., Prahl S. A., Welsh A. J., A review of the optical properties
of biological tissues, IEEE J. Quantum Electron. 26, 2166–2185, 1990.
26. Everett M. A., Yeargers E., Sayre R. M., Olson R. L., Penetration
of epidermis by ultraviolet rays, Photochem. Photobiol. 5, 533–542, 1966.
27. Reuss J. L, Multilayer modeling of reflectance pulse oximetry, IEEE
Transactions on Biomedical Engineering, 52(2), 2005.
28. Claridge E., Cotton S., Hall P., Moncrieff M., From colour to tissue
histology: physics based interpretation of images of pigmented skin lesions,
MICCAI (1), 730–738, 2002.
29. Välisuo, P., Mantere, T., Alander, J. Solving optical skin simulation model
parameters using genetic algorithm, 2nd International Conference
on BioMedical Engineering and Informatics, 376–380, .2009.
30. Maeda T., Arakawa N., Akahashi M., Aizu Y., Monte Carlo Simulation
of spectral reflectance using a multilayered skin tissue model, Optical
Review, 17(3), 223–229, 2010.
19
Magdalena Michalska
Parametry i właściwości optyczne skóry
1. Wstęp
Ludzka skóra jest ważnym organem ludzkiego ciała pełniącym wiele istotnych
funkcji w procesach życiowych człowieka. W związku z dużym
zainteresowaniem badaczy coraz szerzej poznawane są jej wszelkie właściwości.
Szerokie zastosowanie znalazły metody wykorzystujące zjawiska związane
z oddziaływaniem promieniowania elektromagnetycznego z materią.
Spektrofotometria jest obecnie jednym z narzędzi do badań właściwości
optycznych ludzkiej skóry. Wyjaśnia ona efekty oddziaływań poprzez analizę
rozkładu energii promieniowania. Promieniowanie może zostać emitowane,
pochłaniane, odbite lub rozproszone przez dany obiekt.
Praca zwiera opis anatomicznej budowy ludzkiej skóry, procesów
oddziaływania promieniowania ultrafioletowego, światła widzialnego i bliskiej
podczerwieni w każdej z warstw skóry oraz wybranych właściwości optycznych
elementów ją budujących.
2. Budowa anatomiczna ludzkiej skóry
Wśród głównych elementów anatomicznych ludzkiej skóry najczęściej
wyróżnia się trzy warstwy: naskórek (epidermis), skórę właściwą (dermis)
i tkankę podskórną. Warstwy te z powodu różnic budowie anatomicznej różnią
się znacznie przebiegiem procesów optycznych w każdej z nich. W każdej z tych
warstw można wyróżnić także inne mniejsze warstwy.
2.1. Epidermis
Naskórek to zewnętrzna warstwa pełniąca funkcję ochronną i rozrodczą.
Składa się głównie z dojrzewających komórek nabłonkowych, który tworzy kilka
warstw: podstawna, kolczysta, ziarnista, jasna i rogowa. W naskórku znajdują się
również komórki barwnikowe, komórki odpowiedzialne za reakcje
immunologiczne i komórki układu nerwowego. W tej warstwie znajduje się
również melanina wymieniana jako główna substancja odpowiedzialna za koloryt
skóry. Nadaje ona również kolor włosom.
magdalena.michalska@pollub.edu.pl Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
20
2.2.Dermis
W skórze właściwej znajdują się włókna kolagenowe, elastyna, fibroblasty,
mastocyty, komórki krwi, naczynia i nerwy oraz gruczoły (np. potowe), a także
korzenie włosów. Skóra właściwa to warstwa środkowa skóry utworzona z tkanki
łącznej – jest dodatkowo warstwą odżywczą. Wyróżnia się dwie podstawowe
warstwy skóry właściwej: warstwę brodawkowatą oraz siatkowatą. Jej
wypuklenia zwane brodawkami łączą się tkanką łączną z naskórkiem. Dolna
warstwa skóry właściwej zbudowana jest ze zbitej tkanki łącznej. Pod nią
znajduje się tkanką podskórną. Jednorodną warstwą często zastępowane są
brodawki brzegowe, siatkowe, powierzchowne i głębokie sploty naczyń ponieważ
nie mają różnego stanu fizycznego granic i podstawowych różnic
morfologicznych [1].
2.3.Tkanka podskórna
Pod skórą właściwą znajduje się tkanka podskórna. Tkankę podskórną tworzy
tkanka łączna i tłuszczowa. Jej ilość jest uwarunkowana odżywianiem, wiekiem,
płcią, miejscem na ciele. W skórze znajdują się gruczoły potowe, łojowe,
paznokcie i dolne odcinki korzeni włosów. Jej głównym zadaniem jest izolacja
przed nagłymi zmianami temperatury otoczenia.
Głębsze warstwy skóry, takie jak warstwa tłuszczowa i tkanka mięśniowa nie
biorą udziału w procesie odbicia światła o długości fali z zakresu 450–800 nm ze
względu na silne tłumienie przez wyższe warstwy [2].
3. Oddziaływanie promieniowania z ludzka skórą
3.1. Oddziaływanie promieniowania z materią
Do oddziaływań promieniowania z obiektem należy zliczyć zjawisko
absorpcji, odbicia, rozproszenia, załamania i transmisji promieniowania.
Wymienione zjawiska zostały przedstawione w postaci schematu na rysunku 1.
Zmiana kierunku rozchodzenia się fali na granicy ośrodków nazywana została
odbiciem. Pozostaje ona w ośrodku, w którym się rozchodzi. Załamanie światła
to zmiana kierunku rozchodzenia się promienia świetlnego przy przejściu
z jednego ośrodka przezroczystego do drugiego. Światło przechodzące z ośrodka
optycznie rzadszego do ośrodka optycznie gęstszego załamuje się. Wówczas kąt
załamania jest mniejszy od kąta padania (β<α).
Rozpraszanie światła jest zmianą kierunku rozchodzenia się światła,
z wyjątkiem zjawisk opisanych przez odbiciem i załamaniem promieniowania.
21
Rys. 1. Oddziaływanie promieniowania z obiektem
Źrodło: opracowanie własne
Każda z wymienionych głównych trzech warstw jest zbudowana z jej
własnych podwarstw, w których to wyróżnić możemy zjawiska absorpcji
rozpraszania, załamania i rozpraszania światła. Liczne badania [3] wykazały, iż
skóra zawiera różne chromofory, które absorbują światło w szerokim zakresie fal:
od ultrafioletu do bliskiej podczerwieni. Powstające widmo elektromagnetyczne
przedstawiono na rysunku 2. Zawiera ono długości fali dla promieniowania UV
i światła widzialnego VIS dla poszczególnych barw. Do obszaru widmowego dla
UVB wskazać należy przedział od 280 do 315 nm, UVA 315–400 nm i dla światła
widzialnego 400–700 nm. Jako główne absorbenty w ludzkiej skórze najczęściej
wskazywana jest krew [4], melanosomy [5] i keratyna [6].
22
Rys. 2. Widmo elektromagnetyczne
Źródło: Tuchin V.V., Tissue optics and photonics: Biological tissue structures, J Of Biomedical
Photonics & Eng, 1(1), 2015.
Krew jest głównym absorbent promieniowania ze względu na obecność
hemoglobin. Wśród hemoglobin należy rozróżnić hemoglobinę,
oksyhemoglobinę, deoksyhemoglobinę i methemoglobinę. Absorpcja
oksyhemoglobiny i deoksyhemoglobiny ma wartości szczytowe w kolorze
niebieskim (400–420 μm) i zakresu koloru zielonego (540–577 μm) stopniowo
zmniejszając się dla dłuższych fal. Dezoksyhemoglobina posiada pik maksimum
absorpcji przy 420 μm i drugi pik przy 580 μm. Hemoglobina utlenowana
(oksyhemoglobina) wykazuje najwyższą absorpcję przy 410 μm i ma dwa piki
wtórne w zakresie 550–600 μm [7].
Inne pigmenty pochodzące z krwi, bilirubina i karotenoidy są odpowiedzialne
za żółtawy i oliwkowy odcień w podstawowej fazie opalenizny skórnej.
Beta–karoten i likopen mają piki absorpcji przy 488 i 515 μm, a bilirubinia przy
460 μm [8].
Dermis jest strukturą [9–11] o grubości 0.6–3 mm, która również propaguje
i pochłania światło. W skórze właściwej znajdują się włókna kolagenowe
i elastyna oraz elementy komórkowe: fibroblasty, mastocyty i komórki krwi.
Znajdują się w tej warstwie liczne naczynia i nerwy. W związku z tym, że
elementy dermisu (brodawki brzegowe, siatkowe, powierzchowne i głębokie
sploty naczyń) nie mają wyraźnie innego stanu fizycznego, ani wyraźnych różnic
morfologicznych mogą zostać uwzględnione jako jedna jednorodna warstwa [12].
Ostatnią z warstw jest tkanka podskórna, zawierająca warstwę tłuszczową
i tkankę mięśniową. Te głębsze warstwy skóry nie biorą znaczącego udziału
w procesie odbicia światła o długości fali 450–800 nm w skórze. Jest to
spowodowane silnym tłumieniem przez wyższe z warstwy znajdujące się nad
nimi [13].
23
3.2. Oddziaływania w skórze
Zainteresowanie opisaniem procesów optycznych zachodzących w skórze
pochłonęło wielu naukowców. Na rysunku 3 przedstawiono schemat
oddziaływania światła ze skórą. Zostały na nim uwzględnione trzy warstwy skóry,
epidermis i dermis. Do każdej z warstw dodatkowo przypisano główny
zachodzący w niej przykład oddziaływania warstwy tkanki z promieniowaniem.
Uwzględniono również promieniowanie padające na tkankę, absorpcję
i rozpraszanie. Podziałowi uległo odbicie na: odbicie od warstwy podstawnej, od
epidermis i dermis. Model z rysunku 3 zawiera również zasymulowaną grubość
każdej z 3 warstw. Warstwa rogowa ma w nim grubość 10 μm, warstwa epidermie
100μm, a warstwa dermis 3 m.
Rys. 3. Oddziaływanie promieniowania ze skórą
Źródło: Anderson R. R., Parrish J.A., The optics of human skin, Journal of Investigative
Dermatology, 77(1):13–19, 1981.
Bardziej złożony model został przedstawiony na Rysunku 4. Uwzględniono
w nim dodatkowo absorpcję melaniny i hemoglobiny oraz rozpraszanie Mie
i Rayleigh'a, rozpraszanie powierzchniowe i podpowierzchniowe. Przedstawiono
również zjawisko odbicia promieniowania od tkanki podskórnej. Jako jeden
24
z głównych elementów budujących tkankę podskórną wyróżnia się komórki
tłuszczowe, które z racji jasnej barwy w znacznej mierze odbija światło. Naskórek
w 4–7% odbija światło, pozostałe światło rozpraszane jest przez zdegradowane
melanosomy. Światło w żywym naskórku jest wchłaniane głownie przez pigment
melaniny i rozpraszane dalej [14].
Rys. 4. Oddziaływanie promieniowania ze skórą
Źródło: Bashkatov A. N., Genina E. A., Kochubey V.I., Tuchin V. V., Optical properties of
human skin, subcutaneous and mucous tissues in the wavelength range from 400 to 2000 nm, Journal
of Physics D: Applied Physics, 38(15),2543, 2005.
Kierunek światła zmienia się przez obecność membran komórkowych
i organelli o innych współczynnikach załamania. Z powodu rozproszenia
w naskórku światło jest kierowane w stronę skóry właściwej. Tam występuje
rozpraszenie Rayleigh'a w małych fibrylach kolagenu. Następnie światło
rozproszone ponownie wchodzi do naskórka, rozprasza się w kierunku
powierzchni skóry lub trafia w jej głąb. Natomiast rozpraszanie Mie występuje
w większym włóknie kolagenu i elastyny, może zostać skierowane ku głębszej
warstwie. Do tkanki podskórnej dociera najmniej światła z powodu silnego
tłumienia przez wyższe z warstw, zawiera warstwę tłuszczową i tkankę
mięśniową.
Naukowcy w [15] zbadali w jaki sposób promień świetlny penetruje ludzka
skórę, wyznaczają oni odległości na jakie światło o danej barwie jest w stanie
25
wniknąć w tkankę. Na rysunku 5 przedstawiono promieniowanie UV, o barwie
niebieskiej, zielonej, żółtej, czerwonej i NIR. Promieniowanie UV może wnikać
do skóry na głębokość poniżej 1 mm. Promieniowanie barwne wnika głębiej,
szczególnie jest to widoczne dla światła o barwie zielonej, żółtej i czerwonej.
Promieniowanie NIR potrafi wniknąć w skórę na odległości około 5 mm.
Rys. 5. Penetracja skóry przez promieniowanie o różnej barwie
Źródło: Cugmas B., Bregar M., Bürmen M., Pernuš F., Likar B., Impact of contact pressure–
induced spectral changes on soft-tissue classification in diffuse reflectance spectroscopy: problems
and solutions, Journal of biomedical optics, 19(3), 2014.
3.3. Absorpcja
Wchłanianie promieniowania przez skórę ma miejsce w każdej jej warstwie,
natomiast w różnym stopniu. W naskórku to melanina jest naturalnym
chromoforem absorbujący światło
Skóra właściwa składa się z dwóch warstw sieci tkanki łącznej i naczyń
krwionośnych. W tej warstwie absorbowane są różne rodzaje hemoglobin.
Intensywność absorpcji hemoglobiny zależy bezpośrednio od jej ilości
(0,2–7%), zatem im więcej w tkance hemoglobiny, tym bardziej absorbuje ona
26
promieniowanie. Deoksyhemoglobina ma najwyższy absorpcyjny pik przy
420 nm, a drugi pik 580 nm, oksyhemoglobina przy 410 nm i dwa dodatkowe piki
(550 i 600 nm). Natomiast beta–karoten i likopen mają absorpcyjne piki przy 488
i 515 μm, a bilirubina w 460 nm, naskórkowy kwas nukleinowy (260 nm), kwas
urokainowy (277 nm), keratyna (280 nm), woda (980 nm).
Ważnym elementem budującym skórę właściwą są białka skóry absorbują
promieniowanie w pobliżu promieniowania UV, a kolagen w bliskiej
podczerwieni. Tkanka podskórna z uwagi na biały kolor tkanki tłuszczowej
powoduje odbicie światła, bardzo niewiele światła dociera do tej warstwy.
Wyznaczane są również pasma absorpcji poszczególnych substancji
znajdujących się w skórze, należą do nich bilirubina, FAD, NAD, ATP, NADPH,
białka, kwasy tłuszczowe, hemoglobina czy melanina [16]. Zostały one
przedstawione na Rysunku 6. Hemoglobina i melanina zaliczane są do głównych
absorbentów skóry. Również DNA posiada dwa zakresy absorpcji w przedziale
widmowym 200–100 nm.
Rys. 6. Pasma absorpcji substancji znajdujących się w skórze
Źródło: Buiteveld H., Hakvoort J., Donze M., The optical properties of pure water, Proceedings
of the SPIE, 2258, 174–183, 1994.
Współczynnik absorpcji jest zależny od długości fali, przybiera różne wartości
dla różnych chromoforów. Dla długość fali od 500 do 600 μm następuje
maksymalna absorpcja melaniny i hemoglobiny. Wielu naukowców zajmuje się
wyznaczaniem współczynników pochłaniania dla elementów budujących ludzką
skórę [13–17]. Na rysunku 7 uwzględniono hemoglobinę, oksyhemoglobinę,
lipidy i wodę. Rysunek 8 uwzględnia jeszcze deoksyhemoglobinę i melaninę.
27
Rys. 7. Wartości współczynników absorpcji dla wybranych długości promieniowania
Źródło: Harrison D.K., The clinical application of optical spectroscopy in monitoring tissue
oxygen supply following cancer treatment, The primo vascular system: Its role in cancer and
regeneration, Springer Science+Business Media, LLC, 291–296, 2012.
Rys. 8. Wartości współczynników absorpcji
Źródło: Prince S., Malarvizhi S., Analysis of spectroscopic diffuse reflectance plots for different
skin conditions, Spectroscopy-an International Journal, 24(5), 467–481, 2010.
3.4. Rozproszenie
Rozpraszanie jest dominującym typem oddziaływania dla promieniowania
widzialnego oraz w pobliżu podczerwieni, będąc 100–1000 razy silniejszy niż
absorpcja. Jest ono odchyleniem belek świetlnych od prostych trajektorii
spowodowanym przez mikroskopowe nierównomierności w medium oraz
28
fluktuacje współczynnika załamania światła. Rodzaj i intensywność rozpraszania
zależy od wielkości rozproszonych cząstek w stosunku do długości fali
przychodzącego światła. Dla fal o długości z zakresu 600–800 μm charakterystyki
spektrum odbicia są głównie narażonych na rozproszenie.
Właściwości rozproszenia skóry określane są głównie przez skórę właściwą
(a konkretnie przez włókna kolagenowe i obecność wewnątrzkomórkowego
płynu), ponieważ jego grubość stanowi 95% grubości ludzkiej skóry,
a współczynniki rozproszenia naskórka i skóra są porównywalne pod względem
wartości [18]. Współczynnik objętości rozproszenia β i średnie współczynnik
rozproszenia cosinus (czynnik anizotropowy) g układu niezależnych
polidyspersyjnych rozpraszaczy ze współczynnikiem załamania (w odniesieniu
do otaczającego medium) oblicza się za pomocą równań całkowych.
3.4.1. Lekkie rozproszone w skórze
Parametrami mającymi wpływ na lekkie rozproszenie w skórze jest morfologia
tkanki (wielkość organelli i komórek w odniesieniu do długości fali), rozproszone
światło, biochemia (współczynnik załamania). Rozproszenia powodują płyn
międzykomórkowy i cytoplazma. Składają się one głównie z wody (współczynnik
załamania światła wynosi 1,35–1,37). Wśród cząsteczek rozpraszających
wymieniane są organella, włókna białkowe, membrany, globule białkowe i lipidy.
Posiadają one większą gęstość w porównaniu do otoczenia. Włókna kolagenowe
głównie rozpraszają promieniowanie ze względu na ich strukturę włókienkową.
Melanina ma wysoki współczynnik załamania (1,7) a wielkość melanosomów
wynosi 100 μm–1000 μm.
29
Rys. 9. Współczynniki rozproszenia dla zadanych długości fal
Źródło: VÄlisuo P., Photonics simulation and modelling of skin for design of
spectrophotometer, Acta Wasaensia, 242, Automation Technology 2, 2011.
3.4.2. Powierzchniowe i podpowierzchniowe rozproszenie światła
Rozproszenie powierzchniowe zachodzi pod wpływem nieprawidłowości
w warstwie naskórka, są to zmarszczki lub odwodnienie skóry. Rozproszenia pod
powierzchnią skóry występują w błonach komórkowych, melanosomach,
organellach komórkowych (mitochondria, jądra), pozakomórkowych kropelkach
lipidów, strukturach białkowych i włóknach kolagenowych Światło jest
rozproszone wiele razy w obrębie skóry właściwej, aż wreszcie zostanie
pochłonięte lub przeniesione do następnej warstwy.
3.5. Załamanie światła
Bezpośrednie pomiary współczynnika załamania hemoglobiny w dużym
zakresie długości fal są wymagające. W [19] wyznaczano współczynniki
załamania dla oksyhemoglobiny i methemoglobiny. Wykres ukazujące rezultaty
badań przedstawiono na rysunku 10.
30
Rys. 10. Współczynniki załamania światła dla (a) methemoglobiny i (b) oksyhemoglobiny
Źródło: Sydoruk O., Zhernovaya Ol., Tuchin V. V., Douplik A., Refractive index of solutions
of human hemoglobin from the near-infrared to the ultraviolet range, Kramers-Kronig analysis,
JBiomed Opt., 17(11), 2012.
Zmierzone wartości (czarne linie) współczynników załamania zostały
przedstawione na rysunku 10 dla methemoglobiny i oksyhemoglobiny. Natomiast
na wykresach zaznaczono szarym kolorem obliczone dane na podstawie wielu
równań.
4. Podsumowanie
Badanie właściwości optycznych skóry jest bardzo ważne dla opracowania
technik diagnostycznych i terapeutycznych. Różne optyczne metody – takie jak
spektroskopia widzialna i bliskiej podczerwieni, optyczna tomografia
koherencyjna i spektroskopia fluorescencyjna wykorzystywane są do badania
tkanek biologicznych i krwi oraz ich składników.
Symulowane profile głębokości odbicia, absorpcji czy rozpraszania w skórze
umożliwiają zrozumienie w jaki sposób promienie świetlne kooperują
w poszczególnymi elementami, jakie zawiera skóra.
Silne rozpraszanie światła i właściwości absorbujące krwi powodują, że
określane są jej parametry optyczne. Uwzględniana jest szczególnie hemoglobina,
która w erytrocytach może istnieć w natlenionej i odtlenionej formie w postaci
methemoglobiny, deoksyhemoglobiny i innych formach. Różne formy
hemoglobiny różnią się właściwościami optycznymi.
31
Bibliografia
1. Bochenek A., Reicher M., Anatomia człowieka – Tom IV: Układ nerwowy
ośrodkowy, Warszawa: PZWL, 2009.
2. Lisenko S. A., Kugeiko M. M., A method for operative quantitative interpretation of
multispectral images of biological tissues, Opt. & Spectroscopy, 115(4), 610–618, 2013.
3. Young A.R., Chromophores in human skin, Phys. Med. Biol. 42, 789–802, 1997.
4. Jacques S. L., McAuliffe D. J., The melanosome: Threshold temperature for
explosive vaporization and internal absorption coefficient during pulsed laser
irradiation, Photochem Photobiol, 53,769–75, 1991.
5. Prahl S., Optical absorption of hemoglobin. Oregon Medical Laser Center, USA, 1998.
6. Bendit E. G., Ross D. A., Technique for obtaining the ultraviolet absorption
spectrum of solid keratin., Appl Spec. 15, 103–105,1961.
7. Gajinov Z., Mati M., Đuran V., Optical properties of the human skin, Serbian Journal
of Dermatology and Venereology,2 (4), 131–136. 2010.
8. Darvin M. E., Gersonde I., Albrecht H., Gonchukov S. A., Sterry W., Lademann J.,
Determination of beta carotene and lycopene concentrations in human skin using
resonance raman spectroscopy, Laser Physics, 15(2), 295–9, 2005.
9. Anderson R. R., Parrish J.A., The optics of human skin, Journal of Investigative
Dermatology, 77(1):13–19, 1981.
10. Doi M., Tominaga S., Spectral estimation of human skin color using the Kubelka-
Munk theory, SPIE/IS&T Electronic Imaging, 5008, 221–228, 2003.
11. Meglinsky I.V., Matcher S.J., Modelling the sampling volume for skin blood
oxygenation, Medical & Biological Engineering & Computing 39, 44–49, 2001.
12. Lisenko S.A, Kugeiko M.M., Firago V.A, Sobchuk A.N., Analytical model of diffuse
reflectance spectrum of skin tissue, Quantum Electronics 44 (1) 69–75, 2014.
13. Harrison D.K., The clinicalaApplication of optical spectroscopy in monitoring tissue
oxygen supply following cancer treatment, The Primo Vascular System: Its role in
cancer and regeneration, Springer Science+Business Media, LLC, 291–296, 2012.
14. Bashkatov A. N., Genina E. A., Kochubey V.I., Tuchin V. V., Optical properties of
human skin, subcutaneous and mucous tissues in the wavelength range from 400 to
2000 nm, Journal of Physics D: Applied Physics 38(15), 2543, 2005.
15. Cugmas B., Bregar M., Bürmen M., Pernuš F., Likar B., Impact of contact pressure–
induced spectral changes on soft-tissue classification in diffuse reflectance
spectroscopy: problems and solutions, Journal of biomedical optics, 19(3), 2014.
16. Buiteveld H., Hakvoort J., Donze M., The optical properties of pure water,
Proceedings of the SPIE, 2258, 174–183, 1994.
17. Prince S., Malarvizhi S., Analysis of spectroscopic diffuse reflectance plots for
different skin conditions, Spectroscopy International Journal, 24(5), 467–481, 2010.
18. Bjorgan A., Milanic M., Randeberg L. L., Estimation of skin optical parameters for real-
time hyperspectral imaging applications, Journal of Biomedical Optics 19(6), 2014.
19. Sydoruk O., Zhernovaya Ol., Tuchin V. V., Douplik A., Refractive index of solutions
of human hemoglobin from the near-infrared to the ultraviolet range, Kramers-
Kronig analysis, J Biomed Opt. 17(11), 115002, 2012.
32
Katarzyna Baran
Rozpoznawanie emocji za pomocą technologii:
elektroencefalografia (EEG), motion capture
i wirtualna rzeczywistość (VR)
1. Wstęp
Odczytywanie ekspresji emocjonalnej pozwala na ustalenie intencji oraz
zachowań człowieka. Emocje towarzyszą ludziom na co dzień, wyrażając się
głównie przez mimikę twarzy. Pozytywna wartościowość jest szybko
rozpoznawalna w uśmiechu, zaś negatywna – w grymasie. Badania emocji silnie
rozwinęły się dzięki Paulowi Ekmanowi – psychologowi badającemu mimiczne
emocje za pomocą obrazów [1]. Jego analizy przyczyniły się do kategoryzacji
emocji na dyskretne archetypy: szczęście, smutek, strach, złość i niesmak.
Ponadto Ekman współtworzył System Kodowania FACS, będący podstawą wielu
pakietów oprogramowania do animacji twarzy i analiz ekspresji emocjonalnej [2].
Rozwój nowoczesnych technologii informatycznych takich jak motion capture,
EEG oraz VR, daje możliwość współpracy interdyscyplinarnej w zakresie
eksploracji emocji [3–5].
W artykule przedstawiono i porównano wybrane technologie: EEG, motion
capture i VR, zaprezentowano przegląd badań emocji opartych na wspomnianych
technologiach.
2. Nowoczesne technologie – elektroencefalografia (EEG),
motion capture, wirtualna rzeczywistość (VR)
Nieustanny rozwój technologii informatycznych daje szerokie spektrum
możliwości wykorzystania ich w badaniach interdyscyplinarnych.
Niejednokrotnie informatyczne nowości – EEG, motion capture czy VR,
kojarzone były z branżą rozrywki bądź medycyny. Jednak patrząc na nie
z perspektywy czasu, zauważalna jest zmiana trendu i znaczne poszerzenie ich
implementacji w różne dziedziny życia.
2.1. Elektroencefalografia (EEG)
Rejestracja aktywności mózgowej za pomocą EEG ma na celu ocenę
bioelektrycznej czynności mózgu, w tym szczególnie stanu układu nerwowego.
Podczas badania, na głowę badanego nakładana jest specjalna siateczka
k.baran@pollub.pl, Instytut Informatyki, Wydział Elektrotechniki i Informatyki,
Politechnika Lubelska
33
w miejscami, w które wprowadzane są elektrody. Dla dobrego przewodnictwa
elektrycznego, powierzchnię elektrod pokrywa się specjalnym żelem bądź pastą.
Ważnym zadaniem jest rejestracja prądów czynnościowych wytwarzanych przez
komórki nerwowe. Zapis EEG tworzą fale i rytmy o różnych częstotliwościach
i amplitudzie. Wśród fal wyróżnia się fale: alfa, beta, theta, delta i fale ostre. EEG
uznaje się za metodę diagnostyczną, np.: u pacjentów z padaczką,
w śpiączce, z urazami czaszkowo-mózgowymi. EEG zalicza się często jako jeden
z rodzajów biofeedbacku. Biofeedback czyli inaczej biologiczne sprzężenie
zwrotne, to zwrot informacji o zmianach stanu fizjologicznego człowieka. Zmiany
te są monitorowane najczęściej przez urządzenia pomiarowe bądź systemy
komputerowe. Inne rodzaje biofeedbacku to: EMG (elektromiografia), GSR
(reakcja skórno-galwaniczna), HEG (hemoencefalografia), SCP (wolne
potencjały korowe) i inne [6–7]. Informacja zwrotna w biofeedbacku może być
uzyskana przez sygnał dźwiękowy bądź wizualny, co znacznie ułatwia monitoring
parametrów i szybką modyfikację niepożądanych stanów. Ze względu na brak
inwazyjności i duże bezpieczeństwo, metoda ta stosowana jest w różnych
dziedzinach życia, m.in.: w medycynie, psychologii, sporcie i biznesie.
Otrzymanie informacji zwrotnych o zmianach stanu fizjologicznego osoby
badanej daje wiele możliwości. Badanie biofeedback EEG pozwala na określenie
stopnia koncentracji badanego, jego reakcji na występujące zmiany w środowisku,
trenowanie mózgu w celu zwiększenia aktywności i świadomego kontrolowania
niektórych zachowań.
Ostatnio zauważalnym trendem jest łączenie EEG z VR-em [8–9]. W Polsce
treningi EEG Biofeedback przy użyciu wirtualnej rzeczywistości VR
z zastosowaniem systemu Oculus, przedstawiła firma SensusMed [10]. Osoba
badana w wykreowanym środowisku testuje a potem trenuje dane umiejętności.
Istotne jest zaangażowanie osoby badanej w analizę i kontrolę własnych stanów
fizjologicznych. Regularne treningi umiejętności samoregulacji, mogą
spowodować przywrócenie równowagi psychofizjologicznej oraz pozytywnie
wpłynąć na procesy umysłowe takie jak: uczenie się, odporność psychiczna,
koncentracja, pamięć. Stąd zalecane są szczególnie dla osób: z zaburzeniami
koncentracji, z nadpobudliwością psychoruchową, z AHDH, cierpiących na
bezsenność, depresję oraz będących pod wpływem dużego stresu bądź
nadmiernego obciążenia umysły (zwłaszcza uwagi). Patrząc na zalety tej metody,
można wskazać: bezpieczeństwo środowiska, wykluczenie bodźców
przeszkadzających i skupienie na wykreowanej rzeczywistości, zmniejszenie
przeciążenia sensorycznego w trakcie treningu. System EEG biofeedback VR
oferuje kilkakrotnie wydajniejsze treningi niż tradycyjna forma.
2.2. Motion capture (MoCap)
Motion capture to technologia służąca do pozyskiwania ruchu 3D.
W zależności od rodzaju pomiaru można wyróżnić system: optyczny,
34
magnetyczny, mechaniczny, inercyjny [11]. Najpopularniejszy a zarazem
najdroższy jest system optyczny. Jego działanie opiera się na rejestracji markerów
(aktywnych bądź pasywnych, umieszczonych na ciele aktora) za pomocą kamer
działających na bliską podczerwień. Przykład rejestracji markerów LED-owych
przedstawia rysunek 1. W mocapie stosuje się różne modele biomechaniczne,
np.: Plug-in Gait Model [12]. Motion capture często synchronizuje się
z dodatkowymi sensorami, np.: czujnikami nacisku stóp, EMG, platformą
dynamometryczną, pulsometrem. Jest to znaczące przy badaniach związanych
z medycyną [13], rehabilitacją [14], sportem [11, 12, 15] a nawet psychologią.
Systemy akwizycji ruchu pozwalają na analizę ruchu celem wskazania
nieprawidłowości oraz struktur odpowiedzialnych za ruchy patologiczne. Ponadto
ułatwiają monitoring, kontrolę i diagnozę ruchową. Są zatem efektywnym
narzędziem dla biomechaników klinicznych, lekarzy, fizjoterapeutów,
sportowców czy rehabilitantów.
Rys. 1. Rejestracja markerów aktywnych w systemie Phasespace
Źródło: Opracowanie własne przy wykorzystaniu zasobów Internetu (dostęp:
http://www.indiana.edu/%7Edll/images/phasesprace.jpeg)
Motion capture kojarzone jest również z branżą rozrywki i filmów. Postacie
do bajek animowanych bądź popularnej gry Wiedźmin były generowane na
podstawie rejestracji biomechaniki aktorów mocap. Ciekawe zastosowanie mocap
znaleźć można w kryminalistyce. Naukowcy z Uniwersytetu w Cambridge,
zastosowali mocap do wykrywania kłamstwa. Badania [16] przeprowadzono na
90 osobach ubranych w kombinezon Xsens. Opracowano algorytm śledzący ruch.
Efektem badań było uzyskanie wykrywania kłamstw na poziomie 80%
(w porównaniu do wariografu mającego ok. 60%).
35
2.3. Wirtualna rzeczywistość (VR)
Najpopularniejsza w ostatnim czasie technologia, kojarzona głównie
z rozrywką to wirtualna rzeczywistość – VR (Virtual Reality). W języku polskim
powinna być ona tłumaczona jako fantomatyka. Polska fantomatyka opisywana
była już w 1964 przez Stanisława Lema w Summa Technologiae [17]. Na świecie
za pierwszego praktyka VR uznaje się Myrona W. Kruegera (1969). Połączenie
obrazu trójwymiarowego z dźwiękiem 3D oraz śledzeniem ruchów głowy,
powoduje, że mózg odbiera świat widziany na ekranie jako prawdziwy. VR
umożliwia interakcję między osobą a środowiskiem generowanym poprzez
komputer wpływając na modalności sensoryczne – od doświadczeń wzrokowych,
słuchowych po dotykowe. Obok VR, funkcjonuje również AR (augemented
reality) czyli rzeczywistość rozszerzona – połączenie rzeczywistego obrazu
a nawet dźwięku z tym generowanym sztucznie. Obie technologie są mocno
rozwijane przez potężne firmy komputerowe, m.in.: Apple. Technologia VR
dostarcza głównie obraz stereoskopowy, generowany na podstawie ruchów,
kierunków spojrzenia oraz pozostałych reakcji użytkownika. Firmy komputerowe
tworzą coraz to nowsze środowiska graficzne i systemy w celu optymalizacji
przekazywania obrazu, zmniejszania opóźnień w generowaniu wrażeń
wzrokowych oraz wsparcie interaktywności. VR zapewnia bardzo immersyjne
wrażenia. Produkty VR są różne, np. Oculus oferuje zestaw podstawowy służący
wyłącznie do oglądania wirtualnej rzeczywistości bez interakcji w niej, zaś HTC
proponuje system śledzący ruchy całego ciała. VR wymagający podłączenia do
komputera bądź Playstation jest dość kosztowny. Jednak debiutujące w 2016 roku
mobilne VR to tańsza opcja, np. Google Cardboard – kartonowe okulary 3D,
w których umieszczamy smartfona z uruchomioną aplikacją VR i korzystamy
z wirtualnej rzeczywistości.
Wirtualna rzeczywistość (VR) znajduje zastosowanie w następujących
dziedzinach:
Rozrywka – wirtualna rywalizacja i działania graczy, wirtualne zwiedzanie
muzeów, galerii sztuki [18].
Edukacja – wirtualne przekazywanie treści nauczania wraz z możliwością
ćwiczeń, np. składanie budowli z figur geometrycznych, dopasowywanie
części silnika.
Architektura wnętrz – wirtualne meblowanie mieszkania, dopasowywanie
mebli do tzw. czterech kątów bez konieczności wnoszenia mebli.
Medycyna – rehabilitacja poznawcza i motoryczna, leczenie bólu i zaburzeń
odżywiania. Trenowanie w środowisku wirtualnym usprawnia leczenie
stresów pourazowych, fobii, lęków, depresji a także stymuluje organizm
w zakresie kontroli i działania [19]. Ponadto VR stanowi narzędzie
szkoleniowe dla przyszłych lekarzy – uczestnicy szkoleń bądź warsztatów
mogą uczyć się czynności operacyjnych na wirtualnym organizmie. Jest to
dość istotne, zwłaszcza w przypadku gdy działania na żywym organizmie
36
byłyby ryzykowne [20]. Wirtualny obraz do symulacji operacji, tworzy się na
podstawie tomografii komputerowej a także rezonansu magnetycznego.
Architektura – wirtualna obserwacja konstrukcji bądź określonych
pomieszczeń, ułatwia podejmowanie decyzji inwestycyjnych oraz
wprowadzanie zmian architektonicznych. VR zastępuje częściowo proces
wyobrażania sobie przestrzeni, gdyż obrazuje tą przestrzeń w środowisku
wirtualnym. Niektóre agencje nieruchomości, np.: Sotheby’s International,
oferują klientom wirtualny spacer po luksusowych apartamentach co można
określić mianem wirtualnego rekonesansu [21].
Motoryzacja – producenci aut używając VR, pozyskują informację dotyczącą
oceny nowego modelu przez potencjalnych nabywców. Firma Ford stosuje VR
do testowania nowych elementów zanim powstaną prototypy. Firma Audi
wyposażała klientów w zestawy VR pozwalające na konfigurację aut przed
zakupem [22]. Również firma Seat użyła VR do wirtualnego projektowania
w celu zaoszczędzenia czasu i pieniędzy. Klient zapoznając się z opcjonalnym
wyposażeniem a nawet wyglądem auta pod kątem koloru, tapicerki czy felg,
ma znacznie ułatwione podejmowanie decyzji.
Zarządzanie – VR oraz inne technologie mogą podnieść wydajność
pracowników oraz zastąpić drogie szkolenia. VR w fabrykach pozwala na
ocenę stopnia wykonania prac manualnych, usprawnienie niektórych operacji
technologicznych, np. montażu części, minimalizowanie popełnianych
błędów. Aplikacje VR pomagają w sprawdzaniu predyspozycji do pracy na
konkretne stanowiska, obserwacji zachowań pracownika w testowych
sytuacjach [23].
Turystyka – wirtualna podróż co prawda nie zastąpią realnej podróży ale może
zaprezentować klientowi szybki przegląd oferty. Klient za pomocą VR może
poznać wygląd okolicy czy też hotelu. Sieć Marriott wprowadziła usługę
„VRoom Service” w Nowym Jorku oraz Londynie [24]. Dzięki usłudze, goście
mogą udać się na wirtualne wycieczki po innych krajach
i miastach, np. Pekin, Chile.
Wojsko – najczęściej VR stosowany był w symulacji pola walki. Polska firma
Farm 51 rozwijała technologię Reality 51 do symulacji wojennych [25]. Dzięki
temu członkowie służb wojskowych i antyterrorystycznych mogli ćwiczyć
w obiektach zeskanowanych w świecie rzeczywistym i przeniesionych do
wirtualnego świata.
3. Badania rozpoznawania emocji z użyciem technologii
informatycznych – przegląd literatury
Głównym zadaniem badań dotyczących emocji jest uzyskanie informacji
o stopniu emocjonalnym osoby badanej, jej zaangażowaniu w konkretne działanie
37
i analiza wpływu emocji na ludzkie zachowanie. Stosując technologie: motion
capture, EEG bądź VR, otrzymujemy możliwość obserwacji, analizy
a następnie kontroli emocji co stanowi ogromne znaczenie dla wielu aspektów
życia codziennego. Interdyscyplinarne badania emocji można znaleźć w wielu
pracach. Poniżej zaprezentowano wybrane badania uwzględniające przewodnie
technologie.
W branży VR istnieje problem realistycznej reprezentacji awatarów
pojawiających się w animacjach, grach i filmach. Dotychczasowe techniki
skupiają się na uproszczonych metodach, w których, np.: ekspresja koloru skóry
jest projektowana zgodnie ze zmianą oświetlenia [26]. Chcąc dodatkowo
uwzględnić ekspresję emocjonalną awatara, badacze stają przed ogromną
trudnością. W pracy [27] Min-Soo Kim oraz Kwang-Seok Hong, przedstawili
autorską metodę ekspresji awatara, w której sygnały biologiczne powiązane ze
stanami emocjonalnymi i zdrowotnymi, są wyodrębnione z obrazów ludzkiej
twarzy przy użyciu VR. Przy uzyskiwaniu obrazu awatara, zmieniono wartości
kolorów ludzkich twarzy uwzględniając różnorodność sygnałów biologicznych,
które wyodrębniano jako pierwsze. Dodanie wartości awatarowi, umożliwiło
obserwacje sygnałów biologicznych przypisanych jemu.
Vr-owa analiza emocjonalna może stanowić innowacyjne rozwiązanie
i potencjalne narzędzie interwencyjne w świecie medycznym. E. Bekele i inni
[28] przedstawili nowatorski system VR do analizy afektów w ekspresji twarzy
u osób chorujących na schizofrenię – VR-SAAFE. Pozwala on na zrozumienie
zaburzeń przetwarzania emocji koncentrując się na obserwacji twarzy. Autorzy
VR-SAAFE przeprowadzili badanie wśród 12 pacjentów ze schizofrenią oraz
12 zdrowych osób. Obserwacji podlegała ekspresja emocjonalna twarzy
zestawiona z przedstawianiem emocjonalnych twarzy w środowisku VR. Wyniki
badań pozwoliły na precyzyjne i ilościowe oszacowanie deficytu umiejętności
miękkich u osób ze schizofrenią.
Eksperymenty mające na celu wywołanie emocji przeprowadzili Kenta Hidaka
i inni w pracy [29]. Badacze zbierali sygnały biologiczne od osób badanych, które
były w konkretnych stanach emocjonalnych. Następnie wykorzystywali je jako
zbiór danych treningowych do budowy systemu rozpoznawania emocji za pomocą
uczenia maszynowego. Wyzwalanie emocji odbywało się poprzez projekcję scen
stworzonych w VR. Jako klasyfikator przyjęto wektor SVM. Według badań,
doświadczenie scen z VR było bardzo skutecznie w wyzwalaniu emocji. Jednak
sposób uczenia się (wśród badanych) przez odtwarzanie scen VR poddany
powinien zostać podany poprawkom.
Badania [30] wykazały, że istnieje związek między emocjami a połączeniem
muzyki i kolorów. W oparciu o to, Veronika Szucs i Mostafa Elgendy
zaprezentowali pomysł aplikacji do wizualizacji muzyki dla osób
niedosłyszących, opartej na VR i środowisku programistycznym 3D [31].
W motion capture szczególną uwagę zwraca się na niezawodne śledzenie
ruchów ludzkiego ciała z jak najmniejszą liczbą kamer oraz z możliwością
38
rejestracji w pomieszczeniach oraz na zewnątrz. Stąd tworzone są różne
algorytmy detekcji ruchu. Na uwagę zasługuje algorytm A. Elhayek
i inni [32], który opiera się na rozpoznawaniu obrazu metodą wspólnego
wykrywania obrazów z generatywnym algorytmem śledzenie ruchu, który jest
generowany na podstawie zunifikowanej energii optymalizacji pozy.
Badania wykorzystujące ruchy szkieletowe całego ciała do rozpoznawania
ludzkich emocji w oparciu o rejestrację systemem optycznym motion capture
firmy Vicon, zaprezentowano w pracy [33]. Badacze użyli sześciu kamer do
przechwytywania położeń markerów umieszczonych na ciele osoby badanej.
Digitalizacja ruchu na dane przemieszczenia odbywała się w osi x, y i z. Zebrane
dane ukazywały cztery emocje: radość, smutek, złość i strach. W badaniach
wykorzystano różne techniki uczenia maszynowego. Automatyczna klasyfikacja
danych mieściła się w przedziale 84-92% w zależności od obliczeń (algorytmów).
Wyniki te zostały porównane poprzez badanie użytkownika dotyczące
postrzegania tych samych danych przy średniej dokładności klasyfikacji
wynoszącej 93%.
Motion capture w badaniach emocji wykorzystali również Carlos Busso i inni
[34]. Stworzyli oni IEMOCAP – interactive emotional dyadic motion capture
database – bazę emocji. Baza powstała na podstawie badań ekspresji twarzy
i ruchu dłoni podczas pisania oraz spontanicznego mówienia. W badaniu udział
wzięło dziesięć osób. Na ich twarzach, głowach i rękach umieszczono markery.
Badani wykonywali wybrane emocjonalne scenariusze mające wywołać rodzaj
emocji – szczęście, złość, smutek, frustrację i stan neutralny. To pozwoliło na
uzyskanie szczegółowych informacji o autentyczności emocji i powstanie
wielomodalnej bazy.
Odczuwane emocje można powiązać ze zmianami parametrów chodu
i kinematyki. Elisabeth Crane i Melissa Gross [35] przebadały czterdziestu dwóch
studentów w wielu 20-27 lat (22 kobiety, 20 mężczyzn), rejestrując za pomocą
motion capture emocje negatywne, pozytywne oraz brak emocji. Po każdej próbie,
badani wypełniali ankietę dotyczącą odczuwanych emocji. Następnie
w celu sprawdzenia czy odczuwane emocje były rozpoznawalne w ruchach ciała
badanych, klipy wideo pokazano innym sześćdziesięciu studentom (29 kobiet,
31 mężczyzn) w tym samym przedziale wiekowym. Obserwatorzy po każdym
wideo wybierali jedną z dziesięciu emocji, której badany doświadczył podczas
próby. Badanie potwierdziło założenia oraz fakt, że emocje można skutecznie
wywołać w warunkach laboratoryjnych.
Carlos Busso i inni [36] analizowali systemy rozpoznawania emocji oparte
wyłącznie na wyrazie twarzy bądź informacji akustycznej. Prezentowali także
dwa podejścia połączenia obu metod – poziom decyzji i integracji na poziomie
funkcji. Wykonali badania z użyciem motion capture, polegające na rejestracji
szczegółowych ruchów twarzy poprzez markery umieszczone na twarzy osoby
badanej. Ruchy twarzy zostały zarejestrowane wraz z jednoczesnym
nagrywaniem mowy. Korzystano z bazy danych, klasyfikując cztery emocje:
39
smutek, złość, radość i stan neutralny. Wyniki pokazały, że połączenie metod
wpływa na większą wydajność i niezawodność systemu rozpoznawania emocji.
System rozpoznawania emocji związanych z aktywnością ludzkiego mózgu
przedstawili badacze z Uniwersytetu Delft w pracy [37]. Powstał w oparciu
o badania sygnałów EEG osób, które stymulowano emocjonalnie obrazami.
Efektem badań było zauważenie, że sygnały EEG zawierają wystarczającą ilość
informacji by zakwalifikować emocje do jednej z 5 klas na dwóch wymiarach
emocjonalnych – od wartościowości do pobudzenia. Przy obliczeniach
zastosowano 3-krotną walidację krzyżową do treningu i testowania, osiągając
wskaźnik klasyfikacji na poziomie 32% dla rozpoznawania wymiaru
wartościowości z sygnału EEG oraz 37% dla wymiaru pobudzenia. Przy
uwzględnieniu tylko skrajnych wartości w obu wymiarach uzyskano lepsze
wskaźniki klasyfikacji – odpowiednio 71% i 81%.
Emocje mają ogromny wpływ na podejmowanie decyzji, zwłaszcza
finansowych. Z związku z tym badacze [38] przeprowadzili badania
rozpoznawania emocji za pomocą EEG, badając inwestora podczas symulacji
giełdy. Po podłączeniu 19 elektrod, dokonywano pomiarów – 4 rodzaje emocji
mierzone przez 2 minuty. Przed i po pomiarze emocji, proszono badanego
o otwarcie bądź zamknięcie oczu na 1 minutę. Symulacja trwała 30 minut. Analiza
danych dotyczyła: pre-processingu danych, ekstrakcji cech (KDE), klasyfikacji
(MLP – architektura dwóch ukrytych warstw z 10-ma neuronami w każdej
warstwie i dwoma wyjściami). Wynik ostateczny badań wskazał, że pozytywne
emocje mogą zminimalizować ryzyko złych decyzji finansowych zaś strach –
zmniejszyć racjonalność inwestora.
Ciekawe podejście badawcze w interpretacji stanów emocjonalnych
przedstawiono w pracy [39]. Badacze zaprezentowali metodę analizy i poprawy
oceny wrażliwości ludzkiej używając sygnałów fizjologicznych pochodzących
z EEG, ECG, PPG, RESP i GSR. Stany emocjonalne rozpatrywano w przestrzeni
dwuwymiarowej. Przy analizie EEG wyodrębniono wartości mocy za pomocą
FFT i analizowano różne stany emocjonalne na podstawie mocy koncentracji fal
alfa, beta i gamma. Do rozpoznanie emocji użyto sieci neuronowej (11 warstw
wejściowych i 3 warstwy wyjściowe).
System klasyfikujący trzy pozytywne oraz cztery negatywne emocje w czasie
rzeczywistym stworzyli [40]. Badacze wykonali bazę 16-stu emocjonalnych
filmików, które wyświetlono 30 uczestnikom. Analiza fal mózgowych odbywała
się poprzez Emotiv EPOC. Prezentowany system składał się z sześciu modułów:
wyodrębnienie emocji, rejestracja EEG, obróbka danych, ekstrakcja cech,
klasyfikacja emocji i HMI. Eksperyment potwierdził dokładność i efektywność
systemu. Jego przewaga na innymi systemami opiera się na wysokiej dokładności
i zdolności rozpoznawania bardzo podobnych dyskretnych emocji, zamkniętych
w koordynowanej przestrzeni wartościowości i pobudzenia emocjonalnego.
Faceteq prototype v.05 to projekt laboratorium Emteq mający na celu pomiar
wyrazu twarzy i odpowiedzi biometrycznych podczas badań eksperymentalnych
40
w wirtualnej rzeczywistości [41]. Emteq opatentował użyte w projekcie:
technologię suchego czujnika, algorytmy, metody pozyskiwania i przesyłania
danych w czasie rzeczywistym.. Wewnątrz zestawu VR (Oculus Rift)
wprowadzono zminiaturyzowane czujniki biometryczne odczytujące sygnały
elektryczne pochodzące z twarzy i czaszki. System monitoruje również częstość
akcji serca i ruchy gałek ocznych. sygnały elektryczne wychodzące ze skóry
wskazują na ruch poszczególnych mięśni twarzy. Ruchy te mogą być
odwzorowywane na określone emocje. Podczas uśmiechania się, gniewania czy
też płakania, mięśnie twarzy układają się w różne kombinacje. Stosując VR
można bezinwazyjnie zaobserwować i określić emocje. Czujniki znajdujące się
w systemie Faceteq przekazują pozyskane dane do specjalnie dedykowanego
oprogramowania. Stan emocjonalny jest wyrażany na bieżąco w świecie
cyfrowym poprzez awatara osoby badanej. Rozpoznawanie emocji w czasie
rzeczywistym za pomocą zestawu VR to niesamowita perspektywa dla wielu
dziedzin życia. Przykładowo: rzeczywiste reakcje emocjonalne gracza mogą stać
się częścią gry, zaś w marketingu – uzyskać informacje zwrotne odnośnie
mediów. W przyszłości wirtualna rzeczywistość będzie wymagała coraz to
bardziej zaawansowanej biometrii.
Badaniami emocji i ludzkich zachowań zajmuje się Centrum Analiz
Medialnych Uniwersytetu Warszawskiego w Warszawie. Jednostka posiada
najnowocześniejszą aparaturę, pozwalająca na precyzyjny pomiar ludzkich
zachowań. W skład aparatury wchodzą: eyetrackery (śledzenie ruchu gałek
ocznych), facetrakcer (odczytywanie emocji z mięśni twarzy), GSR (badanie
reakcji skórno-galwanicznej), EMG (analiza skurczów mięśni, w tym sercowego),
EEG (aktywność mózgu), arena VR (aktywność człowieka w rozszerzonej
i wirtualnej rzeczywistości), system iMotions (zbieranie pomiarów, nałożenie ich
na wspólną oś czasu). Pomiary behawioralne przenikają się z pomiarami
biometrycznymi. Oba rodzaje pomiarów należy analizować bardzo precyzyjnie
i wieloaspektowo.
4. Porównanie technologii: motion capture,
elektroencefalografia i wirtualna rzeczywistość
Współczesne projektowanie nowych technologii wymaga od twórców
precyzyjnych założeń i przewidzenia możliwości aplikacji danej technologii
w wielu dziedzinach. Przedstawione w poprzednim rozdziale badania, pokazują
interdyscyplinarność badawczą i przenikanie się nauk ścisłych
z humanistycznymi. Podejmując się badań dotyczących emocji, za słuszne uznaje
się zapoznanie z psychologicznymi i neurobiologicznymi modelami emocji
a także taksonomią ludzkich emocji (emocje automatyczne i refleksyjne) co
wynika z interdyscyplinarności badawczej. Poniżej przedstawiono analizę trzech
41
głównych technologii przedstawiając wybrane zalety, wady, ograniczenia oraz
uwagi do badań emocji.
MOTION CAPTURE
Zalety:
Łatwość i dokładność przechwytywania ruchu.
Prostota i szybkość obsługi.
Wysoka dokładność pomiarowa i obliczeniowa.
Możliwość współpracy z innymi urządzeniami, np. GSR, pulsometrem.
Wady:
Dość wysoki koszt systemów, zwłaszcza optycznego.
Problemy z prawidłowym uchwyceniem pozycji markerów w przypadku
występowania dużej liczby markerów i przedmiotów odblaskowych
w przestrzeni akwizycji.
Umieszczanie markerów na ciele badanego – pod wpływem potu, temperatury,
markery mogą się odklejać.
Pracochłonny i czasochłonny post-processing danych.
Konieczność posiadania dedykowanego oprogramowania do rejestrowanych
danych.
Ograniczenia: Dotyczą głównie miejsca, w którym zamierza się wykonywać
badania. Systemy inercyjne i magnetyczne mogą być stosowane zarówno
wewnątrz (w pomieszczeniu) jak i na zewnątrz. System optyczny ze względu na
kamery, np. TS40, stosowany powinien być tylko w budynkach. Innym
ograniczeniem jest też nadmiar urządzeń pomiarowych, które mogą powodować
zakłócenia rejestracyjne.
Sposób badania emocji: Najczęściej emocje badane są z użyciem tzw. facial
motion capture. Na twarz badanego naklejane są małe markery, które później
rejestrowane są za pomocą kamer. Zmiany pozycji markerów pozwalają na odczyt
mimiki twarzy i określenie emocji. Ponadto emocje bada się również analizując
całą sylwetkę badanego – kąty zgięcia kończyn, nachylenia kręgosłupa czy też
rodzaj chodu.
Uwagi odnośnie badań emocji: Najskuteczniejszym sposobem
rozpoznawania emocji w motion capture jest facial motion capture. Z mimiki
twarzy można wyczytać więcej i szybciej. Należy jednak pamiętać
o indywidualnym podejściu do badanego, którego mimikę warto przeanalizować
wcześniej bez urządzeń, np. podczas rozmowy.
EEG (Elektroencefalografia)
Zalety: EEG daje możliwość określenia aktywności mózgu i jego
usprawnienia poprzez, np. neurofeedback. Imponująca jest rozdzielczość czasowa
i relatywnie niski koszt.
Wady: Rozdzielczość przestrzenną określa się jako słabą. Aparatura jest
również wrażliwa na zakłócenia, np. z sieci elektrycznej. Szybkość działania
42
interfejsów mózg-komputer nie jest duża. Dla osoby sparaliżowanej, czas będzie
wydłużony. Szybkość zależy, m.in.: od stanu psychofizycznego. Ponadto istnieje
konieczność poszukiwania nowych metod ekstrakcji i selekcji cech a także
minimalizacji liczby elektrod.
Ograniczenia: Badaniom EEG często towarzyszą artefakty, np. z układu
krwionośnego (aktywność mięśnia sercowego, oddychanie), z gałek ocznych
(mrugnięcia powodujące powstanie potencjału o amplitudzie nawet 100uV),
z napinania mięśni (napięcie mięśni karku, kończyn, ścisk szczęki), z przyrządów
pomiarowych, ze wzmacniacza.
Sposób badania emocji: Emocje są wykrywane na podstawie analizy fal
mózgowych, które pod wpływem wykonywanych zadań ulegają zmianie.
Rozpoznawaniu emocji w EEG towarzyszy: selekcja cech, ekstrakcja cech oraz
klasyfikacja cech. Prawidłowy dobór metod, wpływa na wyższą wykrywalność
emocji.
Uwagi odnośnie badań emocji: Dzięki EEG można potwierdzić, że sprzeczne
komunikaty emocjonalne z ciała i twarzy, wpływają na wczesne etapy
przetwarzania informacji wzrokowej. Zgodnie z modelami emocji, rejon czołowy
lewostronny wiążę się z dążeniem a rejon czołowy prawostronny –
z unikaniem. Różnice w intensywności odpowiedzi emocjonalnych są cechą
zależną od temperamentu. W badaniach często stosuje się metodę primingu
(torowania), polegającą na wykorzystaniu neuroobrazowania i badaniu wpływu
bodźca poprzedzającego reakcję na bodźce następujące po nim, np. pokazywanie
badanym rysunków ludzkich sylwetek wyrażających strach, radość itp.
VR (virtual reality)
Zalety: Użytkownicy mogą wykorzystywać VR do celów edukacyjnych,
rozrywkowych a także medycznych. Plusem jest możliwość manipulacji
obiektami w przestrzeni wirtualnej. Ponadto ilość aplikacji VR powoduje
ogromne możliwości dla wspomagania samorozwoju.
Wady: Najczęściej dotyczą wymagań sprzętowych. Ponadto osoby
z chorobami błędnika i innymi mogą czuć się źle nawet po krótkiej chwili
spędzonej w wirtualnym środowisku.
Ograniczenia: Wiążą się głównie z aplikacjami – tworzone filmiki bądź
animacje wciąż zawierają luki w postaci, np. złego wymiarowania postaci –
deformacja postaci przy nagłym zmianie kąta.
Sposób badania emocji: Badacze najczęściej implementują w środowisko
wirtualne konkretne zadania, których wykonanie przez użytkownika ma na celu
wywołanie danej emocji. W VR pojawiają się czujniki, o których wspomniano
w rozdziale 2. Takie połączenie ułatwia określenie emocji.
Uwagi odnośnie badań emocji: VR posiada przewagę nad motion capture
i EEG dzięki wirtualnemu środowiskowi, w którym badany może dokonywać
manipulacji obiektami. Taka manipulacja może wyzwalać emocje.
Analizując powyższe technologie, warto zauważyć, że ze względu na
różnorodność ich specyfiki trudno ocenić ich poziom przydatności dla badań
43
emocji. Ich możliwości są wciąż rozwijane stąd ocenę należy pozostawić
użytkownikom. Z pewnością głównym celem tworzenia opisywanych technologii
nie była analiza emocji, jednakże dowód ich zastosowania wskazuje na
niesamowitą przydatność. W tabeli 1 przedstawiono ogólne zestawienie.
Tabela 2. Ogólne porównanie technologii
Koszt Główne
dziedziny
Popularnoś
ć technologii
Użytek
domowy
Obsługa i analiza
danych
EEG Średni Medycyna
Psychologia Średnia
Tak, ale
wyłącznie
specjalne
zestawy, np.
Emotiv EPOC.
Typowa
aparatura EEG
ma inne
przeznaczenie.
Obsługa wymaga
praktyki – zwłaszcza
przy podłączaniu
elektrod,
wzmacniacza oraz
korzystania
z oprogramowania.
Analiza danych –
przy prostych
badaniach wymagana
podstawowa wiedza
dotycząca fal.
Stopień
skomplikowania
analizy zależy od
doboru metod, np.
ekstrakcji cech.
Motion
capture Wysoki
Rozrywka
Sport
Medycyna
Duża
Nie.
Ewentualnie
kostiumy
inercyjne dla
prywatnych
zastosowań.
Stosunkowo łatwa
obsługa, często
intuicyjna. Analiza
danych ułatwiona
dzięki
oprogramowaniu
przetwarzającemu
dane w procesie post-
processingu.
VR Średni Rozrywka
Medycyna Duża
Tak. Zarówno
dla rozrywki,
edukacji czy
rehabilitacji.
Łatwa i intuicyjna
obsługa. Analiza
danych wymaga
wcześniejszych
prawidłowych
założeń badawczych.
Źródło: opracowanie własne
Analizując tabelę 1, przy koszcie technologii znajdują się wartości: średni
i wysoki. Ze względu na wielość firm oferujących technologie a co za tym idzie
różnice w cenie, przyjęto, że koszt średni to min. 20 000zł. Przy określaniu
popularności uwzględnia się aktualne zainteresowanie technologiami. Mimo, że
EEG jest obecne na rynku najdłużej to jednak motion capture i VR z powodu
44
rozrywki wiedzie prym. W przypadku chęci używania technologii w domu
najlepszym sposobem jest VR. Obsługa urządzeń dla laika może okazać się
problematyczna, jednak w dzisiejszych czasach z wielu sprzętów korzysta się
intuicyjnie.
5. Podsumowanie
Wyrażanie emocji odbywa się poprzez słowa, gesty, mimikę twarzy, ruch ciała
a nawet myślenie. Rozpoznanie emocji za pomocą zwykłej obserwacji nie jest
wysoko skuteczne ze względu na możliwość ukrywania bądź kamuflowania
emocji. Dlatego też implementację narzędzi informatycznych w zagadnienie
emocji uznaje się za bardzo słuszną. EEG, motion capture i VR pozwalają na
precyzyjne określanie emocji. Jest to spowodowane badaniem cech fizjologiczno-
psychologicznych i rejestracją sygnałów biologicznych. Pozyskanie zbioru
danych dotyczących zarejestrowanych emocji pozwala na wykorzystanie
kompleksowej wiedzy dla celów, m.in.: medycznych, psychologicznych.
Opisywane technologie mogą niejednokrotnie zrewolucjonizować zagadnienia
emocji, jeżeli ich twórcy będą wciąż je ulepszać i rozwijać.
Patrząc na zastosowania technologii: EEG, motion capture, VR, zauważalne
jest ich największe wykorzystanie w dziedzinach: medycyna, psychologia, sport,
fizjoterapia. Dla laika nowości technicznych, technologie te kojarzone będą
głównie z rozrywką. Jednakże wszechobecne przenikanie się dziedzinowe
w badaniach interdyscyplinarnych jest jak najbardziej akceptowalne.
Analizując przeprowadzone badania emocji z użyciem głównych technologii,
stwierdza się, że nie tylko rozpoznanie ale również zrozumienie emocji stało się
łatwiejsze. Wzrosła dokładność oceny emocji. Powstałe bazy i systemy emocji
pozwoliły na porównywanie, udoskonalanie oraz dopasowywanie metod
rejestracji emocji do indywidualnych jednostek.
Bibliografia
1. Ekman P., Emotional and Conversational Nonverbal Signals, Knowledge and
Representation. Philosophical Studies Series, Springer 99, 39–50, 2004.
2. Amini R., Lisetti C., Ruiz G., HapFACS 3.0: FACS-Based Facial Expression
Generator for 3D Speaking Virtual Characters, IEEE Transactions on Affective
Computing 6(4), 348–360, 2015.
3. Yong-Jin L., Minjing Y., Guozhen Z., Yan G., Yuanchun S., Real-Time Movie-
Induced Discrete Emotion Recognition from EEG Signals, IEEE Transactions on
Affective Computing, 1–1, 2017.
4. Sibbing D., Kobbelt L., Building a Large Database of Facial Movements for
Deformation Model-Based 3D Face Tracking, Computer Graphics Forum, 36(8),
285–300, 2017.
45
5. Gutierrez-Maldonado J., Rus-Calafell M., Gonzalez-Conde J., Creation of a new set
of dynamic virtual reality faces for the assessment and training of facial emotion
recognition ability, Virtual Reality, 18(1), 61–71, 2014.
6. Marzbani H., Marateb H.R., Mansourian M., Neurofeedback: A Comprehensive
Review on System Design, Methodology and Clinical Applications Basic and Clinical
Neuroscience, 7(2), 143–158, 2016.
7. Kołodziej M., Majkowski A., Sułko G., Rak R.J., Neurofeedback – realizacja
praktyczna w LabVIEW, Przegląd Elektrotechniczny, 20, 263–265, 2013.
8. Mingyu L., Jue W., Nan Y., Qin Y., Development of EEG Biofeedback System Based
on Virtual Reality Environment, IEEE Engineering in Medicine and Biology 27th
Annual Conference, 5362–5364, 2005.
9. Cho B.H., Attention Enhancement System using virtual reality and EEG biofeedback
, Proceedings IEEE Virtual Reality, 156–163, 2002.
10. Biofeedback EEG VR, https://sensusmed.pl/uslugi/biofeedback-eeg/ dostęp: 21.01.2018.
11. Baran K., Skublewska-Paszkowska M., Pszczoła-Pasierbiewcz I., Metody akwizycji
ruchu 3D na przykładzie ergometru wioślarskiego, Współczesne problemy
fizjoterapii Wydawnictwo Naukowe TYGIEL, 18–38, 2016.
12. Skublewska-Paszkowska M., Montusiewicz J., Łukasik E., Pszczoła-Pasierbiewicz
I., Baran K.R., Smołka J., Pueo B., Motion capture as a modern technology for
analysing ergometer rowing, Advances in Science and Technology, Research
Journal, 10(29), 132–140, 2016.
13. Gritsenko V., Dailey E., Kyle N., Taylor M., Whittacre S., Swisher A.K., Feasibility
of Using Low-Cost Motion Capture for Automated Screening of Shoulder Motion
Limitation after Breast Cancer Surgery, PLoSONE, 10(6), 2015.
14. Zhou H. Hu H., Human motion tracking for rehabilitation – A survey, Biomedical
Signal Processing and Control 3, Elsevier, 1-18, 2008.
15. Brodie M., Walmsley A., Page W., Fusion motion capture: a prototype system using
inertial measurement units and GPS for the biomechanical analysis of ski racing,
Sports Technology, 1, 17–28, 2008.
16. Van Der Zee S., Popped R., Taylor P.J., Anderson R., To freeze or not to freeze:
A motion capture approach to detecting deceit, Proceedings of the Hawaii
International Conference on System Sciences, 2015.
17. Lem S., Summa Technologiae, University of Minnesota Press, 2014.
18. Bialkova S., Van Gisbergen M.S., When sound modulates vision: VR applications
for art and entertainment, IEEE 3rd Workshop on Everyday Virtual Reality
(WEVR), 1–6, 2017.
19. Dascal J., Reid M, IsHak WW., Spiegel B., Recacho J., Rosen B, Danovitch I.,
Virtual Reality and Medical Inpatients: A Systematic Review of Randomized,
Controlled Trials, Innovations in Clinical Neuroscience, 14(1–2), 14–21, 2017.
20. Huang H.M., Liaw S.S., Lai C.M., Exploring learner acceptance of the use of virtual
reality in medical education: a case study of desktop and projection-based display
systems, Interactive Learning Environments (1–17), 2013.
21. Virtual Reality, https://www.sothebysrealty.com/eng/virtual-reality, dostęp: 21.01.2018.
22. Audi VR, https://www.campaignlive.co.uk/article/audi-rolls-global-vr-experience-
people-back-showroom/1441935, dostęp: 21.01.2018.
23. Barnes S., Understanding Virtual Reality in Marketing: Nature, Implications and
Potential, SSRN: http://ssrn.com/abstract=2909100, 2016.
46
24. Marriott VRoom Service http://news.marriott.com/2015/09/marriott-hotels-
introduces-the-first-ever-in-room-virtual-reality-travel-experience/, 21.01.2018.
25. Reality 51, http://www.reality51.com/pl, dostęp: 21.01.2018.
26. Kakumanu P., Makrogiannis S., Bourbakis N., A survey of skin-color modeling and
detection methods, Pattern Recognition Elsevier 40(3), 1106–1122, 2007.
27. Kim M.S., Hong K.S., An avatar expression method using biological signals of face-
images, 2016 International Conference on Information and Communication
Technology Convergence (ICTC), 1101–1103, 2016.
28. Bekele E., Bian D., Peterman J., Park S., Sakar N., Design of a Virtual Reality System
for Affect Analysis in Facial Expressions (VR-SAAFE): Application to
Schizophrenia, IEEE Transactions on Neural Systems and Rehabilitation
Engineering, 25(6), 739–749, 2017.
29. Hidaka K., Qin H., Kobayashi J., Preliminary test of affective virtual reality scenes
with head mount display for emotion elicitation experiment, 17th International
Conference on Control, Automation and Systems (ICCAS), 325–329, 2017.
30. Schloss K.B., Palmer S.E., The color of music, Journal of Vision, 8(6), 580–580a, 2008.
31. Szucs V., Elgendy M., Assistive metod for people with heating disability-music
visualisation, IEEE 30th Neumann Colloquium (NC), 000117–000118, 2017.
32. Elhayek A. i inni, MARCOnI-ConvNet-Based MARker-Less Motion Capture in
Outdoor and Indoor Scenes, IEEE Transactions on Pattern Analysis and Machine
Intelligence, 39(3), 501–514, 2017.
33. Kapur A., Kapur A., Virji-Babul N., Tzanetakis G., Driessen P.F., Gesture-Based
Affective Computing on Motion Capture Data, Affective Computing and Intelligent
Interaction ACII 2005 Lecture Notes in Computer Science Springer, 3784,1–7, 2005.
34. Busso C., Bulut M., Lee CC. i inni., IEMOCAP: interactive emotional dyadic motion
capture database, Lang Resources & Evaluation Springer 42, 2008.
35. Crane E., Gross M., Motion Capture and Emotion: Afect Detection in Whole Body
Movement, Affective Computing and Intelligent Interaction. ACII 2007 Lecturer
Notes in Computer Science Springer, 4738, 95–101, 2007.
36. Busso C., Deng Z., Yildirim S., Bulut M., Lee C.M., Kazemzadeh A., Lee S.,
Neumann U., Narayanan S., Analysis of emotion recognition using facial
expressions, speech and multimodal information, ICM’04 Proceedings of the 6th
International Conference on Multimodal Interfaces, 205–211, 2004.
37. Horlings R., Datcu D., Rothkrantz L.J.M., Emotion recognition using brain activity,
Proceedings of the 9th International Conference on Computer Systems and
Technologies and Workshop for PhD Students in Computing Article, 6, 2008.
38. Izzati N., Razi M., Othman M., Yaacob H., EEG-based Emotion Recognition in the
Investment Acitivities, ICICTMW 2016.
39. Gilsang Y., Hong S., Emotion Evaluation Analysis and System Design of Biosignal, 2016.
40. Liu Y.J., Zhao G., Ge Y., Shi Y., Real-Time Movie-Induced Discrete Emotion
Recognition from EEG Signals, Transactions on Affective Computing 2017.
41. Mavridou I. i inni, FACETEQ interface demo for emotion expression in VR, IEEE
Virtual Reality (VR), 441–442, 2017.
47
Magdalena Michalska
Wybrane metody segmentacji obrazów
medycznych
1. Wstęp
Segmentacja uproszcza obrazu przez zmniejszenie nadmiarowej informacji,
pogrupowania pikseli o zbliżonych wartościach intensywności lub łączenia
pikseli opisujących poszczególne elementy. To proces partycjonowania
cyfrowego obrazu na kilka części. Celem segmentacji jest uproszczenie, zmiana
reprezentacji obrazu na bardziej znaczący i łatwiejszy do analizy. Obszarami są
zbiory pikseli, zaś jako kryteria jednorodności obszarów wybierane są między
innymi poziom szarości, barwa, czy tekstura. Po procesie segmentacji piksele
obrazu podzielone są na określone rozdzielne klasy względem określonego
wcześniej algorytmem kryterium [1].
Istotne z praktycznych zastosowań segmentacji obrazu jest obrazowanie
medyczne. Monografia przedstawia wykorzystanie wybranych metod
segmentacji w przetwarzaniu obrazów medycznych uzyskanych różnego rodzaju
technikami obrazowania. Wysegmentowane elementy pomagają w lokalizacji
guzów i innych patologii, w diagnozie, badaniu struktury anatomicznej
i w planowaniu operacji. Opracowano wiele algorytmów i technik ogólnego
zastosowania do segmentacji obrazu.
2. Metody progowe
Najprostszą metodą segmentacji obrazu jest metoda progowania. Ta metoda
jest oparta na poziomie dobranej wartości progowej, aby przekształcić obraz
w skali szarości w obraz binarny. Istnieje również zrównoważony próg
histogramu. Kluczem tej metody jest wybranie jednej wartości progowej
lub kilku wartości, gdy wybrano wiele poziomów. Stosuje się kilka popularnych
metod, w tym metodę maksymalnej entropii, metodę Otsu (maksymalna
wariancja) i metodę k-średnich.
2.1. Segmentacja przez progowanie
Jedną z podstawowych metod segmentacji obrazu jest właśnie segmentacja
przez progowanie. Pozwala ona wyznaczyć wartość progową T (w skali jasności
obrazu). Każdy piksel obrazu po dokonaniu tej segmentacji jest przydzielany
magdalena.michalska@pollub.edu.pl Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
48
do jednej z kategorii. Istotna jest tutaj wartość większa bądź równa wartości
progowej oraz wartość mniejsza od wartości progowej.
),( dla 0
),( dla 1),(
Tyxf
Tyxfyxg
(1)
Po progowaniu uzyskuje się obraz binarny, którego macierz składa się
z samych zer i jedynek. Wyróżniamy kilka rodzajów progów. Pierwszym z nich
jest globalnym progiem jasności. Mamy z nim do czynienia przy wyznaczaniu
progu globalnego, kiedy wartość progu ustalona została na podstawie całego
obrazu. Natomiast kiedy wartość progu zależy od współrzędnych przestrzennych
(x,y) obrazu wówczas próg jest ustalany dynamicznie.
Segmentacja przez progowanie została wykorzystana w [2]. Autorzy
opracowali automatyczny schemat segmentacji obrazu, aby określić pojawienie
się przerzutów nowotworów do płuc na podstawie obrazów PET. W badaniach
klinicznych zastosowano fantom Jaszczaka zawierający zestaw kulek
o objętościach w zakresie od 0,4 do 5,5 ml, co odpowiada zjawiskom
obserwowanym klinicznie podczas uszkodzeń płuc. Wyniki uwzględniające
fantom porównano z wynikami otrzymanymi podczas badań pacjentów
z pierwotnymi lub przerzutowymi zmianami w płucach. Próg segmentacji zmian
zarówno w fantomie jaki i dla zmian u pacjentów był zastosowany do obrazów
PET w celu uzyskania aktywności związanej z uszkodzeniem i ostatecznym
oszacowaniem wartości objętość uszkodzenia. Analiza danych fantomowych
wykazała, że segmentacja obrazu zbiegła się z ustaloną wartość progową od 36%
do 44% dla objętości kulki większej niż 4 ml. Wykorzystana metoda progu
adaptacyjnego zastosowana do skanowania PET dokładnie określa objętość guza.
Należy jednak o niepewnościach jakie pojawiają się podczas obiektywnej oceny
zmiany chorobowej przez lekarza. Związane jest to z dokładnym rysowaniem
obszarów zainteresowania, które są wytyczane w procesie diagnostyki.
Dla progowania wielopoziomowego buduje się wektor T zawierający
elementy T1,T2,...,TN, którego elementami są wartości wybranych poziomów
przeprowadzanego progowania. Na Rysunku 1 przedstawiono działanie
progowania pozwalające na otrzymanie 4 regionów. Powstanie wówczas obraz
podzielony przez dokonanie wybranej segmentacji o N+1 różnych jasnościach.
Poniższe wyrażenie pozwala na uzyskanie trzech takich obszarów A1, A2 i A3.
),(
23
212
11
T) f(x,ygdy A
Tf(x,y)gdy TA
T) f(x,ygdy A
yxg
(2)
49
Rys. 1. Podstawa działania progowania wielopoziomowo obrazu dla 4 regionów
Źródło: Hoover A., Kouznetsova V., Goldbaum M., Locating blood vessels in retinal images by
piecewise threshold probing of a matched filter response, IEEE Transactions on Medical imaging,
19(3), 203–210, 2000.
Wspomniana metoda progowania wielopoziomowo została wykorzystana
do lokalizacji i określenia zarysu naczyń krwionośnych w obrazach dna oka [3].
Takie narzędzie okazało się przydatne specjalistom okulistycznym do badań
przesiewowych, oceny leczenia i badaniach klinicznych. Zastosowano ją dla 20
obrazów otrzymując aż 90% wynik pozytywnie dodatni (TP). Potwierdza to, że
metody segmentacji pozwalają w bardzo zadowalający sposób zobrazować
ukrwienie gałki ocznej i pomóc w ocenie diagnostycznej. Otrzymane wyniki
po procesie wielopoziomowej segmentacji pokazywane są w skali szarości, każdy
region zabarwiony jest inną barwą (im ciemniejszy piksel na obrazie,
tym wyższy zadany próg).
2.2. Metoda Otsu
Metoda Otsu jest jedną z metod progowania i jest często używana w różnych
dziedzinach. Polega ona na weryfikacji możliwych progów, kolejnym krokiem
jest wybór takiego, by wariancja wewnątrzklasowa była jak najmniejsza
lub wariancja międzyklasowa była jak największa. Dany obraz o N poziomach
jasności [0,N-1] podzielony zostaje przez próg t na dwie klasy: klasę obiektu oraz
klasę tła. Oblicza się następnie prawdopodobieństwa (wartości znormalizowanego
histogramu) dla obu klas. Metoda Otsu opisuje klasy przez funkcje
prawdopodobieństwa: rozkład klasy obiektu oraz rozkład klasy tła. Obraz
z klasami charakteryzowany jest poprzez wartości średnie oraz wariancje
w poszczególnych klasach. Algorytm Otsu dąży do wyznaczenia wartość
50
wariancji międzyklasowej dla każdej wartości progowej t, a progiem optymalnym
t* jest wartość t dla której wariancja międzyklasowa osiąga wartość maksymalną.
(a)
(b)
Rys. 2. Wykorzystanie metody Otsu, (a) oryginalne obrazy z sekwencji obrazów biopsji
nerek, (b)wyniki działania metody
Źródło: Pohle R., Toennies K. D., Segmentation of medical images using adaptive region
growing., Proceedings of SPIE Medical Imaging, 4322(9), 1337–1346, 2001.
Wspomniana metoda została wykorzystana do segmentacji patologii,
znajdujących się w próbce po biopsji nerki [6]. Podstawową ideą automatycznego
progowania jest automatyczny wybór optymalnego lub kilku optymalnych
wartości progowych poziomu szarość do oddzielania interesujących obiektów
w obrazie od tła. Jedną z istotnych cech wybranej metody segmentacji jest jej
wrażliwość na rozmiar obiektu. Jeśli proporcja obiektu jest znacznie mniejsza niż
tło, to piksele w tle zostaną błędnie sklasyfikowane jako obiekt. Natomiast jeśli
proporcja obiektu jest o wiele większa niż tło, piksele w obiekcie zostaną błędnie
sklasyfikowane jako tło. W przypadku próbek z biopsji nerek rozmiar obiektu jest
bardzo duży, a tło małe, może nastąpić błędna klasyfikacja pikseli według
tradycyjnej metody Otsu. Aby rozwiązać ten problem, należy wykonać analizę
histogramu na podstawie falkowej transformacji w celu skorygowania progu
Otsu.
51
3. Segmentacja w oparciu o regiony
Algorytmy segmentacji w oparciu o regiony można dodatkowo podzielić
na algorytmy segmentacji opartej na parametrycznym modelu i algorytmy rosnące
w regionie. Pierwsze opierają się na założeniu parametrycznego modelu
powierzchni i grupowania punktów danych tak, że wszystkie z nich można uznać
za punkty powierzchni z założonego modelu.
Algorytmy rosnące w regionie rozpoczynają się od segmentacji obrazu
w regionach początkowych. Regiony te są następnie łączone lub rozszerzane.
Początkowe regiony można uzyskać przy użyciu różnych metod, w tym metod
iteracyjnych lub losowych. W tej metodzie poszukuje się grup elementów
o zbliżonym poziomie jasności. Algorytm rozpoczyna od jednego elementu
i sprawdza czy elementy sąsiednie mają podobną jasność, określoną wartością
z zakresu. Jeśli tak, to są grupowane w jeden obszar. Skutkuje to rozrastaniem się
pojedynczych elementów obrazu. Wyniki segmentacji przez rozrost silnie zależą
od wyboru progu.
3.1. Algorytmy rosnące w regionie
Algorytmy rosnące w regionie zakładają wybranie punktów początkowych,
które zwane są ziarnami. Algorytm segmentacji sprawdza sąsiednie piksele ziaren
i decyduje na podstawie założonego zakresu czy dany piksel powinien być dodany
do bieżącego regionu. Proces przebiega iteracyjnie, podobnie jak w algorytmach
klasteryzacji danych.
Pierwszym krokiem tworzenia regionu jest wyznaczenie ziaren. Ustalane są
one na podstawie określonego wcześniej kryterium. Region rozrasta
się od ziarna do przyległego piksela w zależności od podanego kryterium
przynależności, którym może być intensywność piksela, poziom szarości
lub kolor. Wartości te wyznacza się na podstawie histogramu obrazu. Podczas
segmentacji używa się cztero- lub ośmiopunktowego sąsiedztwa. Co oznacza, że
brane są pod uwagę informacje z czterech sąsiednich pikseli stykających się
bokami lub ośmiu sąsiednich pikseli stykających się bokami i wierzchołkami.
Podczas mechanizmu podziału obszarów na regiony na początku cały obraz
traktowany jest jako jeden region. Następnie sprawdzany jest warunek
jednolitości. Jeżeli obszar nie spełnia zadanego kryterium, zostaje podzielony na
równe części. Krok iteracyjny zostaje zakończony. W kolejnym kroku, brane pod
uwagę są cztery regiony. Algorytm jest powtarzany do momentu, aż regiony nie
spełnią kryterium jednolitości. Wówczas sprawdzany region zostaje
automatycznie dzielony na cztery i proces powtarza się nadal do momentu, aż
wszystkie obszary spełniają żądane kryterium [7].
Bardzo istotny jest właściwy dobór ziaren właściwy w zależności od
pożądanego efektu umiejscowienie ziaren w tym samym obrazie może być różne.
Należy pamiętać, iż im większą ilość informacji posiadamy, tym łatwiej wybrać
52
ziarna i próg. Ważną kwestią jest zakres, ustalony z góry poziom, poniżej którego
algorytm przypisuje piksele do wspólnego regionu [8].
W [4] przy segmentacji skorzystano z metody łączenia regionów. W tej
metodzie punkty zaszczepienia są wymagane do zainicjowania procesu, wyniki
segmentacji są zależne od wyboru nasion. Regiony rozwijają się iteracyjnie,
łącząc sąsiadujące piksele w zależności od kryterium połączenia. Proces ten jest
kontynuowany, dopóki wszystkie piksele nie zostaną przypisane
do odpowiednich regionów zgodnie z kryterium połączenia. Zastosowano
również podział regionalny, który jest przeciwieństwem scalania regionów,
a cały obraz jest stale dzielony, dopóki nie jest możliwe dalsze dzielenie regionu.
Metoda podziału i scalania opiera się na reprezentacji danych w której segment
obrazu jest dzielony na cztery kwadraty. Pod warunkiem, że oryginalny segment
nie jest jednorodny we właściwościach. Następnie cztery sąsiednie kwadraty łączą
się w zależności od jednolitości regionu (segmentów). Proces podziału i scalania
jest kontynuowany do momentu, gdy nie będzie możliwe dalsze rozdzielanie
i scalanie.
(a)
(b)
Rys. 3. Segmentacja obrazów CT oparta na regionach jest (a) obraz oryginalny, (b) wynik
działania segmentacji oparty o 3 regiony
Źródło: Sharma N., Aggarwal L. M., Automated medical image segmentation techniques, J Med.
Phys.,35(1), 3–14, 2010.
4. Segmentacja przez wykrywanie krawędzi
Algorytmy podziału oparte są na wykrywaniu krawędzi stosują detektor
krawędzi do wyodrębniania krawędzi. Po wyodrębnieniu granic krawędzie
o wspólnych właściwościach są grupowane razem. Segmentacja przez
53
wykrywanie krawędzi daje zestaw segmentów, które łącząc się obejmują cały
obraz lub konturów z obrazu. Każdy z pikseli w regionie jest podobny
w odniesieniu do niektórych właściwości charakterystycznych lub obliczonych.
Sąsiednie regiony różnią się znacząco pod względem tych samych cech.
Krawędź jest to linia oddzielająca obszary o różnej jasności, różnym poziomie
nasycenia. Jest więc pewnym obszarem przejścia między dwoma poziomami
jasności. Ostre krawędzie na obrazie odzwierciedlają ważne informacje
i nieregularności, a detekcja wszelkich anomalii jest pożądana we wszelkiego
rodzaju obrazowaniu medycznym. Do metod detekcji krawędzi zaliczają się
kategorie wykorzystujące badanie pierwszej pochodnej (metody gradientowe)
i drugiej pochodnej.
Poniżej opisano następujące maski: Robertsa, Prewitta, Sobela, które są
wykorzystywane do detekcji krawędzi. Z upływem czasu pojawia się wiele
nowych technik wykorzystujących detekcje krawędzi, stosuje się również
operacje pozwalające na przygotowanie obrazu do obróbki za pomocą filtrów
krawędziowych. W [9] ulepszono zasięg segmentacji obrazu opartej na
technikach wykrywania krawędzi. Opracowane podejście lepiej zachowuje
topologię obiektu. Eksperymenty przeprowadzono w popularnej bazie danych
obrazów a wyniki porównano z czterema innymi tradycyjnymi wartościami.
4.1. Maska Robertsa
Użycie maski Robertsa polega na obliczeniu różnic luminancji pikseli
znajdujących się w sąsiedztwie po przekątnych. Następnie dodawane są ich
wartości bezwzględne. Wynikowy obraz powstaje po dokonaniu splotu macierzy
obrazu z każdą z przedstawionych poniżej macierzy o wymiarach 2x2
o współczynnikach 0, -1, 1.
01
10
10
01
(3)
Operacje dają dwie macierze ukazujące pochodne kierunkowe obliczone
dla dwóch kierunków 135° i 45°. Obliczenie różnic modułów
z odpowiadających sobie elementów macierzy pozwala na otrzymanie wyniku.
4.2 Maska Prewitta
W cyfrowym przetwarzaniu obrazów do detekcji krawędzi pionowych,
poziomych i ukośnych używany jest operator Prawitta umożliwiający
wyznaczenie dla każdego piksela obrazu estymaty pochodnej kierunkowej
w jednym z 8 kierunków. Określany jest kierunek oraz wielkość krawędzi na
podstawie najbardziej dopasowanej maski. Poniżej przedstawiono przykłady
masek dla kątów 0°, 45°, 90° i 135°.
54
110
101
011
111
000
111
011
101
110
101
101
101
4321 PPPP (4)
Każdą kolejną maskę dostaje się przez obrót podanej maski o 180°.
Wystarczające jest obliczenie splotu z czterema pierwszymi maskami, ponieważ
różnią się od pozostałych tylko znakiem.
4.3. Maska Sobela
Otrzymane wartości pochodnych cząstkowych informują o wektorze gradientu
dla każdego z punktów obrazu. Maska dzięki której można uzyskać maksymalną
wartość pochodnej określa moduł i kierunek gradientu z rozdzielczością 45°.
Poniżej przedstawiono przykłady masek dla kątów 0°, 45°, 90° i 135°.
210
101
012
121
000
121
012
101
210
101
202
101
4321 SSSS (5)
Kolejne maski powstają przez obrót podanych masek o 180°. Istotne jest,
iż maski mają różne znaki. Należy więc obliczyć sploty z czterema pierwszymi
maskami.
Wydajność tej metody zależy od obecności szumu w obrazie pierwotnym.
W obrazie mogą występować fałszywe krawędzie i słabe krawędzie, które mogą
mieć negatywny wpływ na wyniki segmentacji. Techniki wykrywania krawędzi
muszą być stosowane w połączeniu z techniką opartą na regionie w celu pełnej
segmentacji.
55
Rys. 4. Kroki przetwarzania obrazów: (a) oryginalny mammogram, (b) obraz po poziomej
i pionowej filtracji Sobel oryginalnej mammografii, (c)obraz wynikający z filtrowania FWG
oryginalnej mammografii, (d) obraz z poziomego i pionowego filtrowania Sobela obrazu
FWG, (e) obraz wynikający z medianowego filtrowania
Źródło: Petrick N., Chan H. P., Sahiner B., Helvie M. A., Combined adaptive enhancement and
region‐growing segmentation of breast masses on digitized mammograms, Medical physics, 26(8),
1642–1654, 1999.
5. Narzędzia sztucznej inteligencji do segmentacji
Automatyczne metody segmentacji zostały oparte również na technikach
opartych na sztucznej inteligencji. Techniki te można zaklasyfikować jako
nadzorowane i nienadzorowane. Nadzorowana segmentacja wymaga interakcji
operatora w trakcie procesu segmentacji, podczas gdy metody nienadzorowane
zwykle wymagają zaangażowania operatora dopiero po zakończeniu segmentacji.
Metody nienadzorowane są preferowane, aby zapewnić powtarzalny wynik.
Jednak w przypadku niewystarczającego wyniku nadal wymagana jest interakcja
operatora w celu korekty błędów.
W nadzorowanej kategorii możemy umieścić głównie algorytmy oparte
na sztucznej sieci neuronowej. Składa się z dużej liczby połączonych ze sobą
elementów przetwarzających (sztuczne neurony), które działają wspólnie w celu
rozwiązania konkretnych problemów.
56
W [11] zastosowano sieć neuronową do wysegmentowania mikrozwapnień
w piersiach kobiet diagnozowanych za pomocą mammografii. W przypadku SSN
uczenie się osiąga się przez dostosowanie ciężarów i stronniczości neuronów
w odniesieniu do procedury treningowej i danych treningowych. Metoda jest
szeroko stosowana w celach segmentacji i klasyfikacji, zarówno nadzorowanych
i niekontrolowanych trybach. Mimo, że opracowano wiele różnych algorytmów
większość z tych algorytmów klasyfikacji tekstury wymaga intensywnego
nadzoru i szkolenia.
Czasami nadzorowana segmentacja obrazu i metody klasyfikacji stają się
bardzo kosztowne, trudne, a nawet niemożliwe. Aby poprawnie wybrać
i oznaczyć dane szkoleniowe za pomocą ich prawdziwej kategorii szkolenie jest
głównym wymogiem wielu algorytmów opartych na sieciach neuronowych.
W przypadku różnych zestawów danych, analizy różnych obrazów cały wysiłek
związany jest z wyborem zestawu danych treningowych i samego treningu.
Główna zaleta SSN to umiejętność uczenia się adaptacyjnie, wykorzystanie
danych treningowych do rozwiązywania złożonych problemów. Mają zdolność
samoorganizacji, mogą stworzyć własną organizację w zależności od informacji,
które otrzymuje w czasie nauki. Posiadają jeszcze możliwość działania w czasie
rzeczywistym ze względu na równoległą konfigurację.
Rys. 5. Segmentacja z użyciem sieci neuronowej, (a) oryginalny mammograf, (b) wynik
działania segmentacji
Źródło: Sampaio W. B., Diniz E. M., Correa Silva A., Cardoso de Paiva A., Gattass M.,
Detection of masses in mammogram images using CNN geostatistic functions and SVM, Computers
in Biology and Medicine 41, 653–664, 2011.
57
6. Podsumowanie
Dostępne techniki segmentacji obrazów medycznych są specyficzne
dla zastosowania, modalności obrazowania i rodzaju badanej części ciała. Nie ma
uniwersalnego algorytmu segmentacji każdego obrazu medycznego. Każdy
system obrazowania ma swoje własne specyficzne ograniczenia. Oczywiście
niektóre metody są bardziej ogólne w porównaniu do wyspecjalizowanych
algorytmów i można je zastosować do szerszego zakresu danych.
W przypadku segmentacji obrazu medycznego celem jest badanie struktury
anatomicznej, zidentyfikowanie regionu zainteresowania, pomoc w planowaniu
leczenia przed radioterapią. Chociaż zaproponowano szereg algorytmów
w dziedzinie segmentacji obrazów medycznych, segmentacja obrazu medycznego
nadal stanowi złożony i trudny problem.
W ostatnich latach zaproponowano szeroką gamę podejść do segmentacji
obrazów mających własne zalety i ograniczenia. Podejść do segmentacji obrazu
jest wiele, można je uszeregować na podstawie stosowalności, przydatności,
wydajności i kosztów obliczeniowych. Techniki segmentacji oparte na technikach
poziomu szarości, takie jak progowanie i techniki oparte na regionach są
najprostszymi technikami i znajdują ograniczone zastosowania. Jednak ich
wydajność można poprawić, integrując je z technikami sztucznej inteligencji.
Różnorodne algorytmy oparte na sieciach neuronowych są również dostępne
dla segmentacji opartej na fakturze i klasyfikacji z dobrą dokładnością. Jednak
większość tych algorytmów opartych na sieci neuronowej wymaga intensywnego
nadzoru i szkolenia, a ich działanie zależy od metody szkolenia
i danych wykorzystywanych podczas szkolenia. Wśród algorytmów segmentacji
obrazu medycznego i algorytmów klasyfikacji pożądane są następujące cechy:
dokładność, niezawodność, powtarzalność, solidność i najmniejsze uzależnienie
od operatora.
Bibliografia
1. Wróbel Z., Koprowski R., Praktyka przetwarzania obrazów z zadaniami
w programie Matlab, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2012.
2. Erdi Y. E., Mawlawi O., Larson S.M., Imbriaco M., Yeung H., Finn R., Humm J.L.,
Segmentation of lung lesion volume by adaptive positron emission tomography image
thresholding, Cancer 80(12), 2505–2509, 1997.
3. Hoover A., Kouznetsova V., Goldbaum M., Locating blood vessels in retinal images
by piecewise threshold probing of a matched filter response, IEEE Transactions on
Medical imaging,19(3), 203–210, 2000.
4. Sharma N., Aggarwal L.M., Automated medical image segmentation techniques,
J Med Phys., 35(1), 3–14, 2010.
5. Greenspan H., van Ginneken B., Summers R. M., Deep Learning in Medical Imaging:
Overview and Future Promise of an Exciting New Technique, IEEE Transactions on
Medical Imaging 35(5), 1153–1159, 2016.
58
6. Pohle R., Toennies K. D., Segmentation of medical images using adaptive region
growing., Proceedings of SPIE Medical Imaging, 4322, 9,1337–1346, 2001.
7. Sharma N., Aggarwal L. M., Automated medical image segmentation
techniques, Journal of medical physics/Association of Medical Physicists of India
35(1), 3–14 , 2010.
8. Doros M,. Przetwarzanie obrazów: materiały pomocnicze do ćwiczeń,
Wydawnictwo WIT, Warszawa 2005.
9. Bellon O. R., Silva L., New improvements to range image segmentation by edge
detection, IEEE Signal Processing Letters 9(2), 43–45, 2002.
10. Petrick N., Chan H. P., Sahiner B., Helvie M. A., Combined adaptive enhancement
and region‐growing segmentation of breast masses on digitized
mammograms, Medical physics, 26(8), 1642–1654, 1999.
11. Sampaio W. B., Diniz E. M., Correa Silva A., Cardoso de Paiva A., Gattass M.,
Detection of masses in mammogram images using CNN, geostatistic functions and
SVM, Computers in Biology and Medicine 41, 653–664, 2011.
59
Róża Dzierżak
Zastosowanie „deep learningu” w analizie
obrazów medycznych
1. Wstęp
Techniki uczenia maszynowego (machine learning) zrewolucjonizowały
proces analizy obrazów, również medycznych. Istnieje wiele skutecznych
algorytmów umożliwiających klasyfikację według ustalonych cech, jednak wciąż
poszukiwane są nowe metody automatycznej diagnostyki obrazowej.
W przypadkach bardziej skomplikowanych problemów analitycznych,
zastosowanie znalazła zaawansowana technika, zwana „głębokim uczeniem”
(deep learning). Metoda ta doprowadziła do zwiększenia wydajności istniejących
technik uczenia maszynowego i rozwiązania problemów wcześniej uznawanych
za nierozwiązywalne [1–2].
Deep learning jest podkategorią uczenia maszynowego, polegającą na
tworzeniu wielowarstwowych sieci neuronowych, które naśladują czynności
warstw neuronów w ludzkim mózgu. Algorytmy głębokiego uczenia są ułożone
hierarchicznie, według rosnącej złożoności. Pozwala to na stworzenie systemów
predykcyjnych do analizy dużych zbiorów danych [3–4].
Tradycyjne uczenie maszynowe jest procesem nadzorowanym, wymaga
stworzenia bazy przykładów na których pracuje maszyna, precyzyjnego
określenia poszukiwanych cech oraz wspomagania poprzez poprawianie
powstałych błędów. Przewagą deep learningu jest fakt, że proces uczenia odbywa
się bez nadzoru. Program samodzielnie buduje zestaw cech do rozpoznania, co
jest szybsze i zazwyczaj bardziej dokładne. Dzięki temu, proces głębokiego
uczenia nie wymaga bezpośredniego udziału człowieka [4–5].
2. Sieci konwolucyjne
Wraz z rozwojem zastosowań głębokiego uczenia, tworzono nowe
architektury sieci dedykowane konkretnym rodzajom danych. Standardowe sieci
zastosowane do analizy obrazów o dużej rozdzielczości miały zbyt duże rozmiary
oraz zbyt długi czas oczekiwania na wyniki. W celu zoptymalizowania
parametrów sieci, powstała specjalna architektura, zwana siecią konwolucyjną
(convolutional neural network, CNN) [5].
Konwolucyjne sieci neuronowe składają się z wielu warstw, a każda z nich
ma swoje specyficzne zastosowanie. Neurony znajdujące się w warstwie
r.dzierzak@pollub.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział Elektrotechniki
i Informatyki, Politechnika Lubelska
60
wejściowej zostają podzielone na obszary o identycznym rozmiarze, a neurony
z tego samego obszaru połączone z neuronami z warstwy wyżej. Powoduje to
utworzenie filtru, który w trakcie uczenia sieci jest odpowiedzialny za
wykrywanie konkretnej cechy obrazu. Aby dana cecha była w taki sam sposób
wykrywana w całości analizowanego obrazu, konieczne jest, aby filtr o takiej
samej strukturze połączeń oraz identycznych wagach występował we wszystkich
obszarach [6].
Wszystkie filtry wykrywające niskopoziomowe cechy obrazów tworzą
warstwę konwolucyjną, a jej neurony połączone są z neuronami z funkcją
aktywacji ReLU. tworzącymi warstwę ReLU. Kolejnym elementem sieci jest
warstwa pooling, która wspomaga wydobycie najważniejszych cech
z poprzednich warstw. Wszystkie trzy warstwy odpowiadają za wykrycie
złożonych wzorców w obrazie [6–7].
Rys. 1. Architektura sieci konwolucyjnej.
Źródło: Albelwi S., Mahmood A., A Framework for Designing the Architectures of Deep
Convolutional Neural Networks, Entropy 19(6), 242, 2017.
Warstwą wspierającą ostateczny proces klasyfikacji obiektu jest tzw. warstwa
gęsta (fully connected layer). Każdy neuron jest połączony z każdym neuronem
z poprzedniej warstwy, a każde połączenie ma swoją własną wagę, czyli
wyuczony parametr. Warstwa gęsta może występować w sieci wielokrotnie, na
różnych poziomach i w różnych konfiguracjach [6–7] .
3. Zastosowanie w obrazach medycznych
W porównaniu z innymi technikami uczenia maszynowego, deep learning
przyczynił się do znacznych postępów w rozwoju metod analizy obrazów.
Sukcesy te skłoniły badaczy zajmujących się komputerowym obrazowaniem
61
medycznym do zbadania potencjału głębokiego uczenia w obrazach medycznych
uzyskanych za pomocą tomografii komputerowej, rezonansu magnetycznego,
PET i obrazów RTG. Proces głębokiego uczenia znalazł zastosowanie
w wykrywaniu struktur anatomicznych, segmentacji tkanek oraz komputerowo
wspomaganej prognostyce i diagnostyce chorób [8–20].
Liczba artykułów naukowych dotyczących zastosowania deep learningu do
analizy obrazów medycznych gwałtownie wzrosła w 2015 i 2016 r. [3], co
świadczy o postępach w zastosowaniu tej techniki.
Rys. 2. Statystyka publikowanych referatów (rok 2017)
Źródło: Litjens G., Kooi T., Bejnordi B. E., Setio A. A. A., Ciompi F., Ghafoorian M., van der
Laak J. A.W.M., Ginneken B., Sánchez C. I, A survey on deep learning in medical image analysis,
Medical Image Analysis 42, 60–88, 2017.
3.1. Deep learning w identyfikacji struktur anatomicznych
Lokalizacja struktur anatomicznych w obrazach medycznych to kluczowy etap
w radiologicznej ocenie wyników badania. Lekarze zazwyczaj wykonują te
zadania, identyfikując określone cechy obrazu, które mogą odróżnić jedną
strukturę anatomiczną od innych. Sukces takich metod zależy zasadniczo od tego,
ile sygnatur anatomicznych może zostać wyodrębnionych za pomocą operacji
obliczeniowych. Na etapie wczesnych badań tworzono specyficzne filtry
obrazowe w celu wyodrębnienia sygnatur anatomicznych, jednak najnowsze
badania wykazały, że podejścia oparte na deep learningu pozwalają uzyskać
lepsze wyniki, dzięki powstawaniu coraz bardziej zaawansowanych algorytmów
[1, 3].
62
3.2. Deep learning w segmentacji
Segmentacja narządów i innych struktur w obrazach medycznych pozwala na
ilościową analizę parametrów związanych z ich objętością i kształtem. Jest to
również jeden z kluczowych etapów analizy obrazów. Proces segmentacji jest
zwykle definiowany jako identyfikacja zbioru wokseli, które składają się na obrys
lub wnętrze obiektu zainteresowania (region of interest, ROI). Realizacja procesu
segmentacji za pomocą głębokiego uczenia spowodowała rozwój unikatowych
architektur opartych na konwolucyjnych sieciach neuronowych (CNN) i szersze
zastosowanie sieci rekurencyjnych (RNN) [8–12].
Rys. 3. The architecture of the fully convolutional network used for tissue segmentation
Źródło: Dinggang S., Guorong W., Heung-Il S., Deep Learning in Medical Image Analysis, The
Annual Review of Biomedical Engineering 9:221–248, 2017.
W artykule [8] przedstawiono w pełni zautomatyzowaną metodę segmentacji
nowotworów mózgu, opartą na Deep Neural Networks (DNN). Proponowane
sieci są dostosowane do diagnostyki glejaków przedstawionych na zdjęciach MRI
(zarówno o niskiej, jak i wysokiej jakości). Guzy te mogą pojawiać się w całym
obszarze mózgu oraz mieć różnorodny kształt i rozmiar. Z tego powodu
zastosowano elastyczną DNN o dużej pojemności, która jest niezwykle wydajna.
Do segmentacji tego nowotworu wykorzystano różne architektury oparte na
konwolucyjnych sieciach neuronowych specjalnie dostosowanych do danych
obrazowych.
63
Rys. 4. Wizualne wyniki działania modelu, InputCascadeCNN *. Oznaczenia: zielony – obrzęk,
żółty – obszar nowotwóru, czerwony – martwica komórek
Źródło: Havaei M., Davy A., Warde-Farley D., Biard A., Courville A., Bengio Y., Pal C.,
Jodoina P. M., Larochelle H., Brain tumor segmentation with Deep Neural Networks, Medical
Image Analysis 35, 18–31, 2017.
Stworzona przez autorów [8] sieć, jednocześnie wykorzystuje cechy lokalne,
jak i globalne. W odróżnieniu od większości tradycyjnych zastosowań CNN,
zaprezentowane sieci wykorzystują ostateczną warstwę, która jest splotową
implementacją w pełni połączonej warstwy, która pozwala na 40-krotne
przyspieszenie przetwarzania. W pracy opisana została również dwufazowa
procedura treningowa, która pozwala zniwelować problemy wynikające
z nierównej liczby oznaczeń nowotworu. Zaprezentowano także architekturę
kaskadową, w której wyjście z podstawowego CNN traktowane jest jako
dodatkowe źródło informacji dla kolejnego CNN. Wyniki przeprowadzonych
testów pokazały, że stworzona sieć jest ok 30 razy szybsza niż sieci znane
wcześniej [8].
Kolejnym przykładem zastosowania deep learningu w analizie obrazów
medycznych jest segmentacja lewej komory (LV) z kardiologicznych obrazów
rezonansu magnetycznego (MRI). Jest to niezbędny etap obliczenia wskaźników
klinicznych, takich jak objętość komory i frakcja wyrzutowa. W artykule [14]
wykorzystano algorytmy głębokiego uczenia w połączeniu z odkształcalnymi
modelami w celu opracowania w pełni automatycznego narzędzia do segmentacji
LV z krótkookresowych kardiologicznych zbiorów danych MRI. Sieci
konwolucyjne są wykorzystywane do automatycznego wykrywania komory LV
w zestawie danych MRI. Stosowane autoenkodery służą do określania kształtu
LV. Przyjęty kształt jest wbudowywany w modele odkształcalne, aby poprawić
64
dokładność segmentacji. Badania przeprowadzono na 45 kardiologicznych
zestawach danych MRI. Wyniki uzyskane dla parametrów takich jak metryka
walidacji, procent dobrych konturów, miara kości oraz średnia odległość
prostopadła okazały się znacznie lepsze niż w przypadku innych znanych metod [14].
Rys. 5. Wyniki obrazowe przy zastosowaniu modelu odkształcalnego bez ograniczenia
kształtu (niebieski), deep learningu (czerwony) i połączenia metod (żółty)
Źródło: Avendi M.R., Kheradvar A., Jafarkhani H., A combined deep-learning and deformable-
model approach to fully automatic segmentation of the left ventricle in cardiac MRI, Medical Image
Analysis 30, 108–119, 2016.
Ostatnie lata przyniosły ogromny napływ metod związanych z nowymi
algorytmami opartymi na deep learningu. Utworzono niestandardowe
architektury, bezpośrednio dedykowane procesowi segmentacji. Dzięki
udoskonalaniu i rozbudowywaniu sieci możliwe jest uzyskanie coraz lepszych
wyników [8–14].
3.3. Deep learning w klasyfikacji
Klasyfikacje za pomocą techniki deep learningu znalazła zastosowanie przy
diagnostyce raka skóry – najczęściej występującego u ludzi nowotworu
złośliwego. Jest on diagnozowany głównie wizualnie, zaczynając od wstępnego
badania klinicznego, a następnie za pomocą analizy dermoskopowej, biopsji
i badania histopatologicznego [15]. Automatyczna klasyfikacja zmian skórnych
za pomocą obrazów jest trudnym zadaniem ze względu na drobnoziarnistość
zmian skórnych W artykule [16] przedstawiono klasyfikację zmian skórnych za
pomocą pojedynczego CNN, używając tylko pikseli oraz etykiet choroby jako
65
dane wejściowych. Uzyskane wyniki pod są porównywalne do tych uzyskanych
za pomocą badań dermatologicznych. Planowane jest stworzenie aplikacji na
urządzenia mobilne, która umożliwi szybką i samodzielną diagnostykę raka skóry.
Rys. 6. Schemat sieci wykorzystanej do klasyfikcji
Źródło: Esteva A., Kuprel B., Novoa R. A., Ko J., Swetter S. M, Blau H. M., Thrun S.,
Dermatologist-level classification of skin cancer with deep neural networks, Nature 542, 115–118,
2017.
3.4. Deep Learning w detekcji wspomaganej komputerowo (CADe)
Celem CADe jest zlokalizowanie podejrzanych regionów w obrazach
strukturalnych i tym samym zwrócenie uwagi diagnostów na dany obszar.
Zastosowanie CADe zwiększa odsetek wykrywalności chorych regionów przy
jednoczesnym zmniejszeniu odsetka wyników fałszywie ujemnych, co może być
spowodowane błędem lub zmęczeniem osoby oceniającej obraz. Chociaż CADe
ma ugruntowaną pozycję w obrazowaniu medycznym, metody głębokiego uczenia
się poprawiły jego działanie w różnych zastosowaniach klinicznych [1, 3].
Zazwyczaj CADe działa według ustalonego schematu: regiony kandydujące
są wykrywane za pomocą technik przetwarzania obrazu i reprezentowane przez
zestaw cech, takich jak informacje morfologiczne lub statystyczne. Cechy są
wprowadzane do klasyfikatora, aby otrzymać prawdopodobieństwo decyzję, czy
zmiany w badanej tkance są obecne. Otrzymane cechy można również
wykorzystać w technice deep learningu. Powstałe w ten sposób modele stosowane
są między innymi do wykrywania guzków płucnych, węzłów chłonnych,
klasyfikacji śródmiąższowej choroby płuc w obrazach CT, wykrywanie zmian
mózgowych i zmian stwardnienia rozsianego w obrazach MRI. Większość metod
opisanych w literaturze opierała się na sieciach konwolucyjnych w celu
maksymalnego wykorzystania informacji strukturalnych w dwóch lub trzech
wymiarach [1, 3, 17, 18].
W artykule [17] wykorzystano trzy czynniki polegające na zastosowaniu
głębokich splotowych sieci neuronowych do komputerowego wspomagania
detekcji. Zbadane i ocenione zostały różne architektury CNN. Badane modele
zawierały od 5 do 160 milionów parametrów i różniły się liczbą warstw.
66
Następnie oceniono wpływ skali zestawu danych i kontekstu obrazu
przestrzennego na wydajność. W pracy przeanalizowane zostały dwa specyficzne
problemy związane z wykrywaniem komputerowym (CADe), a mianowicie
wykrywanie węzłów chłonno-piersiowych (LN) i klasyfikacja śródmiąższowa
płuc (ILD).
Rys. 7. Niektóre przykłady brzusznych i śródpierścieniowych węzłów chłonnych
z czterema różnymi polami widoków (30 mm: pomarańczowy, 45 mm: czerwony, 85 mm:
zielony, 128 mm: niebieski) otaczające węzły chłonne.
Hoo-Chang S., Roth H. R., Gao M., Lu L., Xu Z., Nogues I., Yao J., Mollura D., Summers R.
M., Deep Convolutional Neural Networks for Computer-Aided Detection: CNN Architectures,
Dataset Characteristics and Transfer Learning, IEEE Trans Med Imaging 35(5),1285–1298, 2016.
Kolejnym zastosowaniem deep learningu w komputerowym wspomaganiu
detekcji jest wykrywanie patologii klatki piersiowej w obrazach radiograficznych
[18]. Tak jak w poprzednich przypadkach zastosowano konwolucyjną sieć
neuronową. Badanie przeprowadzono na 433 obrazach RTG, a otrzymane wyniki
były tak samo satysfakcjonujące jak te otrzymane w konsultacjach z lekarzami.
3.5. Deep learning w diagnostyce wspomaganej komputerowo (CADx)
CADx zapewnia obiektywną opinię dotyczącą oceny choroby na podstawie
informacji obrazowych. Główne zastosowania diagnostyki wspomaganej
komputerowo wiąże się z dyskryminacją złośliwych zmian chorobowych.
Większość systemów CADx opracowano w taki sposób, aby wykorzystywały
67
zaprojektowane przez ludzi funkcje opracowane przez ekspertów. Niedawno
z powodzeniem zastosowano do tego systemy głębokiego uczenia [1, 3].
Rak płuc jest chorobą wyleczalną, wtedy gdy zostaje wykryty odpowiednio
wcześnie. Jednak postępowanie z małymi guzkami płuc odnotowanymi
w tomografii komputerowej jest kontrowersyjne z powodu niepewnych cech guza
[15]. Konwencjonalny schemat wspomagania komputerowego (CAD) wymaga
kilku etapów przetwarzania obrazu i rozpoznawania wzoru, aby uzyskać
ilościowy wynik różnicowania nowotworu. W tak długim procesie analizy obrazu,
każdy kolejny etap zależy w dużym stopniu od efektywności poprzedniego kroku.
W związku z tym dokonanie klasyfikacji w konwencjonalnym systemie CAD jest
bardzo skomplikowane i uciążliwe. Techniki głębokiego uczenia mają
nieodłączną zaletę automatycznej funkcji eksploatacji. W porównaniu
z podstawowymi metodami określania cech, deep learning pozwala na uzyskanie
lepszych wyników i daj szansę na wykrywanie nawet niewielkich zmian
w początkowym stadium choroby [19, 20].
Rys. 8. Różne rodzaje guzków płucnych na obrazach tomografii komputerowej
Źródło: Hua K. L., Hsu C. H., Hidayati S. C., Cheng W. H., Chen Y. J., Computer-aided
classification of lung nodules on computed tomography images via deep learning technique, Onco
Targets Ther. 8, 2015–2022, 2015.
68
4. Podsumowanie
Ostatnie postępy w technice deep learningu rzucają nowe światło na
skuteczność automatycznej diagnostyki obrazowej. Metody głębokiego uczenia
osiągnęły zadowalające wyniki w różnych obszarach zastosowań obrazowania
medycznego, jednak wciąż poszukiwane są nowe algorytmy. Zastosowanie deep
leaningu w kluczowych procesach analizy obrazów medycznych zwiększa szanse
na wczesną detekcję zmian chorobowych. Dokładna identyfikacja oraz
segmentacja poszczególnych struktur anatomicznych pozwala na ocenę ilościową
obrazu oraz wysunięcie wniosków diagnostycznych. Proces klasyfikacji pozwala
na zweryfikowanie stanu poszczególnych tkanek oraz ewentualnego stopnia
zaawansowania zmian chorobowych.
Dynamiczny rozwój technik głębokiego uczenia umożliwia zastosowanie ich
w nowych obszarach analiz. Rozbudowywane algorytmy są w stanie osiągać
coraz lepsze wyniki pod względem poprawności diagnostycznej. Zastosowanie
ich do w pełni zautomatyzowanych systemów znacznie przyspieszy i usprawni
ocenę stanu struktur i narządów wewnętrznych.
Literatura
1. Dinggang S., Guorong W., Heung-Il S., Deep Learning in Medical Image Analysis,
The Annual Review of Biomedical Engineering 9, 221–248, 2017.
2. Xu Y., Mo T., Feng O., Zhong P., Lai M., Chang E., Deep learning of feature
representation with multiple instance learning for medical image analysis, IEEE
International Conference on Acoustic, Speech and Signal Processing, 2014.
3. Litjens G., Kooi T., Bejnordi B. E., Setio A. A. A., Ciompi F., Ghafoorian M., van
der Laak J. A.W.M., Ginneken B., Sánchez C. I, A survey on deep learning in medical
image analysis, Medical Image Analysis 42, 60–88, 2017.
4. LeCun L., Bengio Y., Hinton G., Deep learning, Nature 521, 436–444, 2015.
5. Schmidhuber J. Deep learning in neural networks: an overview, Neural Network 61,
85–117, 2015.
6. Albelwi S., Mahmood A., A Framework for Designing the Architectures of Deep
Convolutional Neural Networks, Entropy 19(6), 242, 2017.
7. Zeiler, M.D., Fergus, R., Visualizing and understanding convolutional networks,
Proceedings of the European Conference on Computer Vision, 818–833, 2014.
8. Havaei M., Davy A., Warde-Farley D., Biard A., Courville A., Bengio Y., Pal C.,
Jodoina P. M., Larochelle H., Brain tumor segmentation with Deep Neural Networks,
Medical Image Analysis 35, 18–31, 2017.
9. Bao, S., Chung, A. C., Multi-scale structured CNN with label consistency for brain
MR image segmentation, Computer Methods in Biomechanics and Biomedical
Engineering: Imaging & Visualization, 1–5, 2016.
10. Brebisson, A., Montana, G., Deep neural networks for anatomical brain
segmentation, Comput Vis Pattern Recognit, 20–28, 2015.
11. Pereira, S., Pinto, A., Alves, V., Silva, C. A., Brain tumor segmentation using
convolutional neural networks in MRI images, IEEE Trans Med Imaging, 2016.
69
12. Moeskops, P., Viergever, M. A., Mendrik, A. M., de Vries, L. S., Benders, M. J. N.
L., Isgum, I., Automatic segmentation of MR brain images with a convolutional
neural network, IEEE Trans Med Imaging 35 (5), 1252–1262, 2016.
13. Li, W., Jia, F., Hu, Q., Automatic segmentation of liver tumor in CT images with deep
convolutional neural networks, Journal of Computer and Communications 3 (11),
146–151, 2015.
14. Avendi M.R., Kheradvar A., Jafarkhani H., A combined deep-learning and
deformable-model approach to fully automatic segmentation of the left ventricle in
cardiac MRI, Medical Image Analysis 30, 108–119, 2016.
15. Siegel R, Naishadham D, Jemal A. Cancer statistics, CA Cancer J Clin. 63(1),
11–30, 2013.
16. Esteva A., Kuprel B., Novoa R. A., Ko J., Swetter S. M, Blau H. M., Thrun S.,
Dermatologist-level classification of skin cancer with deep neural networks, Nature
542, 115-118, 2017.
17. Hoo-Chang S., Roth H. R., Gao M., Lu L., Xu Z., Nogues I., Yao J., Mollura D.,
Summers R. M., Deep Convolutional Neural Networks for Computer-Aided
Detection: CNN Architectures, Dataset Characteristics and Transfer Learning, IEEE
Trans Med Imaging 35(5), 1285–1298, 2016.
18. Bar Y., Diamant I., Wolf L., Greenspan H., Chest pathology detection using deep
learning with non-medical training, IEEE International Symposium on Biomedical
Imaging, 2015, http://citeseerx.ist.psu.edu/
19. Roth HR, Lu L, Liu J, Yao J, Seff A, et al. Improving computer-aided detection using
convolutional neural networks and random view aggregation, IEEE Trans. Med.
Imaging 35, 1170–1181, 2016.
20. Hua K. L., Hsu C. H., Hidayati S. C., Cheng W. H., Chen Y. J., Computer-aided
classification of lung nodules on computed tomography images via deep learning
technique, Onco Targets Ther. 8, 2015–2022, 2015.
70
Magdalena Michalska
Atlasy mózgu we wspieraniu działań
diagnostycznych i neurochirurgicznych
1. Wstęp
Pojawienie się narzędzi pozwalających na dokładne obrazowanie mózgu
zapoczątkowało rozwój wielu rodzajów atlasów mózgu. Chciano precyzyjnie
określić jego geometrię i nazwać jego poszczególne części. Dało to początek
procesowi ujednolicenia struktur mózgu dla określonej grupy populacji ludzkiej.
Zaczęły powstawać wtedy pierwsze atlasy mózgu człowieka. Probabilistyczne
atlasy mózgu, dostarczają informacji na temat strukturalnej i funkcjonalnej
zmienności w dużych populacjach ludzkich. Stały się potężnymi narzędziami
o szerokim zastosowaniu. Atlasy obecnie obejmują automatyczne znakowanie
obrazu, wykrywanie patologii oraz badanie, w jaki sposób zmienia się anatomia
podczas choroby oraz wraz z wiekiem, płcią i innymi czynnikami. Ważna jest
szeroka dostępność atlasów dla lekarzy i naukowców, by mogły być one
wykorzystane do ich dalszego rozwoju. Rozdział zawiera przegląd dostępnych
atlasów mózgu używanych w diagnostyce, planowaniu przedoperacyjnym,
śródoperacyjnym wsparciu neurochirurga i ocenie pooperacyjnej pacjenta.
2. Początki atlasów
Budowa i funkcje ludzkiego mózgu zawsze były bardzo interesujące dla wielu
badaczy. Pojawienie się tomografii komputerowej (CT) (ang. Computed
Tomography) również umożliwiło wizualizację wybranych struktur mózgu
[1–3]. Kolejnym istotnym narzędziem okazał się rezonans magnetyczny.
Obrazowanie za pomocą rezonansu magnetycznego (MRI) (ang. Magnetic
Resonance Imaging) pozwoliło niemal w pełni zobrazować mózg pacjenta [4–7].
Obrazowanie MRI opiera się na zjawisku magnetycznego rezonansu jądrowego,
gdzie wykorzystywane jest jądro atomu wodoru. Ma on spin połówkowy
i występuje powszechnie w przyrodzie obiektach biologicznych w postaci wody.
Proton stanowi rotującą wokół własnej osi sferę o dodatnim ładunku
elektrycznym. Ruchowi temu przypisuje się moment pędu, zaś rotacja ładunku
elektrycznego powoduje powstanie pola magnetycznego.
Jednak dokładne zobrazowanie tak skomplikowanej struktury jaką jest ludzki
mózg nie jest łatwym zadaniem. Po wykonaniu badania CT czy MRI istnieje wiele
rozbieżności pomiędzy budową anatomiczna a fizjologią [8].Najdrobniejsze
magdalena.michalska@pollub.edu.pl Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
71
szczegóły nie zostają uchwycone z powodu wielu czynników zarówno
sprzętowych jaki i tych zależnych od pacjenta czy operatora. Dzięki czemu
powstają obrazy, które nie są w pełni zadawalające i muszą zostać one poddane
innym procesom, by jak najlepiej wydobyć z nich potrzebne szczegóły [9–10].
Z biegiem lat skomputeryzowane atlasy mózgu stały się rozpowszechnione
w stacjach neurochirurgicznych i zaczęły być dostępne w jednostkach
klinicznych. Powstałe atlasy mózgu są również wykorzystywane
w neurochirurgii. Wykonane wcześniej systemy przez cały czas rozwijają się aby
precyzyjnej określić wybrany fragment znajdujący się w ludzkim mózgu. Do
nowszych atlasów wykorzystywane są już rozbudowane bazy danych zarówno
obrazów baz pacjentów jaki i stworzonych i nazwanych elementów budujących
atlasy. Powstałe bazy z miesiąca na miesiąc rozwijają się. Uwzględniają one
anatomię mózgu, jego funkcjonalność i integralności struktur z siecią naczyń
krwionośnych. Wspomagane są one oczywiście wynikami klinicznymi
pacjentów, by stworzone narzędzie wykorzystywało wysokiej rozdzielczości
multimodalnościowe obrazowanie mózgu. Dzięki czemu pozwalają na
przedoperacyjny, śródoperacyjny i pooperacyjny podgląd i identyfikację żądanej
struktury anatomicznej. Atlasy pozwalają również na odniesienia umożliwiające
integrację informacji z różnych źródeł danych o pacjencie.
3. Komputerowe atlasy mózgu
Integrowanie stacji roboczych neurochirurgów z atlasami pozwoliło na rozwój
komputerowych atlasów mózgu. Dzięki instalacji ich w wielu jednostkach
szpitalnych na całym świecie są one bardzo popularne wśród neurochirurgicznej
społeczności lekarzy i naukowców.
Posiadają one szereg nowych i niezwykle użytecznych funkcji, jakich jak
w pełni segmentowane i oznakowane zdjęcia, skanowanie rejestracji w wyniku
automatycznej segmentacji, interaktywne etykietowanie obrazów pacjenta,
skorelowana prezentacja w dwóch i trzech wymiarach, definiowanie obszarów
zainteresowania do analizy struktury i wyszukiwania ilościowego.
3.1. Budowanie atlasów
Aby przystąpić do budowania całego atlasu mózgu trzeba dokładnie poznać
w jaki sposób został stworzony. Prześledzenie mechanizmu powstawania atlasu
jest również istotne, by poznać wszystkie jego funkcji potrzebne w jego
późniejszej obsłudze. Mechanizm budowania atlasu dotyczy przede wszystkim
przynależności wybranej objętości mózgu pacjenta do danej struktury
anatomicznej. Określenie jej lokalizacji umożliwia korelację w przestrzeni
orientacyjnych wymiarów budowanych obszarów. Każda w wybranych
lokalizacji jest dostępna w wybranym z okien nawigacji widokiem w atlasie.
Umożliwia to śledzenie operatora interesującej go struktury w każdym
z dostępnych widoków w wybranym układzie współrzędnych i w wybranej
72
orientacji. Każda lokalizacja może zostać skorelowana na podstawie
prostopadłych współrzędnych. Przykłady tych funkcji atlasów zostały
przedstawione na Rysunku 1.Struktury ukazywane są w 2D i 3D (Rysunek 1(a))
w zależności od wyboru operatora. Dodatkowo w identyfikacji struktury
pomagają umieszczone w atlasie ich nazwy (Rysunek 1(a) i 1(b)). Mniejsze
obszary są również łączone w regiony zgodnie z ich podziałem anatomicznym, co
przedstawiają Rysunki 1(c) i 1(d). Atlasy umożliwiają orientację wybranej
struktury anatomicznej w 3 orientacjach: poprzecznej, długiej i strzałkowej.
a
b
c d
Rys. 1. Widoki z przykładowych atlasów ludzkiego mózgu: (a) atlas C–TT w orientacji
czołowej 3D, (b) wielokrotne etykietowanie w regionie wzgórzowym według nomenklatury
Walkera i Hassler, (c) atlas SW, (d) przekrój strzałkowy obrazu oryginalnego z naniesionymi
konturami nazwanych obszarów mózgu z atlasu
Źródło: Lozano A., Gildenberg P., Tasker R., Textbook of stereomatic and functional
neurosurgery, Springer, 2009.
73
Ważna jest także kwantyfikacja dotycząca umieszczenia atlasu we
współrzędnych układu atlasu. Jest niezwykle użytecznym rozwiązaniem
pozwalającym na lepszą ocenę diagnostyczną badanej struktury i jej
przynależności do danego elementu mózgu. Atlasy umieszczone są we
współrzędnych, w których to system umożliwia odczyt współrzędnych
i obliczanie odległości pomiędzy nimi [11]. Jako główne układy współrzędnych
określa się system Schaltenbrand [12] oraz system Talairach [13]. Wyszukiwanie
struktury może być wykonywane w bieżącym obrazie lub na całej serii obrazów
medycznych pochodzących z dowolnej modalności. Następnym krokiem może
być zbudowanie modelu trójwymiarowego ukazującego wysegmentowną
strukturę w bryle. Dlatego bardzo ważna jest informacja dotycząca umieszczenia
modelu we współrzędnych, by móc określić położenie danej struktury. Każda ze
struktur posiada unikalną identyfikującą ją nazwę, a nazwy tworzą kolejne
indeksy. Dąży się aby atlasy miały ujednoliconą skróconą lub pełną nomenklaturę
a atlasy były jak najlepiej zintegrowane ze sobą. Każdą strukturę można odnaleźć
w zbiorze indeksów i zlokalizować ją w atlasie i na indywidualnie wczytanym
obrazie mózgu pacjenta pochodzącym z obrazowania medycznego. W bieżącym
obrazie atlasu lub na całej serii obrazów wielu atlasów możliwe jest wyszukiwanie
wybranej ze struktur. Pozwala to na szybszą orientację w całej skomplikowanej
strukturze jaka jest ludzki mózg i dokładne określenie miejsca położenia
poszukiwanego elementu [14–15]. Struktura następnie wyświetlana jest już
w całej bryle
Istotne są również deformacje struktur anatomicznych spowodowanie
urazami, wcześniejszymi operacjami chirurgicznymi, ubytkiem części mózgowia,
pojawieniem się guza czy obrzękiem całego mózgowia. Odkształcalny atlas może
indywidualnie dopasować wykonane podczas procesu diagnostyki skany głowy
pacjenta do odpowiednich struktur znajdujących się w elektronicznym atlasie
[16]. Proces umożliwi również segmentacja dająca oznakowanie wybranej
struktury, która jest przenoszona z danymi pacjenta do widoku atlasu.
Atlas może posiadać wiele różnych reprezentacji. Należą do nich między
innymi mapy bitowe obrazów z zaznaczonymi na nich kolorowymi strukturami,
bitmapy z wytyczonymi strukturami, geometryczne kontury struktur,
trójwymiarowe geometryczne modele powierzchni i objętości. Przykłady tych
sposobów reprezentacji zamieszczono na Rysunku 2. Każda ze struktur może
zostać również nazwana osobno, co zostało pokazane w prawym pasku okna
przytoczonego widoku atlasu. Zostały one tutaj wykorzystane do planowania
operacji i śródoperacyjnego wsparcia już podczas operacji neurochirurgicznej.
74
Rys. 2. Atlas planowania przedoperacyjnego, śródoperacyjnego wsparcia i oceny
pooperacyjnej struktury mózgu ukazanej w 2D i 3D
Źródło: Lozano A., Gildenberg P., Tasker R.,Textbook of stereomatic and functional
neurosurgery, Springer, 2009.
3.2. Wydania atlasów
Atlasy mogą wyć wydawane w formie aplikacji, atlasów internetowych czy
płyt CD – ROM [17]. Dysk CD-ROM.z atlasem zawiera ulepszone obrazy atlasu,
nowe wolumeny, całkowicie oznakowane obrazy atlasowe i wykonywanie
animacji 3D struktur mózgowych. Aplikacje wykorzystują wirtualną
rzeczywistość , szybkie planowanie neurochirurgiczne, integrują atlasy mózgu
3D, modele geometryczne. Pozwalają na przeprowadzenie szkolenia młodego
chirurga dzięki prostemu i intuicyjnemu środowisku. Użytkownik ma do
dyspozycji narzędzia pozwalające na zaznaczenie określonych struktur mózgu
używając na bieżąco wyświetlanych rzeczywistych danych pacjenta. Dostępność
bazy danych atlasu mózgu na różnych platformach umożliwiają internetowe
atlasy, rozwijają one teleradiologię i zdalną rejestrację obrazów medycznych.
Pozwalają na dostęp do danych przez serwer i łącze internetowe.
4. Atlasy Cerefy
Bardzo ważnym narzędziem w nierochirurgii staje się nawigowana
neurochirurgia (SRN) (ang. Stereotactic and Functional Neurosurgery).
Wykorzystywane w niej przygotowane wcześniej i zintegrowane są komputerowe
atlasy Cerefy [18]. Jednak komputerowe atlasy anatomiczne mają dwa główne
75
ograniczenia w SFN. Są one zbudowane tylko z kilku próbek mózgu, więc nie
dają one informacji o większej ludzkiej populacji, zawierają wiele uśrednień.
Ponadto uwzględniają w większości przypadków anatomię, zapominając
o fizjologii, która jest niebywale użyteczna dla neurochirurgów.
Oprogramowania wspierające neurochirurgów zawierają prostą w obsłudze
funkcję pozwalająca na deformację atlasów podczas planowania operacji. Dzięki
tej czynności możliwe jest dopasowanie anatomii każdego z pacjentów podczas
badania. Wówczas atlas jest skalowany by dostosować go do rzeczywistych
danych pacjenta za pomocą dwuwymiarowych lokalnych deformacji
wykonywanych w wielu dostępnych orientacjach [18]. Wyznaczany jest obszar
zainteresowania, który jest ustawiany między dowolnymi punktami
orientacyjnymi wybranymi przez neurochirurga. Następnie odpowiedni obszar
atlasu jest deformowany dla tych samych punktów orientacyjnych w regionie
zainteresowania.
Kroki planowania można powtarzać dla wszystkich dostępnych orientacji,
a proces rozszerza t wykorzystanie atlasów poprzez indywidualizację
konkretnymi pacjentami. Wstępne wyniki pokazują, że procedura ta może
poprawić definicję, ocenę pomiarów pośrednich i skalowana by chirurg mógł
w dogodny sposób skorzystać z danych.
4.1. Cerefy Talairach and Tournoux Atlas
W atlasie Cerefy Talairach and Tournoux (TT) [19] każda struktura atlasu
zostawała zaprezentowana unikalnym kolorem. Przykłady atlasu C-TT
przedstawiono na Rysunku 3. Każda struktura atlasu jest zdefiniowana przez
podanie jej regionu poprzez jej konturowanie, oznaczone kolorami piksele lub
woksele lub ich obu jednocześnie. Etykietowanie odnosi się do przydziału nazw
w atlasie do wybranych struktur anatomicznych (Rysunek 3(b)).W rezultacie
każda struktura jesst wyodrębniona i należy do jednoznacznie określonej struktury
lub do tła. Atlas C-TT jest stale modyfikowany pod względem zawartości
tekstowej, reprezentacji danych i orientacji w przestrzeni.
76
(a) (b)
Rys.3. Atlas C-TT: (a) kolorowy obraz korony i konturu reprezentacji wraz z siatką
Talairach, (b) obraz reprezentacji konturu w płaszczyźnie strzałkowej Źródło: Nowinski W.L., The Cerefy brain atlases: continuous enhancement of the electronic
Talairach-Tournoux brain atlas, Neuroinformatics 3(4), 293–300, 2005.
4.2. Cerfery Schaltenbrand and Wahren
W budowaniu atlasów wykorzystywana jest również znacznie większa liczba
danych. Atlas Schaltenbrand and Wahren (SW) został stworzony w oparciu
o ponad 100 mózgów. Użyto w nim mikroskopijne przekroje przez półkule i pień
mózgu. Zastosowanie mikroskali pozwoliło najbardziej szczegółowo zobrazować
struktury położone głębiej w mózgu i zapewniło zakres zmienności dzięki dużej
liczbie analizowanych próbek. Użyte próbki miały rozdzielczość 0,1 m, co
pozwoliło na dokładnie wykonanie modeli 3D obu półkul przy użyciu
wielokątów, konturu i etykiet.
5. Probabilistyczne funkcjonalne atlasy mózgu
Istnieją również atlasy łączące cechy anatomiczne i funkcjonalne (ang.
Combined Anatomical - Functional Atlases)[20], a podczas badań nad nimi
stosuje się wszczepione pacjentom elektrody DBS. Całe badania tworzone są by
utworzyć pooperacyjne mapy obszarów i badać poprawę w trakcie leczenia
pacjentów. W [21]wykorzystano algorytmy obrazowania oparte na wiedzy na
zmienności anatomicznej w budowie atlasu specyficznego dla Alzheimera.
Ilustrują one zmiany w obszarach korowych mózgu. Opracowano specjalne
strategie dla populacji uśredniając anatomię do mapowania, gdzie lokalne
77
kodowanie zmienności anatomicznej jest wykorzystywane do tworzenia
wyraźnego obrazu patologii. W wynikowych szablonach korowych pojawiają się
asymetrie regionalne. Służą one do opracowania populacyjnych map zmian
korowych, ,,mozaika wzorców zmienności’’, które oddzielają się gwałtownie
w zależności od specjalizacji funkcjonalnej.
6. Wnioski
Stworzone wszystkie rodzaje atlasów mózgu człowieka są bardzo użyteczne
w wielu dziedzinach. Pozwalają studentom medycyny poznać anatomię mózgu,
doświadczonym neurochirurgom zaplanować i monitorować operację,
a psychiatrzy mogą korzystać z nich badając funkcjonalność różnych elementów
mózgu odpowiedzialnych za każdą z chorób. Atlasy nie powstałyby bez
współpracy środowiska medycznego z inżynierami, którzy dysponują ogromną
wiedzą w budowaniu algorytmów segmentacji obrazów, wyznaczania obszarów
zainteresowań i grafice trójwymiarowej. Coraz bardziej zaawansowane
technologicznie atlasy mózgu dają możliwość odnalezienia każdej interesującej
operatora struktury przez zlokalizowanie jej na indywidualnie wczytanym
przetworzonym wcześniej obrazie medycznym. Ich dobre przyjęcie przez
społeczność medyczną wynikało z zapewnienia wysokiej jakości
i zaproponowania nowatorskich rozwiązań.
Jednak mino powstania wielu projektów wciąż problemem jest system
informatyczny pozwalający na stabilne przechowywanie i przetwarzanie
ustandaryzowanych danych. Również sama procedura planowania działań przez
atlas wymaga doświadczenia i dużej wiedzy, dlatego bardzo istotne jest
zapewnienie szkoleń dla całej medycznej społeczności diagnostów i chirurgów.
Atlas pozwala na poruszanie się we wszystkich trzech orientacjach w przestrzeni,
dzięki czemu zapewnia elastyczność działań neurochirurga w wyborze wyraźnie
widocznych punktów w ludzkim mózgu. Zapewnienia wysoką dokładność
dopasowania danych w regionie zainteresowania daje neurochirurgowi
dodatkowy stopień pewności siebie w działaniach diagnostycznych i już podczas
wykonywania zabiegu operacyjnego, co przyczynia się do większej ilości operacji
zakończonych sukcesem. Atlasy komputerowe stały się tanim i szybkim
narzędziem w porównaniu z całym tradycyjnym procesem planowania zabiegu.
W przyszłości atlasy oparte na algorytmach obrazowania mogą również być
wykorzystane do obserwacji zmienności anatomicznej. Wyzwaniem może stać się
budowa atlasu mózgu opartego na danych dużej populacji dla wybranej choroby
i reprezentować ludzki mózg w chorobie.
78
Bibliografia
1. Rebouças E. S., Braga A. M., Sarmento R. M., Level Set Based on Brain
Radiological Densities for Stroke Segmentation in CT Images, Computer-Based
Medical Systems (CBMS), IEEE 2017.
2. Hidayatullah R. R., Sigit R., Wasista S., Segmentation of head CT-scan to calculate
percentage of brain hemorrhage volume, Knowledge Creation and Intelligent
Computing (IES-KCIC), IEEE 2017.
3. Yahiaoui A. F Z., Bessaid A., Segmentation of ischemic stroke area from CT brain
images, Signal, Image, Video and Communications (ISIVC), IEEE 2017.
4. Kosta P., Argyropoulou M.I., Markoula S., Konitsiotis S., MRI evaluation of the
basal ganglia size and iron content in patients with Parkinson’s disease, J Neurol.
253 (1), 26–32, 2006.
5. Sather M.D., Patil A.A., Direct anatomical localization of the subthalamic nucleus
on CT with comparison to Schaltenbrand- Wahren atlas, Stereotact Funct
Neurosurg, 85(1), 1–5, 2007.
6. Starr P.A., Vitek J.L., DeLong M., Bakay R.A., Magnetic resonance imaging-based
stereotactic localization of the globus pallidus and subthalamic nucleus, Neurosurg,
44(2), 303–13,1999.
7. Zhu X.L., Hamel W., Schrader B., Weinert D., Hedderich J., Herzog J., Volkmann
J., Deuschl G., Muller D., Mehdorn H.M., Magnetic resonance imaging-based
morphometry and landmark correlation of basal ganglia nucle,. Acta Neurochir.
144(10)959-69, 2002.
8. Spiegelmann R., Nissim O., Daniels D., Ocherashvilli A., Mardor Y., Stereotactic
targeting of the ventrointermediate nucleus of the thalamus by direct visualization
with high--field MRI, Stereotact Funct Neurosurg, 84(1) 19–23, 2006.
9. Richter E.O, Hoque T., Halliday W., Lozano A.M., Saint- Cyr J.A., Determining the
position and size of the subthalamic nucleus based on magnetic resonance imaging results
in patients with advanced Parkinson disease, J Neurosurg. 100(3), 541–6, 2004.
10. Bernstein M. A., King K. F., Xiadhong J. Z., Handbook of MRI pulse sequences,
Amsterdam, Elsevier 2004.
11. Mazziotta J. C, Toga A. W., Evans A., Fox P., Lancaster J., A Probabilistic Atlas of
the Human Brain: Theory and Rationale for Its Development: The International
Consortium for Brain Mapping (ICBM), NeuroImage, 2, 2A, 89–101, 1995.
12. Schaltenbrand G., Wahren W., Atlas for stereotaxy of the human brain, Stuttgart,
Thieme, 1977.
13. Talairach J., Tournoux P., Co-planar stereotactic atlas of the human brain, Stuttgart
New York, Thieme, 1988.
14. Nowinski W.L., Fang A., Nguyen B.T., Raphel J.K., Jagannathan L., Raghavan R.,
Bryan R.N., Miller G., Multiple brain atlas database and atlas-based neuroimaging
system, Comput Aided Surg, 2(1), 42–66, 1997.
15. Nowinski W.L,. Computerized brain atlases for surgery of movement disorders,
Semin Neurosurg. 12 (2),183–94, 2001.
79
16. Nowinski W.L., Electronic brain atlases: features and applications. In: Caramella
D, Bartolozzi C, editors. 3D image processing: techniques and clinical applications.
Medical Radiology series, Heidelberg: Springer, 79–93, 2002.
17. Nowinski W.L., Thirunavuukarasuu A., The cerefy clinical brain atlas on CD-ROM,
New York, Thieme, 2004.
18. Nowinski W.L., Bryan R.N., Raghavan R., The electronic clinical brain atlas:
multiplanar navigation of the human brain, New York, Thieme, 1997.
19. Nowinski W.L., The Cerefy Brain Atlases: continuous enhancement of the electronic
Talairach-Tournoux brain atlas, Neuroinformatics 3(4), 293–300, 2005.
20. Chakravarty M.M., Sadikot A.F., Mongia S., Collin D.L., Towards a multi-modal
atlas for neurosurgical planning. In: Proceedings of the ninth international
conference on Medical Image Computing and Computer-Assisted Intervention
(MICCAI 2006), Copenhagen, Denmark LNCS, 4191, Springer, 389–96, 2006.
21. Paul M. Thompson, Roger P. Woods, Michael S. Mega, Arthur W. Toga,
Mathematical/Computational Challenges in Creating Deformable and Probabilistic
Atlases of the Human Brain, Human Brain Mapping 9, 81–92, 2000.
80
Magdalena Michalska
Modele układu krwionośnego człowieka
1. Wstęp
W ciągu ostatnich lat pojawiło się wiele nowych narzędzi umożliwiających
modelowanie ludzkiego ciała. Nastąpiły zmiany w dostępnym sprzęcie
i oprogramowaniu komputerowym kładące szczególny nacisk na wiarygodne
modele ludzkiego ciała i liczne badania przeprowadzone przy użyciu stworzonych
modeli. Monografia zawiera przegląd wybranych modeli układu krwionośnego
człowieka. Należą do nich modele uwzględniające budowę komórkową tkanek
serca i charakterystykę przepływu płynów w układzie krwionośnym. Część
modeli tworzonych jest na podstawie obrazów pochodzących z różnych technik
obrazowania medycznego.
2. Anatomia i fizjologia układu krwionośnego człowieka.
2.1. Serce i jego naczynia wieńcowe
Serce jest bardzo ważnym organem w cele ludzkim, wraz z siecią żył, tętnic
i naczyniami włosowatymi tworzy układ sercowo – naczyniowy. Znajduje się
w środkowej części jamy klatki piersiowej, a otoczone jest workiem surowiczym,
zwany osierdziem. Wewnętrznie serce podzielone jest na cztery części: komorę
prawa i lewa, przedsionek prawy i lewy. Znaczna część ludzkiego serca znajduje
się po stronie lewej, a tylko mniej więcej 30% po stronie prawej. Istotne
w budowie zewnętrznej są również uszka serca. Przednie jest workowate i stanowi
nieco spłaszczone wypustki przedsionków. Ślepe końce uszek (miejsca ich
przyczepu) zginają się przyśrodkowo i przylegają do obu wielkich tętnic,
wypełniają one wgłębienie pomiędzy aortą a pniem płucnym z jednej strony
a komorami z drugiej [1]. Powierzchnia serca ludzkiego jest gładka, lśniąca
i wilgotna dzięki obecności błony surowiczej serca.
Serce posiada rozbudowany układ wieńcowy, to dzięki niemu zaopatrywane
jest w składniki odżywcze potrzebne do jego funkcjonowania. Lewa tętnica
wieńcowa serca zaopatruje w składniki odżywcze przednią i boczną powierzchnię
wolnej ściany lewej komory serca. Tylna ściana zaopatrywana jest przez tylną
tętnicę zstępującą. Okalająca część tętnicy prawej oddaje początek na swoim
przebiegu trzem tętnicom przedsionkowym, z których ostatnia zaopatruje węzeł
zatokowo – przedsionkowy. Przegroda międzykomorowa wraz z górną częścią
magdalena.michalska@pollub.edu.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
81
komorowego układu przewodzącego zaopatrywana jest przez tętnice
przegrodowe, pochodzące z lewej tętnicy wieńcowej. Żyły zbierające krew
z dorzecza prawej tętnicy wieńcowej uchodzą do prawego przedsionka tuż nad
zastawkami przedsionkowo – komorowymi [1].
Grubość mięśnia sercowego w komorze jest większa niż w ścianie
przedsionków, zawiera ona warstwę zewnętrzną skośną, środkową okrężną
i wewnętrzną podłużną. Niewielka liczba włókien kolagenowych i fibroblastów
oraz gęsta sieć naczyń krwionośnych włosowatych występuje pomiędzy
szeregami komórek mięśniowych. Natomiast warstwy tkanki łącznej otaczają
pęczki szeregów komórek. W tkance mięśniowej sercowej znajdują się
w znacznej liczbie włókna nerwowe nieposiadające osłonki mielinowej [2].
2.2. Krążenie krwi w ciele ludzkim
Korona serca jest układem wielkich naczyń tętniczych wychodzących z serca
(aorta i pień płucny) oraz żył uchodzących do serca (żyła główna górna i dolna
oraz cztery żyły płucne). Układ żył, tętnic i naczyń włosowatych tworzy
w organizmie dwa obiegi krwi – obieg duży i mały, zwany również obiegiem
płucnym.
Rys. 1. Schemat układu krwionośnego człowieka, RA – przedsionek prawy, LV – komora lewa
LA – przedsionek lewy, RV – komora prawa
Źródło: Formaggia L., Quarteroni A., Veneziani A., Cardiovascular Mathematics, Modeling and
simulation of the circulatory system, Springer 2009 .
82
Duży obieg krwi zaczyna swój bieg w lewej komorze serca. Aorta to tętnica
główna odpowiedzialna za doprowadzenie krwi utlenowanej do całego ciała
człowieka. Od łuku aorty odchodzą tętnice do głowy, kończyn górnych oraz
dolnej części ciała. Do serca krew jest doprowadzana za pomocą dwóch żył, żyły
głównej górnej i żyły głównej dolnej. Żyła główna dolna doprowadza krew
z głowy szyi, kończyn górnych, klatki piersiowej i kręgosłupa piersiowego,
natomiast dolna z kończyn dolnych, brzucha i miednicy. Mały obieg krwi
rozpoczyna się w prawej komorze, pień płucny wyprowadza krew z serca. Po
dokonaniu wymiany gazowej natleniona krew wraca żyłami do lewego
przedsionka serca. Żyła płucna dolna i żyła płucna górna doprowadzają do serca
krew z tlenem.
2.3. Elektrokardiogram
Elektrokardiografia pozwala pośrednio zarejestrować elektryczne czynności
mięśnia sercowego z powierzchni klatki piersiowej człowieka. Czynności te są
przedstawione jako różnica potencjałów pomiędzy elektrodami. Na wykresie
EKG otrzymujemy linię izoelektryczną. Jest ona pozioma, zarejestrowana
w czasie, gdy w sercu nie stwierdza się pobudzeń. Wyróżnia się załamki, odcinki
i odstępy. Do najbardziej charakterystycznych należy załamek P informuje
o depolaryzacji mięśnia przedsionków, zespół QRS odpowiada depolaryzacji
mięśnia komór, załamek T repolaryzacji komór, obecny jest również załamek U.
Odcinek PQ określa czas przewodzenia depolaryzacji przez węzeł
przedsionkowo-komorowy, a odcinek ST to czas depolaryzacji komór serca.
3. Modele układu krążenia
Modele nie powstałyby bez współpracy inżynierii biomedycznej i medycznej
społeczności, są obecnie wykorzystywane jako narzędzia kliniczne dla lekarzy
podczas diagnozowania chorób układu krążenia. Wykorzystują one cechy
specyficzne dla każdego pacjenta, wielkoskalowość, zindywidualizowane
przewidywanie ryzyka, wirtualne planowanie leczenia. W przyszłości mogą
stopniowo zostać zintegrowane w duże projekty pozwalające na stworzenie
"wirtualnego pacjenta".
3.1. Modele wykorzystujące obliczeniową mechanikę płynów
Obliczeniowa mechanika płynów wykorzystuje metody numeryczne do
rozwiązywania problemów związanych z przepływami płynów. W języku
angielskim została ona nazwana computational fluid dynamics, CFD.
W połączeniu z obrazowaniem układu sercowo-naczyniowego umożliwia
szczegółową parametryzację fizjologicznego ciśnienia, przepływów oraz
obliczanie wskaźników. Część ze wskaźników może również zostać
83
bezpośrednio mierzona. Badacze przyjęli CFD do badania złożonych przepływów
fizjologicznych i wykazali swój potencjał podczas pracy nad wieloma projektami.
Istnieje rosnące zainteresowanie zastosowaniem tych metod w poznaniu układu
sercowo-naczyniowego człowieka [4–6]. Naukowcy potrafią przewidzieć reakcje
fizjologiczne przy użyciu hemodynamicznych parametrów.
Budowę i rozwiązanie modelu CFD można opisać w kilku etapach. Pierwszym
wykorzystanym narzędziem może być obrazowanie kliniczne układu
krwionośnego np. USG, CT, MRI czy angiografia. Ruch anatomiczny można
śledzić w regionach podzielonych na wybrane wcześniej części. Podczas
budowania schematów symulacji przepływów w naczyniach uwzględniane są
zachowania hemodynamiczne. Stosowane są pewne uproszczenia, by nie
wywierać negatywnego wpływu na zasoby obliczeniowe i czas rozwiązania
algorytmu [7–8] Ponadto wyznacza się określone warunki brzegowe, ponieważ
niemożliwe jest dyskretyzowanie całego układu sercowo-naczyniowego, region
podlegający analizie musi posiadać co najmniej jeden wlot i jedno ujście.
W symulacji uwzględniane są oprócz geometrii czy danych granicznych również
właściwości np. krwi (gęstość i lepkość), warunki początkowe układu (np. czy
ciecz jest początkowo statyczna czy ruchoma), informacje o dyskretyzacji czasu
(wielkość kroku czasu i numeryczne schematy aproksymacji) oraz pożądane dane
wyjściowe (np. liczba cykli sercowych do symulacji).
Modelowanie CFD umożliwia badanie pól ciśnienia i przepływu
w rozdzielczości czasowej i przestrzennej nieosiągalnej dla żadnego klinicznego
narzędzia, mogą obliczyć naprężenie ścinające ściany naczynia (i zmapować jego
rozkład przestrzenny [9–10]. Przetwarzanie danych końcowych zapewnia nowe
spojrzenie na fizjologię i procesy chorobowe. Pomiar ściany tętnic WSS (ang.
wall shear stress) jest trudny i inwazyjny, to kluczowy czynnik w rozwoju
miażdżycy w naczyniu lub w stencie.
Stworzone modele stają się powoli narzędziami diagnostycznymi w chorobach
układu krążenia, najczęściej dotyczą zmian w naczyniach i stentach wywołanych
miażdżycą. Model obliczeniowej dynamiki płynów (CFD) wykazuje korelację
między naprężeniem ścinającym ściany (WSS) a restenozą w chorobie wieńcowej
tętnic. Zjawisko to obserwowane jest po zabiegach angioplastyki naczyniowej
polegającej na nawrocie zwężenia leczonej tętnicy. Na Rysunku 2 przedstawione
zostały przykłady zastosowania modeli dla stentów i naczyń krwionośnych.
84
Rys. 2. (a) modelowanie stentu w tętnicach wieńcowych, (b) wyniki symulacji CFD jako
przestrzenny rozkład wielkości WSS w ścianie tętnicy
Źródło: Morlacchi S., Migliavacca F., Modeling stented coronary arteries: where we are, where
to go, Ann Biomed Eng, 41,1428–44, 2013.
Codzienna praktyka kliniczna wymaga jednak indywidualnego leczenia
dostosowanego do indywidualnych potrzeb każdego z pacjentów. Modelowanie
CFD oferuje specyficzne dla pacjenta podejście. Pozwala poznać unikalną
anatomię i fizjologię jednostki, dane jednostki są używane do zdefiniowania
modelu. Obliczeniowa symulacja dynamiki płynów pozwala badać przepływ
przez każdy wybrany punkt naczynia. Podczas symulacji wykazuje się wysoką
prędkość przepływu krwi przez główny punkt wejścia. Jednak określenie samego
punktu nie wystarczy. Badania przeprowadza się do zlokalizowania między
innymi zakrzepicy w naczyniach. Modelowanie zjawisk chorobowych nie zastąpi
badań klinicznych, ale pozwoli na rzeczywistą ocenę badanego układu pod kątem
wybranych patologicznych zjawisk.
Typowa symulacja 3D układu sercowo-naczyniowego obejmuje bardzo wiele
elementów w kilku cyklach, z których każdy podzielony jest na setki lub tysiące
indywidualnych kroków. Modelowanie 3D CFD jest zatem czasochłonne
i wymagające wielu skomplikowanych obliczeń. Zazwyczaj w modelu CFD
wytwarza się ciśnienie i prędkość, ale tylko niewielka część tych danych jest
85
interesująca dla operatora. Ważne jest, aby modelowane wyniki były sprawdzane
przez dopuszczony standard. Zwykle wiąże się to z porównaniem wartości
mierzonych w fantomie. Na Rysunku 3 przedstawiona została rekonstrukcja 3D
naczynia aorty. Uwzględnia ona prędkość przepływu krwi w naczyniu w jego
trzech wybranych miejscach.
Rys. 3. Segmentacja, rekonstrukcja i symulacja 3D aorty, uwzględnia światło naczynia
podczas skurczu i rozkurczu w trzech wybranych miejscach
Źródło: Chen D, Müller-Eschner M, von Tengg-Kobligk H, A patient-specific study of type-B
aortic dissection: evaluation of true-false lumen blood exchange, Biomed Eng Online, 12, 65, 2013.
Powstałe modele uwzględniają również zachowanie się krwi podczas skurczu
i rozkurczu serca, obrazują naprężenia ściskające. Uwzględniane są również ruchy
ścian podczas oddechów, dane pozyskiwane są wtedy z badania MRI
bramkowanego sygnałem EEG. Istotna jest również zmienna średnica naczyń
krwionośnych, często naczynia włosowate są pomijane w modelach ze względu
na ich bardzo niewielki rozmiar.
3.2. Modele architektury tkanek serca
Architektura serca była intensywnie badana od wielu lat [13–14]. Posiada ona
złożone struktury, dlatego tkanki i komórki serca są trudne do opisania
ilościowego. W prawidłowo kurczącym się mięśniu sercowym występuje wiele
różnych struktur zorganizowanych w skomplikowaną architekturę. Najczęściej
zmianę organizacji tkanek obserwowano w warunkach patologicznych. Bardzo
istotne jest poznanie skali wielkości od komórkowej po tkankową, aż do całych
elementów ją budujących. Badania [15–17] można wykorzystać do wyjaśnienia
zaburzeń kardiologicznych architektury komórek i tkanek w wielu skalach, od
komórkowej do skali tkankowej. Podczas badań wykorzystywane są nie tylko
86
tworzone wzorce miar i kształtów komórek, odkrywane są również związki
między ich kształtem a konsystencją całej tkanki. Wskazówki dotyczące sposobu
samoorganizacji się tkanek są przyszłością ilościowej inżynierii tkankowej
w biomechanice układu sercowo-naczyniowego [18].
Obecnie ustalono, że do oceny orientacji włókien przy wysokiej rozdzielczości
przestrzennej można wykorzystać dyfuzyjne obrazowanie rezonansu
magnetycznego (ang. diffusion-weighted magnetic resonance imaging, DTMRI).
Wspomniane obrazowanie stosowane jest do pomiaru orientacji włókien
komorowych serca, DTMRI może być użyty do rekonstrukcji zarówno włókien
komorowych, jak i wykorzystania algorytmu mapowania dużych deformacji (ang.
large deformation diffeomorphic metric mapping, LDDMM ).
Dane anatomiczne mogą następnie zostać wykorzystane do symulacji
przewodzenia elektrycznego w modelu obliczeniowym tego samego serca, które
zostało zmapowane elektrycznie [19]. Ułatwia to bezpośrednie porównywanie
i testowanie wyników modelu w stosunku do wyników eksperymentalnych. Daje
to możliwość ilościowego pomiaru i analizy sposobów jak przebudowa
mikroanatomii komorowej wpływa na przewodnictwo elektryczne w sercu.
Na podstawie przeprowadzonych badań serca wykonanych za pomocą
ultrasonografii starano się wyodrębnić wybrane elementy tkanek budujących
serce. Podczas segmentacji obrazów wykonanych podczas badania uzyskano dwa
regiony zainteresowania, pozwalające na odseparowanie od siebie osierdzia
i mięśnia sercowego, wyniki zaprezentowane są na Rysunku 4.
Rys. 4. Segmentacja projekcji przymostkowej serca w osi długiej z użyciem funkcji
ustawiania pojedynczego poziomu (a) inicjalizacja, (b) wynik segmentacji, (c) uzyskane
obszary
Źródło: Pop M., Wright G., Functional Imaging and Modeling of the Heart: 4th International
Conference, Salt Lake City, USA, Sachse Gunnar Seemann, Springer, 440, 2017.
87
4. Modele geometrii serca
Na podstawie danych obrazowych uzyskanych za pomocą rezonansu
magnetycznego (DTMRI) i zastosowanych algorytmów uzyskuje się z modeli
tkanek cała geometrię ludzkiego serca. To specyficzny zbiór algorytmów
wykorzystywanych do mapowania i manipulowania gęstymi obrazami w oparciu
o mapowanie. System mapowania (LDDMM) przeznaczony jest również do
manipulowania i przesyłania informacji przechowywanych w wielu typach
obrazów medycznych. Rysunek 5 przedstawia wyniki działania symulacji opartej
o opisaną metodę.
Rys. 5. Geometria serca w oparciu o DTMRI, wykorzystujące architekturę włókien tkanek
Źródło: Pop M., Wright G., Functional Imaging and Modeling of the Heart: 4th International
Conference, Salt Lake City, USA, Sachse Gunnar Seemann, Springer, 440, 2017.
Na podstawie przeprowadzonych badań za pomocą obrazowania rezonansem
magnetycznym przeprowadzono manualną segmentację. Tkanki serca często
modelowane są jako dwuwarstwowe lub trójwymiarowe struktury [20]. Przykłady
uzyskiwanych rekonstrukcji ukazane są na Rysunku 6, została zrekonstruowana
prawa i lewa komora serca w 3D.
88
Rys. 6. (a) Lewa komora serca i prawa komora serca jako prosty model geometryczny.
Rekonstrukcji 3D (b) lewej komory i prawej komory, (c) realistyczna geometria serca, (d)
uproszczona geometria modelu
Źródło: Camara, O., Konukoglu, E., Pop, M., Rhode, K., Sermesant, M., Young, A., Statistical
Atlases and Computational Models of the Heart: Imaging and Modelling Challenges: Second
International Workshop, STACOM 2011, Held in Conjunction with MICCAI 2011, Toronto, 2011.
Modele przedstawione na Rysunku 7 powstają również przy wykorzystaniu
grafiki trójwymiarowej wykorzystującej rendering objętości całej bryły serca na
podstawie danych obrazowych. Istotne są tutaj anatomiczne i fizjologiczne
szczegóły zawarte w badaniach, odpowiedni format i jakość zapisanych danych,
by można było przeprowadzić segmentację interesujących obszarów.
Rys. 7. (a) Rendering objętości serca uzyskanych na podstawie skanów DT-MRI, (b)
stworzony model 3D z obrazów DT-MRI.
Źródło: Pop M., Wright G., Functional Imaging and Modeling of the Heart: 4th International
Conference, Salt Lake City, USA, Sachse Gunnar Seemann, Springer, 440, 2017.
Coraz częściej budowane są modele wspomagane wcześniej przygotowanymi
atlasami anatomicznymi, opracowanym na podstawie dużej ilości danych.
89
Przykładowy model został umieszczony na Rysunku 8. Model kąta geometrii
został stworzony na postawie dostępnego atlasu.
Rys. 8. (a) Geometria modelu, (b) model uwzględniający kat orientacji włókna.
Źródło: Sermesant M., Rhode K., Sanchez-Ortiz G.I., Camara O., Simulation of cardiac
pathologie using an electromechanical biventricular model and XMR interventional imaging, Med.
Images Anal. 5(9),460–480, 2015.
5. Podsumowanie
Międzynarodowe projekty badawcze realizowane pod patronatem
Wirtualnego Fizjologicznego Człowieka (VPH) starają się badać efekty
wynikające z połączenia wielu powstałych modeli. Rośnie zainteresowanie
integracją wielu fizjologicznych modeli w kompleksowe modele systemowe do
symulacji pracy serca i jego naczyń krwionośnych.
Niełatwym zadaniem jest przyjęcie dobrego wzorca do budowania modelu
serca. Jego kształt, wielkość, położenie poszczególnych części względem siebie
zależy od bardzo wielu czynników. Wśród tych czynników należy wyróżnić:
wiek, płeć, styl życia, rodzaj przebytych schorzeń itp. Również fizjologia układu
krwionośnego zależy od wielu czynników i nie jest łatwa do odwzorowania.
Istotne jest symulowanie zjawisk w skuteczny sposób, by jednocześnie nie
zapominać o ważnych elementach i kompleksowo łączyć wszystkie poznane
metody i założenia. Nakład obliczeniowy potrzebny do przetworzenia danych
powoduje, że wiele metod staje się mniej atrakcyjnych i potrzebne stają się
założenia optymalizujące proces. Dostępność dobrze sprawdzonych baz danych
ciała ludzkiego jest ważnym warunkiem korzystania z modeli.
Obszary przyszłego rozwoju w dziedzinie prawdziwych modeli ciała
ludzkiego obejmują dalsze ulepszenia równań i parametrów dla materiałów
biologicznych, takich jak serce, mózg i skóra. W przyszłości będą trwały prace
nad dalszym wykorzystaniem wielu dostępnych technik obrazowania
90
medycznego do rekonstrukcji anatomii ludzkiego ciała. Potrzebne będzie
zastosowanie odpowiednich algorytmów umożliwiających wykrycie i określenie
ilościowe zmian w anatomii serca, które są charakterystyczne dla określonych
procesów chorobowych. Obecnie powstają modele trójwymiarowe,
specjalistyczne aplikacje medyczne.
Bibliografia
1. Bochenek A., Reicher M., Anatomia człowieka, podręcznik dla studentów medycyny,
tom V, układ wewnątrzwydzielniczy, układ naczyniowy, PZWL, Warszawa 1960.
2. Cichocki T., Litwin J. A., Mirecka J., Kompendium histologii podręcznik dla
studentów i lekarzy, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2002.
3. Formaggia L., Quarteroni A., Veneziani A., Cardiovascular Mathematics, Modeling
and simulation of the circulatory system, Springer 2009.
4. Smith N, de Vecchi A, McCormick M, euHeart: personalized and integrated cardiac care
using patient-specific cardiovascular modeling, Interface Focus, 1, 349–64, 2011.
5. TC, Nchimi A, Swedenborg J, A novel strategy to translate the biomechanical
rupture risk of abdominal aortic aneurysms to their equivalent diameter risk: method
and retrospective validation, Eur J Vasc Endovasc Surg 47, 288–95, 2014.
6. Radaelli AG, Augsburger L, Cebral JR, Reproducibility of haemodynamical
simulations in a subject-specific stented aneurysm model—a report on the Virtual
Intracranial Stenting Challenge 2007, J Biomech 41, 2069–81, 2008.
7. Barber DC., Hose DR., Automatic segmentation of medical images using image
registration: diagnostic and simulation applications, J Med Eng Technol, 29, 53–63, 2005.
8. Zhao F, Xie X., An overview of interactive medical image segmentation, Ann
BMVA, 7,1–22, 2013.
9. Chien S., Mechanotransduction and endothelial cell homeostasis: the wisdom of the
cell, Am J Physiol Heart Circ Physiol, 292,H1209–24, 2007.
10. LaDisa JF, Jr., Olson LE, Molthen RC, Alterations in wall shear stress predict sites
of neointimal hyperplasia after stent implantation in rabbit iliac arteries, Am
J Physiol Heart Circ Physiol, 288, H2465–75, 2005.
11. Morlacchi S., Migliavacca F., Modeling stented coronary arteries: where we are,
where to go, Ann Biomed Eng, 41, 1428–44, 2013.
12. Chen D, Müller-Eschner M, von Tengg-Kobligk H, A patient-specific study of type-
B aortic dissection: evaluation of true-false lumen blood exchange, Biomed Eng
Online, 12, 65–70, 2013.
13. Grosberg, A., Kuo, P. L., Guo, C. L., Geisse, N. A., Bray, M. A., Adams, W. J.,
Sheehy, S. P., Parker, K. K., Self-Organization of Muscle Cell Structure and
Function, PLoS Comput. Biol., 7, 2011.
14. Umeno, A., Ueno, S., Quantitative Analysis of Adherent Cell Orientation Influenced
by Strong Magnetic Fields, IEEE Trans. Nanobiosci., 2, 26–28, 2013.
15. Feinberg, A. W., Alford, P. W., Jin, H., Ripplinger, C. M., Werdich, A. A., Sheehy,
S. P., Grosberg, A., Parker, K. K., Controlling the Contractile Strength of Engineered
Cardiac Muscle by Hierarchal Tissue Architecture, Biomaterials 33, 5732–5741, 2012.
91
16. Grosberg, A., Kuo, P. L., Guo, C. L., Geisse, N. A., Bray, M. A., Adams, W. J.,
Sheehy, S. P., Parker, K. K., Self-Organization of Muscle Cell Structure and
Function, PLoS Comput. Biol., 7(2) 2011.
17. Umeno, A.,Ueno, S., Quantitative Analysis of Adherent Cell Orientation Influenced
by Strong Magnetic Fields, IEEE Trans. Nanobiosci., 2(1), 26–28, 2013.
18. Grosberg, A., Alford, P. W., McCain, M. L., Parker, K. K., Ensembles of Engineered
Cardiac Tissues for Physiological and Pharmacological Study: Heart on a Chip, Lab
Chip, 11(24) 4165–4173, 2011.
19. Helm, P., Beg, M. F., Miller, M. I., and Winslow, R. L., Measuring and Mapping
Cardiac Fiber and Laminar Architecture Using Diffusion Tensor MR Imaging, Ann.
N. Y. Acad. Sci., 1047, 296–307, 2005.
20. Sermesant M., Rhode K., Sanchez-Ortiz G.I., Camara O., Simulation of cardiac
pathologie using an electromechanical biventricular model and XMR interventional
imaging, Med. Images Anal. 5, 460–480, 2015.
92
Magdalena Michalska
Wykorzystanie spektroskopii w badaniach nad
tkankami
1. Wstęp
W jednym ze sposobów pomiarów spektroskopowych jest rejestracja
padającego promieniowania elektromagnetycznego. Promieniowanie to może
oddziaływać ze składnikami badanego obiektu [1–2]. Spektrofotometria polega
na ilościowym pomiarze transmisji lub odbicia promieniowania świetlnego przez
badaną próbkę. Jest ona głównym narzędziem spektroskopii absorpcyjnej
i odbiciowej w świetle widzialnym i podczerwieni.
W ostatnich latach dużym zainteresowaniem cieszy się wykorzystanie
spektroskopii w badaniach nad tkankami. Jednym z celów badań było określenie
chorób, w których to może zostać wykorzystana spektrofotometria. Głównie
badania spektroskopowe są używane w badaniach nad rakiem, w diagnostyce,
terapii przeciwnowotworowej i leczeniu onkologicznym pacjentów [3–4].
Monografia zawiera rozdziały poświęcone wpływowi nacisku a badaną tkankę,
absorpcji i wysycenia badanej tkanki istotnymi substancjami. Jeden z rozdziałów
poświęcony został również badaniom uwzględniającym różną pigmentację skóry
badanych osób.
2. Wpływ nacisku na tkankę
Badania wpływu ciśnienia kontaktowego sondy na widma zostały
przeprowadzone przez różnych badaczy i wykazano, że zastosowane ciśnienie
wpływa na właściwości optyczne badanych tkanek [5–10].
Jednym z czynników mogących wpływać na widma jest przesunięcie sondy
światłowodowej, dlatego naukowcy podczas swoich badań budują różne
konfiguracje stanowisk pomiarowych. Na rysunku 1 przedstawione zostały
3 układy pozwalające na regulację nacisku sondy na badaną tkankę. Uwzględniają
one zarówno zamontowaną sprężynę, odważnik czy regulowane ramię po którym
przesuwa się sensor. Zastosowanie odpowiednio dobranego do badań stanowiska
pomiarowego umożliwia lepsze zamodelowanie całego eksperymentu.
magdalena.michalska@pollub.edu.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
93
Rys. 1. Stanowiska pomiarowe do badań nacisku sondy na tkankę: (a) oparte na sprężynie,
(b) na odważniku, (c) na regulowanym ramieniu statywu
Źródło: Cugmas B., Bürmen M., Bregar, M., Pernuš F., Likar B., Pressure-induced near infrared
spectra response as a valuable source of information for soft tissue classification, Journal of
Biomedical Optics, 18(4), 047002, 2013.
W rutynowej procedurze zbierania widm sonda pomiarowa delikatnie styka się
z powierzchnią badanego obiektu. Dlatego powstaje nacisk, który może wpływać
na profil rozproszonego spektrum odbicia. Celem przeprowadzonych badań w [6]
było zbadanie wpływu przesunięcia sondy odbiciowej na widma ludzkiej skóry
w wybranych punktach na ręce ludzkiego ciała. Otrzymane widma światła
widzialnego potwierdzają intensywne wchłanianie i rozpraszanie w skórze.
Badania opisują wpływ ciśnienia wywieranego przez sondy na naczynia
krwionośne i włókna kolagenowe. Na rysunku 2 schematycznie zaznaczono
naczynia krwionośne jako koła w stanie normalnym (bez nacisku) lub elipsy pod
wpływem nacisku. Natomiast włókna kolagenowe przedstawione zostały jako
krzywe. Symulacja dotyczy dwóch sytuacji jakie miały miejsce w badaniu: braku
nacisku na naczynia krwionośne i włókna kolagenowe i wykorzystanie nacisku na
badany obszar. Ściskanie skóry przez sondę powoduje, że naczynia zmieniają
kształt i wymiary.
Zwrócono uwagę na spektralne pomiary współczynnika odbicia biologicznego
tkanki, by zbadać ją pod kontem wczesnej diagnozy chorób nowotworowych.
Pomiary są często wykonywane przy użyciu sondy światłowodowej w kontakcie
z powierzchnią tkanki. Celem pracy [6] było zbadanie wpływu ciśnienia sondy na
widma rozproszenia ludzkiej skóry w zakresie 345–1000 nm podczas
wykonywania pomiarów na ludzkim przedramieniu. Wyniki badań zostały
przedstawione na wykresie 1. Zestawiono w nim odbicie i siły nacisku sond
oznaczone jako P0 do P5. Przy zastosowaniu wybranego nacisku na tkankę
obserwowano piki absorpcyjne oksyhemoglobiny dla jasnej i ciemnej skóry.
Natomiast dokładnej zostały one zarejestrowane dla jaśniejszej ze skór. Jak
pokazano na rysunku 3 przy długościach fal powyżej 600 nm intensywność widm
rozproszonego odbicia zmniejsza się wraz ze wzrostem ciśnienia wywieranego na
94
tkanki przez sondę. Na wykresie 1 (a) można zauważyć, że widmo
P0 odpowiadające zerowemu naciskowi sondy na skórę, jest relatywnie bardziej
oddzielone od serii widm P1-P5 niż na wykresie 1 (b).
Rys. 2. Wpływ ciśnienia sondy na naczynia krwionośne i włókna kolagenowe: (a) normalny
stan naczyń krwionośnych i włókien kolagenowych, (b) ściskanie skóry przez sondę
Źródło: Delgado Atencio J. A., Orozco Guillén E. E., Vázquez Montiel S., Cunill Rodríguez M.,
Castro Ramos J.,. Gutiérrez J. L., Martínez F., Influence of probe pressure on human skin diffuse
reflectance spectroscopy measurements, Optical Memory and Neural Networks (Information
Optics), 18(1), 6–14, 2009.
Rys. 3. Typowe widma rozproszonego odbicia w całym spektrum od 345–1037 nm
w funkcji zastosowanego nacisk na skórę. (a) kobieta w wieku 22 lat z ciemną skórą,
(b) jasnoskórym mężczyzna w wieku 25 lat
Źródło: Delgado Atencio J. A., Orozco Guillén E. E., Vázquez Montiel S., Cunill Rodríguez M.,
Castro Ramos J.,. Gutiérrez J. L., Martínez , F., Influence of probe pressure on human skin diffuse
reflectance spectroscopy measurements, Optical Memory and Neural Networks (Information
Optics), 18(1), 6–14, 2009.
95
Większość systemów obejmuje sondę światłowodową, która transmituje
i zbiera widma optyczne przez kontakt z podejrzaną zmianą. Przeprowadzony
w [5] eksperyment in-vivo na ludzkiej skórze miał na celu zbadać
krótkoterminowe (<2 s) i długotrwałe (> 30 s) działanie ciśnienia sondy na
pomiary odbicia rozproszonego i fluorescencji. Na rysunku 4 przedstawiono
typowy współczynnik odbicia światła dla wybranych czasów i ciśnienia dla
punktów zlokalizowanych na szyi i czole badanego pacjenta. Wchłanianie maleje
wraz ze zmianami specyficznymi dla miejsca z powodu kompresji krwi objętej
próbą. Zredukowana zmienność współczynników rozproszenia zależy także od
miejsca. Różnice w strukturze i budowie morfologicznej tkanek przyczyniają się
do powstawania specyficznych dla miejsca sposobów oddziaływania sond.
W związku z tym można zminimalizować wpływ ciśnienia, gdy ciśnienie jest
niewielkie i stosowane przez krótki czas. Jednak indukują się długotrwałe i duże
naciski znaczne zwiększając zniekształcenia mierzonych widm.
Rys. 4. Typowy współczynnik odbicia dla czasów równych 0, 7, 2,5 i 60 s a) dla ciśnienia
P4 na szyi, (b) dla ciśnienia P2 na czole pacjenta
Źródło: Liang, L., Brandon N., Narasimhan R., Tunnell J.W., Probe pressure effects on human
skin diffuse reflectance and fluorescence spectroscopy measurements, Journal of Biomedical Optics,
16(1), 011012, 2011.
Na podstawie przeprowadzonych badań można stwierdzić, że wchłanianie
w skórze zmniejsza się wraz ze wzrostem ciśnienia sondy dla badanych punktów
Zmiany kształtu widm wywołane zmianami ciśnienia spowodowane są zmianami
właściwości optycznych i fizjologicznych skóry. Absorpcja hemoglobiny
zmniejszała się stopniowo po zastosowaniu ciśnienia sondy. Uzyskane wyniki
można wyjaśnić strukturą i morfologią tkanek właściwych dla każdego badanego
punktu (np. obecność naczyń krwionośnych lub kości).
96
Badania były również przeprowadzane na szczurach laboratoryjnych.
Analizowano spektroskopię rozproszenia i fluorescencję rozproszoną in vivo przy
użyciu modelu zwierzęcego. Wzrost ciśnienia kontaktowego sondy indukował
duże zmiany profilu w widmach odbicia rozproszonego między 400 a 650 nm.
Prowadzi to do znacznego zwiększenia intensywności widm fluorescencji.
Wymagany próg ciśnienia w [10] zależał od rodzaju tkanki. Obserwowane zmiany
widmowe można przypisać zmniejszeniu miejscowej objętości krwi, natlenienie
krwi i metabolizmowi tkanek. Zmiany te wynikają z wpływu nacisku sondy na
tkankę serca szczura. Znormalizowana intensywność odbicia rozproszonego
i znormalizowana intensywność fluorescencji z tkanki serca szczura rejestrowane
przy 4 różnych ciśnieniach kontaktowych sondy, zostało to zobrazowane na
rysunku 5.
Rys. 5. (a) Znormalizowana intensywność odbicia rozproszonego, (b) znormalizowana
intensywność fluorescencji z tkanki serca szczura rejestrowane przy różnych ciśnieniach
kontaktowych sondy
Źródło: Ti Y., Lin W.G., Effects of probe contact pressure on in vivo optical spectroscopy, 16(6),
Optics Express 4250, 2008.
Ustalono, że ciśnienie sondy wpływa na lokalne właściwości optyczne tkanki.
Widma odbicia analizuje się używając modelu, który wydobywa właściwości
optyczne tkanki i ułatwia zrozumienie podstawowych fizjologicznych zmiany
indukowane przez ciśnienie sondy. Przy wykonywaniu badań istotne było
zachowanie niezmienionych odległości dla danej serii pomiarów, prawidłowe
ustawienie diody, zachowanie tego samego punktu pomiarowego na badanym
obiekcie.
97
3. Absorpcja i wysycenie
Badania naukowe wykorzystujące spektrofotometr pozwalają na wyznaczenie
wielu parametrów i właściwości optycznych ludzkiej skóry. Dostarczają one
wielu informacji odnoście: zawartości melaniny w skórze, wody tłuszczu,
hemoglobiny uwzględniając również różne jej rodzaje, jak oksyhemoglobina
(HbO2) czy deoksyhemoglobina [11]. Na rysunku 6 przedstawione są głównie
z absorbentów tkanek: melanina, oksyhemoglobina, deoksyhemoglobina, woda
i tłuszcz.
Rys. 6. Współczynniki absorpcji krwi, wody, tłuszczu, melaniny dla skóry
północnoeuropejskiej chronionej przed słońcem
Źródło: Bjorgan A., Milanic M., Randeberg L.L., Estimation of skin optical parameters for
real-time hyperspectral imaging applications, Journal of Biomedical Optics 19(6), 066003, 2014.
Hemoglobina występująca w formie utlenowanej, jako oksyhemoglobina ma
barwę jasnoczerwoną i badana na spektrofotometrze wykazuje dwa piki
absorpcyjne w żółtej i zielonej części widma (578 nm i 540 nm). Bada się również
absorpcje i wysycenie dla karbaminohemoglobiny (HbCO2),
karboksyhemoglobiny (HbCO), methemoglobiny (MetHb), sulfhemoglobiny
(SulfHb) czy cyjanomethemoglobiny. W [12] wyznaczono współczynniki
absorpcji dla wybranych typów hemoglobin, zostały one przedstawione na
rysunku 7. Hemoglobina odtlenowana ma barwę czerwonofioletową
i w spektrofotometrze obserwuje się pik adsorpcyjny przy długości fali równej
98
565 nm. Methemoglobina ma barwę brunatną i pochłania światło przy
długościach fali λ = 631 nm, 576 nm, 540 nm i 500 nm.
Rys. 7. Widma absorpcji dla różnego rodzaju hemoglobin
Źródło: Troy T.L., Thennadil S.N., Optical properties of human skin in the near infrared
wavelength range of 1000 to 2200 nm, Journal of biomedical optics, 6(2), 167–176, 2001.
Na podstawie wyznaczonych parametrów można wysnuwać wnioski o rodzaju
lub dalszej diagnostyce choroby czy pochodzeniu etnicznym danej populacji [13].
Zwiększona zawartość niektórych substancji w tkance odpowiedzialna jest za
proces chorobowy tkanki.
4. Diagnostyka chorób
Współcześnie wykorzystuje się spektometrię do badań różnych schorzeń
skóry. Należą do nich brodawki, bielactwo, zakrzep (z powodu urazu) i naczyniaki
[14]. Naukowcy badali różne nieprawidłowości skóry w wybranych jej regionach.
Rysunek 8 (a) pokazuje oryginalne widmo odbicia dla brodawki i skóry kontrolnej
ze współczynnikiem odbicia między obszarem brodawek a normalną skórą.
Oryginalne widma brodawek posiadają bardzo niski współczynnik odbicia.
Analogiczne wykresy stworzono dla skóry objętej bielactwem, rysunek 8 (b).
Wartość bezwzględna spektrum jest większa niż 1, co wskazuje, że natężenie
światła odbitego od skóry objętej bielactwem jest wyższa niż dla skóry normalnej.
99
Bielactwo wprowadza na skórze obszary bez melaniny, regiony te mają małe
wchłanianie, a tym samym maksymalny współczynnik odbicia.
(a)
(b)
Rys. 8. Widma rozproszonego odbicia i współczynniki współczynnika odbicia dla
(a) brodawek i normalnej skóry, (b) bielactwa i skóry normalnej
Źródło: Prince S., Malarvizhi S., Spectroscopic diffuse reflectance plots for different skin
conditions, Spectroscopy 24, 467–481, 2010.
100
Kształt widma zależy od głębokości i rodzaju chromoforu. Wzrost stężenia
danej cząsteczki może powodować odmienny kontrast, niezależnie od głębokość,
charakterystyki optycznej warstwy skóry, w której występuje ta zmiana.
Widma choroby i widma kontrolne porównuje się stosując analizę statystyczną
do wykrywania zakresów długości fali, regionów o znaczących różnicach.
Zmiany kształtu widm są pomagają odróżnić tkankę zdrową od tej, w której
występują zmiany chorobowe. Wykres różnicowy pomiędzy widmami chorego
a normalnymi widmami pomaga wykrywać znaczące obszary długości fal. Dla
brodawek w trakcie badania zidentyfikowana długość fali wynosi 610 nm., dla
tkanki z zakrzepicą wynosi 540–585 nm, a dla skóry z naczyniakiem 580–590 nm.
W [15] analizowano kolor przywróconej skóry powstałej w wyniku gojenia się
oparzeń. Porównań dokonano koncentrując się na obszarach skóry po poparzeniu
i skóry zdrowej stosując spektrofotometrię u 118 osób, 64 mężczyzn i 54 kobiety
w wieku od 1 do 70 lat. Przeanalizowano łącznie 379 próbek. Uwzględniono wiek,
płeć, ekspozycję na słońce i czas po oparzeniu. Dane zostały przesłane do analizy
statystycznej. Kolor przywróconej skóry stał się ciemniejszy po roku od
poparzenia u osób z ekspozycją na słońce i u osób starszych. Płeć badanego nie
miała żadnego wpływu na wskaźnik jasności. Natomiast kolor przywróconej
skóry stał się bardziej czerwony u osób wystawionych na słońce i u starszych osób
w ciągu pierwszych sześciu miesięcy po oparzeniu. Wspomniany obszar stał się
bardziej niebieski u mężczyzn w ciągu roku od oparzenia. Wiek i ekspozycja
słoneczna nie przyniosła żadnego wpływu na oś chromatyczną.
W [16] wykorzystując spektrofotometrię analizowano kolor przywróconej
skóry powstałej po procesie gojenia oparzeń skóry, przebadano łącznie 379
próbek uwzględniając wiek, płeć, ekspozycję na słońce i czas po powstałym
oparzeniu.
Bardzo często spektrofotometria łączona jest z innymi narzędziami
diagnostycznymi, w [17] wykorzystywany jest również laser Dopplera w ocenie
utleniania i perfuzji w języku i błonie śluzowej jamy ustnej. Estymuje się również
parametry optyczne skóry w czasie rzeczywistym dla obrazowania
hiperspektralnego by uzyskać frakcje objętościowe we krwi, natlenienia
w zakresach 510–590 nm i 690–820 nm, zawartość melaniny i obraz RGB
badanego obszaru skóry [11]. Badania spektroskopowe wykorzystuje sie również
w badaniach nad nowotworami w terapii przednowotworowej jaki i w jej trakcie
[3, 18].
5. Pigmentacja skóry
Widma absorpcyjne ciemniejszych typów skóry (Typy V–VI Fitzpatricka)
mają większe nachylenie w porównaniu do jaśniejszej skóry typy (I-II i III-IV)
[19]. Dla długości ponad 900 nm współczynnik absorpcji trzech typów skóry mają
prawie taką samą wartość, pik absorpcji wody przy 980 μm. Badania
przeprowadzone na grupach ludzi różniących się składnikami skóry
101
odpowiedzialnymi za jej koloryt. Uwzględniono skóry osób z Afryki, Indii,
Hiszpanii, Azji i Kaukazu na rysunku 9.
Rys. 9. Wartości współczynnika absorpcji dla różnych fototypów skóry w zależności od
pochodzenia etnicznego
Źródło: Fergusonpell M., Hagisawa S., An empirical technique to compensate for melanin when
monitoring skin microcirculation using reflectance spectrophotometry, Medical Engineering
& Physics, 17(2), 104–110, 1995.
Celem badań jest również wpływ zawartości melaniny na pomiar SO2
w zakresie widzialnym długości fali w skórze dla jasno i ciemnoskórej populacji
[20]. Wyznaczono bardzo wysoki poziom korelacji między HbI a indeksem
melaniny. Kolejnym celem tego badania było stworzenie większej ilości
przypadków do wykonywania pomiarów dla ciemnoskórych pacjentów.
Trudności w badaniu daje zbyt wysokie stężenie melaniny w ich skórze, która jest
głównym absorbentem promieniowania. Starano się stworzyć możliwość
zbadania poziomu SO2 w tkance w przypadkach, gdy przepływ krwi może być
krytycznie niski i gdzie niskie stężenie hemoglobiny powoduje trudności nawet
dla białej skóry. Podsumowując z badania jasno wynika, że pomiar tkanki SO2
w DNA dla czarnej skóry jest wykonalny, nie tylko w warunkach normalnej
perfuzji, ale także w krytycznym niedokrwieniu kończyn. Opracowanie taniego
monitora SO2 jest wskazany do stosowania w krajach rozwijających się
o wysokiej zachorowalności na cukrzycę. W przypadku jej zaawansowanego
stadium często konieczna staje się amputacja kończyn.
Stopień pigmentacji skóry uwzględniono również w [21]. W badaniu zbadano
niezawodność oraz ważność dla kilku kolorów skóry strategii pomiaru uszkodzeń.
Badania przeprowadzono wśród uczestników różnych typów skóry i płci. Ocena
102
obserwatora jest skorelowana z oceną spektrofotometryczną aktualnego koloru
skóry. Osoby o jaśniejszej skórze relacjonowały więcej skumulowanych
uszkodzeń skóry niż te które było wykrywalne przez fotografie UV. Kobiety
zgłosiły znacznie bardziej zniszczoną skórę niż mężczyźni. Wyniki te sugerują,
że autoraport może być cenną strategią pomiaru, ale pomiar współczynnika
odbicia powinien być wykonywany przez spektrofotometr. Oceny obserwatorów
mogą być przydatne, ale nie należy tylko na nich polegać, potrzebna jest głębsza
analiza każdego z przypadków.
6. Podsumowanie
Spektroskopia znalazła duże zastosowanie w wielu rozwiązaniach
medycznych opisujących procesy zachodzące w tkankach ludzkich i zwierzęcych.
Zjawisko absorpcji stanowi podstawę spektrofotometrii umożliwiają pomiar
w całym zakresie światła widzialnego i podczerwieni.
Wyniki badań przyczyniają się do wyjaśnienia wpływu ciśnienia sondy na
współczynnik odbicia rozproszonego. Ten problem powinien zostać poddany
dalszym badaniom, które obejmują lepszą kontrolę nad stosowanym ciśnieniem
sondy przez operatora w warunkach klinicznych. Istotny jest rozwój innych
modeli, które biorą pod uwagę realistyczne zależność między parametrami
optycznymi a naciskiem sondy światłowodowej na skórę.
W przyszłości spektroskopia może zostać wykorzystana do zbadania
dynamicznych procesów naczyniowych na podstawie pomiarów rozproszenia
spektrum odbicia.
Bibliografia
1. Bigio I.J., Bown S.G., Briggs G., Kelley C., Lakhani S., Pickard D., Ripley P.M.,
Rose I.G., Saunders C., Diagnosis of breast cancer using elastic scattering
spectroscopy: preliminary clinical results, J. Biomed.Opt. 5, 2000.
2. Wallace V.P., Bamber J.C., Crawford D.C., Ott R.J., Mortimer P.S., Classification
of reflectance spectra from pigmented skin lesions, a comparison of multivariate
discriminant analysis and artificial neural networks, Phys. Med. Biol. 45, 2000.
3. Harrison D.K., The clinical application of optical spectroscopy in sonitoring tissue
oxygen supply following cancer treatment, The primo vascular system: Its role in
cancer and regeneration, Springer Science+Business Media, LLC, 291–296, 2012.
4. Cugmas B., Bürmen M., Bregar, M., Pernuš F., Likar B., Pressure-induced near
infrared spectra response as a valuable source of information for soft tissue
classification, Journal of Biomedical Optics, 18(4), 2013.
5. Liang, L., Brandon N., Narasimhan R., Tunnell J.W., Probe pressure effects on
human skin diffuse reflectance and fluorescence spectroscopy measurements,
Journal of Biomedical Optics, 16(1), 2011.
103
6. Delgado Atencio J. A., Orozco Guillén E. E., Vázquez Montiel S., Cunill Rodríguez
M., Castro Ramos J.,. Gutiérrez J. L., Martínez , F., Influence of probe pressure on
human skin diffuse reflectance spectroscopy measurements, Optical Memory and
Neural Networks (Information Optics), 18(1), 6–14, 2009.
7. Tabrizi H. S., Shakibaei A. A. ,The effect of probe pressure on in vivo single fiber
reflectance spectroscopy, Journal of Lasers in Medical Science,7(4), 233–237, 2016.
8. Reif R., Amorosino M. S., Calabro K.W., A’Amar O., Singh S.K., Irving J. Bigio,
Analysis of changes in reflectance measurements on biological tissues subjected to
different probe pressures, J. of Biomedical Optics, 13(1), 2008.
9. Cugmas B., Bregar M., Bürmen M., Pernuš F. Likar B., Impact of contact pressure–
induced spectral changes on soft-tissue classification in diffuse reflectance
spectroscopy: problems and solutions, Journal of Biomedical Optics 19(3), 2014.
10. Ti Y., Lin W.G., Effects of probe contact pressure on in vivo optical spectroscopy,
Optics Express 16(6), 2008.
11. Bjorgan A., Milanic M., Randeberg L.L., Estimation of skin optical parameters for real-
time hyperspectral imaging applications, Journal of Biomedical Optics 19(6), 2014.
12. Troy T.L., Thennadil , S.N., Optical properties of human skin in the near infrared
wavelength range of 1000 to 2200 nm, Journal of biomedical optics 6 (2), 167–176, 2001.
13. Gajinov Z., Mati M., Prćić S., Đuran V., Optical properties of the human skin,
Serbian Journal of Dermatology and Venereology, 2 (4), 131–136, 2010.
14. Prince S., Malarvizhi S., Spectroscopic diffuse reflectance plots for different skin
conditions, Spectroscopy 24, 467–481, 2010.
15. Carvalho D. do A., Mariani U., Gomez D. de S. , Gemperli R.,Ferreira M.C, A study
of the postburned restored skin, Burns 25, 385–394,1991.
16. Singh D.B., Stansby G., Harrison D.K., Assessment of oxygenation and perfusion in
the tongue and oral mucosa by visible spectrophotometry and laser Doppler
flowmetry in healthy subjects, Adv Exp Med Biol. 614, 227–33, 2008.
17. Fredriksson I., Burdakov O, Larsson M., Strömberg T., Inverse Monte Carlo in
a multilayered tissue model: merging diffuse reflectance spectroscopy and laser
Doppler flowmetry, J Biomed Opt., 18(12), 2013.
18. Shirkavand A, Sarkar S, Fashtami L, Mohammadreza H., Detection of melanoma
skin Cancer by elastic scattering spectra: A proposed classification method, Iran
J Med Phys. 14, 162–166, 2017.
19. Fergusonpell M., Hagisawa S., An empirical technique to compensate for melanin
when monitoring skin microcirculation using reflectance spectrophotometry,
Medical Engineering & Physics 17(2), 104-110, 1995.
20. Harrison D.K., Greenidge A.R., Clive Landis R., Skin SO2 measurement using visible
lightguide spectrophotometry in a black population: A feasibility study, oxygen
transport to tissue XXXII, Advances in Experimental Medicine and Biology 701,
Springer Science+Business Media, LLC, 2011.
21. Daniel L.C, Heckman C.J., Kloss J.D., Manne S.L, Comparing alternative methods
of measuring skin color and damage, Cancer Causes Control, Springer
Science+Business Media B.V. 20, 313–321, 2008.
104
Dawid Zarzeczny
Kondensatory grzebieniowe z miedzi do badania
parametrów elektrycznych komórek
1. Wstęp
Mikrosystemy elektromechaniczne (ang. MEMS – Microelectromechanical
systems) są obecnie najprężniej rozwijającą się dziedziną nauki. Ich szerokie
zastosowanie w m.in. elektronice, robotyce oraz biotechnologii sprzyja
powstawaniu coraz to nowych urządzeń. Układy te opierają się na
mikrostrukturach wymagających precyzyjnej obróbki materiałów.
W niniejszej pracy dokonano przeglądu literatury na temat interesującego
materiału jakim jest miedź. Wybrano ją ze względu na doskonałe właściwości
elektryczne, dzięki czemu jest najczęściej wykorzystywanym materiałem
w układach elektronicznych. Dodatkowo jony miedzi są kofaktorami wielu
ważnych enzymów i pełnią kluczowe funkcje w niektórych procesach
biologicznych. Mimo toksyczności miedzi, większość organizmów posiada
wysoce wyspecjalizowane systemy transportu Cu, w których biorą udział
dedykowane białka, dzięki czemu miedź może być wykorzystywana
w urządzeniach biomedycznych [1–4].
Punktem docelowym przeprowadzonych prac badawczych było określenie
wpływu miedzi na wzrost hodowli komórek podczas badania in vitro.
Dodatkowo, sprecyzowanie w jakich warunkach wykorzystanie danego materiału
będzie bardziej odpowiednie i wystarczające, pozwoli na otwarcie nowych
ścieżek rozwoju. W tym celu zaprojektowano i wykonano kondensatory
grzebieniowe na biokompatybilnych podłożach, wzorując się na rozwiązaniach
komercyjnych. Warstwy metalizacji osadzono metodą rozpylania
magnetronowego na różnego rodzaju materiałach. Najlepsze rezultaty uzyskano
na podłożach z poliwęglanu, spełniające wszystkie, wcześniej określone
wymagania, m.in. biokompatybilność oraz wytrzymałość na wykorzystywane
podczas prac technologicznych roztwory chemiczne. Zaprojektowaną geometrię
kondensatorów grzebieniowych uzyskano w procesie fotolitografii,
wykorzystując zarówno metodę pozytywową, jak i negatywową.
Wytworzone struktury testowe wykorzystano do monitorowania wzrostu
hodowli komórek odzwierzęcych za pomocą pomiarów parametrów
elektrycznych. Uzyskane wyniki pozwalają na ocenę możliwości wykorzystania
miedzi w różnorodnych zastosowaniach biotechnologicznych [2, 5].
dawid.adrian.zarzeczny@gmail.com, Instytut Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
105
2. Miedź
Miedź (Cu) jest niezbędnym elementem wielu procesów biologicznych.
Znajduje się w aktywnych miejscach białek biorących udział w reakcjach
komórkowych, takich jak oddychanie, ochrona antyoksydantów, biosynteza
neurotransmiterów, biosynteza tkanki łącznej i tworzenie barwników. Jej
najważniejsze funkcje związane są z udziałem w silnej aktywności redoks.
Właściwość ta umiejscawia miedź w wyjątkowej roli kluczowego modulatora
szlaków transdukcji sygnału komórkowego. Ścieżki te są złożoną sekwencją
oddziaływań molekularnych, które napędzają wszystkie mechanizmy
komórkowe. Związane są często z interakcją kluczowych enzymów, w tym kinaz
i fosfataz. Obejmują także zmiany wewnątrzkomórkowe w pulach mniejszych
cząsteczek. Przeanalizowano aktualny stan wiedzy na temat sposobu, w jaki
chaperony miedzi wspomagają funkcjonowanie organizmu. Rosnąca liczba
dowodów wyznacza w jaki sposób, kiedy i gdzie miedź pośredniczy nad
kontrolowaniem transdukcji. Ponieważ wolne jony Cu są toksyczne, większość
organizmów ma wysoce wyspecjalizowane systemy ich transportu, w których
biorą udział dedykowane białka, przyczyniające się do regulowania funkcji
komórek. Wiele aspektów mechanistycznych zostało rozwiązanych w odniesieniu
do sposobu przenoszenia jonów Cu między dane białka. Oprócz pierwotnej
cytoplazmatycznej funkcji chaperonu dla Cu, wszystkie trzy chaperony
cytoplazmatyczne wchodzą w interakcje z innymi związkami. Są one
zaangażowane w szlaku sygnałowym, modelując wzrost i rozwój komórek.
Wiedza ta może być ostatecznie wykorzystana do przyszłego rozwoju leków
w kierunku chorób takich jak nowotwory i choroby neurodegeneracyjne [3–4, 6–7].
2.1. Szlaki transdukcji sygnału komórkowego
Szlaki sygnalizacji komórkowej kontrolują odpowiedzi komórek na
stymulację oraz pośredniczą w zewnętrznej transdukcji informacji pochodzących
od receptorowych kinaz, aby ostatecznie sterować transkrypcją jądrową. Ten
złożony proces kontroluje większość funkcji komórkowych w komórkach
jądrzastych, a rozkład tego układu sygnalizacyjnego leży u podstaw wielu
zaburzeń u ludzi i zwierząt. Stwierdzono, że miedź powinna być uważana za trzeci
kluczowy modulator, zaraz po wapnie i cynku. Dzięki silnym działaniom redoks,
miedź została włączona we wszystkie aspekty sygnalizacji komórkowej poprzez
modulację oddziaływań receptor-ligand w błonie komórkowej, kontrolę kinaz
oraz powiązanych funkcji fosfatazy w wielu szlakach komórkowych, i ostatecznie
kontrolę ekspresji genów w jądrze komórkowym. Konsekwencje nieprawidłowej
homeostazy miedzi spowodowanej czy to poprzez mutację genetyczną, starzenie
się, czy wpływy środowiskowe, prowadzą do poważnych efektów
patologicznych, takich jak nowotwory, zapalenia lub neurodegeneracje. Rosnąca
świadomość tego, iż miedź jest niezbędnym modulatorem sygnału, otwiera
106
ogromny obszar nowych możliwości w zwalczaniu chorób poprzez suplementację
lub usuwanie miedzi [3–4].
Transdukcja sygnału w komórce zazwyczaj wiąże się z wysoce
skoordynowanym transferem informacji od błony komórkowej do różnych
wewnątrzkomórkowych lokalizacji, w odpowiedzi na bodźce zewnętrzne.
Wynikiem jest regulacja działań biochemicznych w celu kontrolowania
określonych funkcji komórkowych związanych z żywotnością, wzrostem,
różnicowaniem i innymi specjalistycznymi działaniami w obrębie różnych tkanek.
Transdukcja sygnału odbywa się poprzez szereg szlaków lub sieci z receptorów
błony komórkowej i białek błonnych za pośrednictwem kinaz wzmacniających
sygnał. Dzięki temu możliwe jest kontrolowanie funkcji enzymów, transkrypcji
jądrowej, ekspresji białka i szeregu dodatkowych procesów komórkowych.
Konkretne sygnały muszą być wysoce skoordynowane zarówno czasowo, jak
i przestrzennie w ramach złożonej sieci ścieżek, a zatem podlegają
skomplikowanym i wielowarstwowym mechanizmom regulacyjnym [3–4].
Bodźce zewnętrzne, takie jak białka i peptydy, wyznaczają
wewnątrzkomórkowe szlaki sygnałowe za pomocą receptorów błonnych.
Receptory i kompleksy receptorowe powiązane są z dalszymi mechanizmami
sygnalizacyjnymi. Chociaż istnieje szereg wysoce wyspecjalizowanych działań
receptorowych, najpowszechniejszymi mechanizmami pośredniczenia
w sygnalizacji poza sygnałem, są zmiany konformacyjne, fosforylacja
i kompartmentalizacja receptorów, po interakcji ligand - receptor. Receptory są
często związane z kompleksami błonowymi, które lokalizują i przyjmują dalsze
kinazy białkowe, lub kontrolują wtórne przekaźniki, aby kierować i wzmacniać
sygnały wewnętrzne. Po dostarczeniu sygnału zewnętrznego, receptory i / lub
kompleksy oddziałujące, są dezaktywowane poprzez szereg procesów, takich jak
dezfosforylacja za pomocą fosfataz białkowych lub kontrolowane za pomocą
GTPaz [4, 8].
2.2. Dystrybucja miedzi w organizmie
Miedź (Cu) jest metalem przejściowym, zdolnym do przechodzenia między
dwoma stanami redoks, utlenionym Cu (II) i zredukowanym Cu (I). Pozwala to
białkom zawierającym Cu odgrywać istotną rolę jako nośniki elektronów
i katalizatory redoks w organizmach żywych. Praktycznie wszystkie organizmy
wykorzystują miedź jako katalityczny kofaktor do procesów biologicznych,
takich jak oddychanie, transport żelaza, ochrona przed stresem oksydacyjnym,
wytwarzanie hormonów peptydowych, pigmentacja, krzepnięcie krwi oraz
prawidłowy wzrost i rozwój komórek. Aby uniknąć toksyczności wolnych jonów
Cu, wewnątrzkomórkowe stężenie Cu regulowane jest przez dedykowane białka,
ułatwiające jego pobieranie, przepuszczanie, jak również dystrybucję do białek
docelowych i enzymów zależnych od Cu. U ludzi, Cu2+ redukuje się do Cu+
przed wychwytem komórkowym. Jony Cu+ wchodzą następnie do komórki dzięki
107
białkom błonnym CTR1. Cytoplazma jest środowiskiem wysoce redukującym,
więc jony Cu pozostają w postaci 1+ podczas transportu cytoplazmatycznego.
Podczas dalszej drogi, wiele ludzkich enzymów zależnych od miedzi, takich jak
czynniki krzepnięcia krwi, tyrozynaza, oksydaza lizylowa i ceruloplazmina,
nabywają Cu z ATPaz, zanim dotrą do miejsca docelowego w organizmie. Oprócz
danego szlaku, istnieją również inne ścieżki transportu Cu w cytoplazmie,
opierające się na podobnej zasadzie działania. Miedź jednak bierze również udział
w reakcjach redoks, które generują rodnik hydroksylowy, co powoduje
katastrofalne uszkodzenie lipidów, białek i DNA. Nierównowaga Cu u ludzi,
prowadzi do poważnych chorób, takich jak zespół Menkesa lub choroba Wilsona,
charakteryzujących się niezdolnością do prawidłowego rozprowadzania miedzi
do wszystkich komórek i tkanek. Ponadto miedź jest silnie powiązana
z chorobami neurodegeneracyjnymi, takimi jak stwardnienie zanikowe boczne,
choroba Alzheimera i encefalopatie gąbczaste [3–4,8].
Badania strukturalne i biochemiczne przeprowadzone przez Tzagoloffa i jego
zespół rzuciły światło na specyficzność szlaku dystrybucji i chemiczne
mechanizmy dostarczania miedzi. Opisano, że COX, mitochondrialny enzym
błonowy odpowiedzialny za powstawanie związków chemicznych będących
miejscowymi informatorami komórkowymi, przyczynia się do tego procesu.
Dowiedziono, iż katalityczne podjednostki Cox1 i Cox2, które wymagają miedzi
jako kofaktora, ulegają ekspresji z genomu mitochondrialnego. Sugeruje to, że
w procesie dostarczania metalu pośredniczą wysoce specyficzne interakcje
białko-białko, obejmujące domeny homologiczne między białkiem opiekuńczym
i docelowym. Identyfikacja nowych białek opiekuńczych i transportujących
miedź w różnych organizmach, silnie wspiera zachowany ewolucyjnie
mechanizm wymiany metali. Dokładne szczegóły chemiczne tych mechanizmów
transportowania miedzi, od punktu wejścia do docelowych miejsc
funkcjonalnych, będą ewoluować w ciągu najbliższych kilku lat dzięki badaniom
genetycznych, biochemicznych, strukturalnych oraz biologii komórki [8].
Nagromadzenie Cu, spowodowane lub powodowane rozregulowaniem jej
transportu, często jest powodem powstawania guzów nowotworowych oraz inny
chorób neurodegeneracyjnych. Miedź jest niezbędna do angiogenezy, która
odpowiedzialna jest za przerzuty nowotworowe. Jako kluczowy składnik wielu
istotnych enzymów, nie jest zaskakujące, iż Cu jest wykorzystywana przy co
najmniej trzech charakterystycznych zjawiskach związanych z nowotworami:
proliferacyji, angiogenezie i przerzutach. Wykazano istnienie wpływu białek
nowotworowych LOX, SPARC, Mek1 i MEMO zależnych od miedzi na organizm
ludzki. Ponadto Cu może wiązać się z białkami amyloidogennymi, które biorą
udział w takich chorobach jak choroba Huntingtona, Parkinsona czy Alzheimera.
Przerzuty nowotworowe składają się z kaskady procesów, które zależą od
zdolności migracyjnych komórek. Po miejscowym nagromadzeniu tkanek,
komórki nowotworowe migrują przez zręby guza i naczynia krwionośne, aby
dotrzeć i rosnąć w miejscach docelowych przerzutów. Wymaga to integracji
108
z komórką oraz interakcji i modyfikacji z otaczającą macierzą pozakomórkową.
Miejscowa inwazja i migracja komórek osiągana jest przez formowanie się
bogatych w aktynę wypukłości błony plazmatycznej na krawędzi prowadzącej,
znanych jako lamellipodia, filopodia i invadopodia. Stwierdzono, że w procesach
angiogenezy i neurogenezy między 80-90% wszystkich magazynów Cu
w przedziałach wewnątrzkomórkowych jest ponownie umieszczonych
w wypukłości filopodi, i przez błonę komórkową komórek śródbłonka.
Zgromadzone Cu wewnątrz i na zewnątrz występów filopodii związane jest
z białkami, ale nie zidentyfikowano żadnego konkretnego białka docelowego.
Pomimo widocznego znaczenia enzymów zależnych od miedzi w procesach
nowotworowych, rola białek transportujących Cu, takich jak Atox1, nie jest
dokładnie poznana. Na tej podstawie, należy wnioskować, że białka wiążące się
z Cu są niezbędne w rozpoznawaniu nowotworów i coraz więcej dowodów
wskazuje, iż Cu wpływa bezpośrednio na zdolność komórek nowotworowych do
ekspansji i przerzutów [3,6].
2.3. Wykorzystanie miedzi w procesach osteoblastycznych
Miedź bierze udział w wielu enzymatycznych procesach metabolizmu kości
i ich tworzenia. Badania wykazały, że śladowe ilości Cu mogą zwiększać
i regulować w górę aktywność komórek. Ponadto, odpowiadają za proliferację
komórek osteoblastycznych oraz pełnią funkcje sieciowania kolagenu i elastyny
kości. Zarówno dietetyczny, jak i genetyczny niedobór Cu u ludzi i zwierząt,
może zmniejszać osteogenezę. Przeprowadzone badania wykazały, że brak Cu
powoduje zmniejszenie wytrzymałości kości. Dlatego niedobór Cu jest
potencjalnym zagrożeniem dla życia. Dodatkowo, Cu posiada pożądane
właściwości przeciwbakteryjne wobec szerokiej gamy bakterii, ze względu na
główny mechanizm inaktywacji centralnych szlaków katabolicznych
i biosyntetycznych. Co więcej, w porównaniu ze zwykłymi środkami
przeciwbakteryjnymi, takimi jak Ag i Zn, Cu zapewnia najlepszy kompromis
między właściwościami przeciwdrobnoustrojowymi a cytotoksycznością. Poza
tym stwierdzono, że Cu jest często stosowany jako materiał wzmacniający i może
być dodawany do stali nierdzewnej w celu zwiększenia jej odporności na korozję.
Niestety po przekroczeniu pewnego progu stężenia, miedź dla komórek jest zbyt
toksyczna [1,9].
3. Techniki osadzania cienkich warstw metalizacji
Warstwa metalizacji powinna charakteryzować się właściwościami
o sprecyzowanych cechach. Należą do nich: adhezja do podłoża, skład chemiczny,
jednorodność powierzchni warstwy, grubość, rezystywność oraz odporność na
naprężenia mechaniczne. Dobór odpowiedniej metody osadzania zależy od
zastosowania i oczekiwanych właściwości powierzchni, którą chcemy
wytworzyć. Wyróżnia się dwie podstawowe grupy procesów. Do pierwszej, która
109
wykorzystuje atomy z podłoża, należy azotkowanie, utlenianie termiczne oraz
cały zbiór różnego rodzaju anodyzacji. W skład drugiej grupy, w której składniki
metalizacji pochodzą z atmosfery otaczającej podłoże, zalicza się wszystkie
metody osadzania z fazy lotnej (ang. chemical vapour deposition),
naparowywania próżniowego (ang. vacuum evaporation) oraz rozpylania
jonowego (ang. sputtering). Warstwy metalizacji wytworzone przy udziale
podłoża posiadają lepsze właściwości strukturalne i elektryczne. Niestety w ten
sposób można wytwarzać tylko warstwy na bazie półprzewodników,
w odróżnieniu do procesów rozpylania, które takiego ograniczenia nie posiadają
[5,10–11].
3.1. Procesy osadzania z fazy lotnej
Chemiczne osadzanie z fazy lotnej charakteryzuje się tym, iż warstwa
metalizacji powstaje podczas reakcji chemicznej. Istnieją dwa rodzaje takich
reakcji, heterogeniczny i homogeniczny. Podczas pierwszego, reakcje chemiczne
zachodzą na powierzchni podłoża, tworząc dobrze przylegającą do podłoża
warstwę metalizacji. Metalizacje wytworzone podczas reakcji homogenicznych
posiadają niejednorodną strukturę oraz gorszą adhezję do podłoża. Procesy CVD
(ang. chemical vapour deposition) wykorzystywane są podczas sytuacji, kiedy
właściwości elektryczne nie są kwestią priorytetową, a głównie liczy się czas.
Procesy PVD (ang. physical vapour deposition) składają się z trzech głównych
etapów. Wyróżniamy odparowanie, transportowanie oraz utworzenie nowej
warstwy metalizacji. Podczas odparowania źródło jonów (tzw. target) zostaje
podgrzewane. W czasie transportu wybity z targetu materiał przenoszony jest
w obszar obniżonego ciśnienia. Otrzymana nowa warstwa metalizacji jest
skutkiem kondensacji materiału na powierzchni podłoża. Do najczęściej
stosowanych technika PVD należy naparowywanie próżniowe oraz rozpylanie
magnetronowe. Podczas naparowania próżniowego target znajdujący się
w wysokiej próżni poddany jest działaniu energii cieplnej pochodzącej z grzanego
drutu bądź działa elektronowego. W czasie procesu rozpylania magnetronowego,
atomy materiału osadzanego wybijane są ze źródła, za pomocą energii kinetycznej
cząstek gazu obojętnego (najczęściej argonu) [5,10–11].
4. Opracowanie technologii kondensatorów grzebieniowych
na biokompatybilnym podłożu
Podczas opracowywania technologii płytek badawczych wzorowano się na
komercyjnych płytkach 96W10Eidf. Zaprojektowano maskę technologiczną
z ośmioma elektrodami o strukturze grzebieniowej, znajdującymi się na
pojedynczym podłożu. Ich wszechstronne zastosowanie umożliwia wykonywanie
różnego rodzaju badań. Dodatkowo opanowanie wykonywania struktur o tak
skomplikowanych kształtach, umożliwia wytwarzanie w przyszłości elektrod
110
o dowolnej postaci. Następnie osadzono warstwę metalizacji przy użyciu
napylarki NANO 36™ firmy Kurt J. Lesker®, metodą rozpylania
magnetronowego. Materiałem osadzanym była miedź, ze względu na swoje
szerokie zastosowanie w elektronice oraz odgrywanie ważnych roli w organizmie
ludzkim. Grubość osadzonej warstwy wynosiła 30μm. Jako podłoże pod
metalizację wykorzystano płytki z biokompatybilnego poliwęglanu (PC),
o grubości 2mm. Nie reagował on z używanymi podczas procesu fotolitografii
związkami chemicznymi oraz utrzymywał swój pierwotny kształt. Kolejnym
etapem prac było przeprowadzenie procesu fotolitografii. Uzyskane struktury
były wynikiem zastosowania metody substraktywnej w połączeniu z pozytywową
emulsją fotoczułą „Positiv 20”. Metoda ta polega na naniesieniu na otrzymaną
wcześniej metalizację fotorezystu, który po naświetleniu światłem UV jest
wypłukiwany. Otrzymany wzór jest odwzorowaniem użytej maski
technologicznej. Po tym procesie na gotowe płytki, za pomocą
biokompatybilnego sylikonu, przymocowane zostały specjalne pojemniczki
w których umieszczane są badane komórki wraz z pożywką niezbędną do ich
hodowli. Ostatni etap prac technologicznych polegał na wysterylizowaniu płytek
badawczych działając światłem ultrafioletowym [12–13].
Wykonane płytki badawcze zostały wykorzystane do przeprowadzenia
hodowli komórek i pomiaru ich impedancji. Zmierzona wartość rezystancji
poszczególnych doprowadzeń nie przekraczała kilku omów, dzięki czemu
możliwe było przeprowadzenie testów z zastosowaniem systemu ECIS®.
Zamontowane w specjalnym uchwycie umożliwiającym połączenie elektryczne
do elektrod płytki badawcze zostały sprzężone z dedykowanym
oprogramowaniem. Na podstawie otrzymanych wyników stwierdzono, iż
możliwe jest przeprowadzanie poprawnych pomiarów impedancji komórek
w czasie rzeczywistym.
5. Podsumowanie
Dokonano przeglądu literatury dotyczącej wpływu miedzi oraz pełnionych
przez nią funkcji w organizmach żywych. W celu zbadania wpływu miedzi
zaprojektowano maski technologiczne płytek badawczych, na których
wykonywano eksperymenty. Osadzono warstwę metalizacji miedzi
o grubości 30μm, oraz przeprowadzono proces fotolitografii, którego wynikiem
było otrzymanie kondensatorów grzebieniowych do badania parametrów
elektrycznych komórek. Wykazano, iż możliwe jest przeprowadzanie
doświadczeń na wykonanych strukturach, ponieważ miedź nie wpływała
negatywnie na wykorzystywane komórki odzwierzęce. W zależności od
częstotliwości, której wartość wynosiła od 62.5 Hz do 64 kHz, wartość rezystancji
doprowadzeń płytki badawczej mieściła się w przedziale 2250Ω a 200Ω, co
pozwoliło na przeprowadzenie testów. Płytki badawcze są wystarczające do
przeprowadzania badań o krótkim czasie ich wykonywania.
111
Literatura
1. He X., Zhang G., Wang X., Hang R., Huang X., Qin L., Tang B., Zhang X.,
Biocompatibility, corrosion resistance and antibacterial activity of TiO2/CuO
coating on titanium, Ceramics International, 43(18),16185–16195, 2017.
2. Rack H. J., Titanium alloys for biomedical applications, Materials Science and
Engineering 26, 1269–1277, 2006.
3. Dzebo M., Wittung-Stafshede M. A.C. P, Extended functional repertoire for human
copper chaperones, Biomol Concepts, 7, 29–39, 2016.
4. Grubman A., Copper as a key regulator of cell signalling pathways, Expert Rev Mol
Med, 16, 2014.
5. Beck R.: Technologia krzemowa, PWN, 1991.
6. Blockhuys S, Wittung-Stafshede P., Copper chaperone Atox1 plays role in breast
cancer cell migration. Biochemical and Biophysical Research Communications,
483(1), 301–304, 2017.
7. Robinson N.J., Copper Metallochaperones, Annu. Rev. Biochem, 79, 537–562, 2010.
8. Puig S. DJT: Molecular mechanisms of copper uptake and distribution, Curr. Opin.
Chem. Biol., 6 (2), 171–180, 2002.
9. Huang Y, Hao M, Nian X, Qiao H, Zhang X, Zhang X, Song G, Guo J, Pang X,
Zhang H, Strontium and copper co-substituted hydroxyapatite-based coatings with
improved antibacterial activity and cytocompatibility fabricated by electrodeposition
Ceramics International, 42(10), 11876–11888, 2016.
10. Pampillon Arce MaAn: Growth of High Permittivity Dielectrics by High Pressure
Sputtering From Metallic Targets, Springer Theses, 2017.
11. Jiting T. WZ, Oijie, Feng JZ: Molecular dynamics simulations with electronic
stopping can reproduce experimental sputtering yields of metals impacted by large
cluster ions, Elsevier 435, 65–71, 2018.
12. Prendecka M. MR, Małecka-Massalska T.: Effect of exopolysaccharide from
Ganoderma applanatum on the electrical properties of mouse fibroblast cells line
L929 culture using an electric cel-substrate impedance sensing (ECIS), Annals of
Agricultural and Environmental Medicine, 23, 293–297, 2016.
13. Jaworski B., Kurs fizyki t. 3, Procesy falowe, optyka, fizyka atomu i jądrowa, PWN,
1974.
112
Dawid Zarzeczny
Kondensatory grzebieniowe z tytanu do
monitorowania wzrostu hodowli komórek
1. Wstęp
Ostanie lata przyniosły szczególnie widoczne zmiany w zakresie pomiarowych
aplikacji medycznych. Wynika to między innymi z rozwoju innych dziedzin,
w tym mikroelektroniki, umożliwiającej budowę wysoce wyspecjalizowanych,
zminiaturyzowanych systemów elektronicznych. Rosnąca świadomość z korzyści
wynikający z zastosowania medycyny wymusza przeprowadzanie badań na
żywych organizmach. Konieczność zrozumienia zmian zachodzących na
poziomie molekularnym komórki pod wpływem zjawisk fizjologicznych, jak
również związków farmakologicznych i toksykologicznych, wpłynęła na rozwój
nowoczesnych technik badawczych, takich jak np. testy oparte na pomiarze
impedancji.
Niniejsza praca została w całości poświęca zagadnieniom związanym
z technologią struktur do zaawansowanego systemu pomiarowego ECIS® (ang.
Electric cell-substrate impedance sensing) umożliwiającego obserwowanie
aktywności badanych komórek za pomocą analizy zmieniających się parametrów
elektrycznych, monitorowanych w czasie rzeczywistym. Ponadto przeprowadzono
przegląd literaturowy odnośnie wykorzystania tytanu, jako materiału w warstwie
metalizacji którego wykonane miały być dane struktury.
W pracy główną uwagę skupiono na projekcie i wykonaniu wysokiej jakości
przyrządów, jakimi są kondensatory grzebieniowe z tytanu, na podłożu
biokompatybilnym. Do zrealizowania założonego celu zapoznano się z problematyką
przedmiotu badań. Na podstawie zdobytej wiedzy sporządzony został projekt
struktury pomiarowej. W ramach jego realizacji przeprowadzono proces osadzania
metalizacji metodą rozpylania magnetronowego z wykorzystaniem napylarki NANO
36™ firmy Kurt J. Lesker®. Następnie, wypracowano metody odwzorowania
kształtu na powierzchni podłoży wykonanych z różnych materiałów. Wymagało to
zapoznania się z technologią fotolitografii, przeprowadzaną metodami
substraktywnymi i addytywnymi.
Końcowym wynikiem pracy jest opracowana metodologia wykonania dobrych
jakościowo narzędzi badawczych oraz rozwinięcie wiedzy o zdolnościach
wykonawczych dostępnego zaplecza technologicznego, a także sposobów
rozwiązywania zaistniałych problemów.
dawid.adrian.zarzeczny@gmail.com, Elektroniki i Technik Informacyjnych, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska
113
Tytan ze względu na swoją wysoką biokompatybilność, w porównaniu
z innymi materiałami, intensywnie stosowany jest w aplikacjach biomedycznych.
Powoduje to, iż trudno jest o lepszy surowiec do przeprowadzania eksperymentów
medycznych. Niestety, jego stosunkowo wysoki koszt w znaczącym stopniu utrudnia
jego globalne stosowanie [1–2].
2. Technika monitorowania właściwości komórek podczas
hodowli
Metoda pomiaru impedancji komórek w czasie rzeczywistym ECIS® pozwala
monitorować i analizować wiele zachowań komórek. Możliwa jest obserwacja
aktywności odnoszących się do morfologii komórek, ich podziału
i przemieszczania oraz innych kierowanych przez cytoszkielet zachowań. Metoda
ta jest znakomitą alternatywą dla badań opartych na obserwacji, prowadzonych
przy pomocą mikroskopów. System ECIS® daje możliwość określenia cyklu
rozwoju komórkowego do osiągnięcia hodowli w pełni konfluentnej, przebiegu
życia komórki oraz wpływu poszczególnych reagentów. Swoje zastosowanie
znajduje w diagnostyce inwazyjnego charakteru komórek nowotworowych,
analizowaniu funkcji komórkowych oraz pozwala na wyeliminowanie testów na
zwierzętach, podczas opracowywania nowych medykamentów. Ponadto, dzięki
ocenie ilościowej, możliwe jest poznanie właściwości przepływowych,
wytrzymałości adhezji, szybkości namnażania się komórek, postępowania
migracji, różnic międzykomórkowych, funkcji barierowych, skutków transdukcji,
inwazyjności komórkowej, reakcję komórek na toksyny, efektów elektroporacji
i wielu innych [3–4].
2.1. Pomiar bioimpedancji
Badanie bioimpedancji rozpoczyna się od przygotowania płytki badawczej, na
której znajduje się zestaw elektrod. Charakteryzowane są jako bardzo małe
otwory w metalizacji na biokompatybilnym podłożu, takim jak poliwęglan.
Następnie na elektrodach, w specjalnych pojemniczkach, umieszczane są komórki
wraz z pożywką. Rozwój i rozrost komórek znacząco utrudnia przepływ prądu,
co powoduje zmianę ich rezystancji. Podczas pomiaru impedancji komórek,
przepuszczany jest przez nie prąd zmienny o natężeniu poniżej 1 mA. Ideowo,
badaną komórkę przedstawić można jako połączenie równoległe rezystora
z kondensatorem. Rezystancja (R) przedstawia opór podczas przepływu prądu
przez komórkę, natomiast pojemność (C) opisuje polaryzację powstającą na
skutek rozdzielania się elektronów w podwójnej izolowanej warstwie błony
komórkowej. Stosując uproszczenia odnoszące się do kształtu komórek oraz
biorąc pod uwagę zależność przewodnictwa prądu od znajdującej się
w organizmach wody, za pomocą modeli matematycznych otrzymujemy wartości
szukanej oporności i pojemności. Każda wartość wykreślana jest jako punkt
114
w omach [Ω] lub nanofaradach [nF] w jednostce czasu. Długość trwania pomiaru
zależy od osoby przeprowadzającej eksperyment i trwa od kilku sekund do kilku
dni. Na podstawie otrzymanych wartości możliwe jest określenie zależności
określonych czynników na właściwości komórek [3–6].
2.2. Wpływ częstotliwości sygnału na pomiar bioimpedancji
Częstotliwość prądu przemiennego, płynącego elektrodami pokrytymi
komórkowi, ma ogromne znaczenie podczas pomiaru bioimpedancji. Przy
częstotliwościach poniżej 2kHz, znacząca ilość prądu płynie przestrzeniami
międzykomórkowymi, dostarczając informacji o adherencji komórek. Użycie
relatywnie wysokiej częstotliwości, rzędu 40kHz, powoduje przepływ prądu
bezpośrednio przez błonę komórkową. Dzięki temu otrzymywane są informacje
o stopniu pokrycia elektrod przez komórki [4, 6–8].
2.3. Struktura elektrod a pomiar bioimpedancji
Sposób rozmieszczenia i kształt elektrod znajdujących się na płytce
pomiarowej ma niebagatelny wpływ na informacje uzyskiwane podczas pomiaru
bioimpedancji. Mała powierzchnia całkowita elektrod powoduje przepływ całego
prądu przez warstwę komórki. Daje to możliwość uzyskania względnie dużego
pola elektrycznego przy umiarkowanie niskim prądzie przemiennym. Istnieje
możliwość na całkowitą lub częściową elektroporację oraz obserwację
niekontrolowanych zmian morfologicznych małych grup komórek (<100).
Większe, bądź wielokrotne elektrody, pozwalają na analizę odpowiedzi
morfologicznej dużego zbioru komórek (>1000) [3].
Najpowszechniej wykorzystywanymi płytkami badawczymi są płytki
8-dołkowe, które mogą posiadać elektrody okrągłe lub elektrody o strukturze
grzebieniowej. Średnica okrągłych waha się od 250 µm do 350 µm, natomiast
powierzchnia elektrod o strukturze grzebieniowej wynosi od 1,96 mm2 do
3,92 mm2. Ilość elektrod przypadających na studzienkę wpływa na liczbę
komórek, które można jednorazowo przebadać. Przy małych populacjach
komórek wykorzystywane są płytki jednoelektrodowe. Płytki wieloelektrodowe
pozwalają analizować właściwości większych grup komórek [3–4].
3. Tytan jako materiał biomedyczny
Tytan już w latach czterdziestych XX wieku uważany był za doskonały
materiał implantologiczny. Przeprowadzone przez Bothea i Leventhala
doświadczenia wykazały, że materiał ten posiada znakomitą biokompatybilność,
i nawet w dużych ilościach nie wpływa negatywnie na organizmy. Dzięki dobrym
właściwościom mechanicznych oraz odporności na korozję, został szeroko
rozpowszechniony do zastosowań medycznych. Komercyjnie czysty tytan
charakteryzuje się niską przewodnością cieplną, małą gęstością, niską wartością
115
modułu sprężystości, umiarkowaną wytrzymałością, odpornością na korozję
w środowiskach biologicznych oraz wysoką reaktywnością. Szczególnie
wykorzystywany jest w ortopedii. Niestety ze względu na niską twardość,
materiał ten posiada niewystarczającą odporność na zużycie ścierne. Relatywnie
słabo rozwinięte właściwości tribologiczne skłaniają do obróbki powierzchni,
celem ulepszenia jej właściwości [9–10].
Tytan i jego stopy uważane są za znakomite materiały biokompatybilne. Będąc
względnie obojętnymi, posiadając odpowiednią odporność na korozję
uwarunkowaną występowaniem na ich powierzchni tlenku. Ponadto tytan bez
większych problemów adsorbuje białka z płynów biologicznych. Badania
laboratoryjne potwierdziły, iż wchłania albuminę, lamininę V,
glikozaminoglikany, kolagenazę, fibronektynę, białka dopełniające, jak również
fibrynogen. Powierzchnia tytanu wspomaga również wzrost komórek i ich
różnicowanie. Na wszczepionym do ludzkiego organizmu materiale, początkowo
na implantach, pojawiają się zauważane neutrofile i makrofagi. Przyczyniają się
one do powstania zarodka nowej kości. Pierwszą reakcją po zaaplikowaniu
materiału wewnątrz organizmu jest adsorpcja białka. Następnie, neutrofile
i makrofagi w interakcji z cytokinami, zwalniają fibroblasty i wpływają na proces
kapsułkowania ciała obcego. Tytan, mieszczący się w małej odległości od kości,
w odpowiednich warunkach wpływa na zmineralizowanie się komórek. Będąc
oddzielony od warstwy organicznej, nie jest bezpośrednio połączony z kością.
Powstałe wiązanie wynika z osteointegracji, jak również mechanicznego związku
pomiędzy chropowatością powierzchni tytanu oraz występujących w tkance
kostnej porach. W celu zapewnienia wiązania biologicznego materiału z kością,
prowadzone są badania nad modyfikacją powierzchni, poprawiającej
przewodnictwo kostne i bioaktywności [2, 11].
3.1. Modyfikacja powierzchni tytanu
Masowe właściwości biomateriałów, takie jak odporność na korozję,
nietoksyczność, zdolność do kontrolowanego rozkładu, moduł sprężystości oraz
wytrzymałość zmęczeniowa, są uznawane za ważne, z punktu widzenia selekcji
odpowiednich biomateriałów do danego biomedycznego zastosowania. Zjawiska
występujące po wszczepieniu dotyczą interakcji między powierzchnią materiału
sztucznego ze środowiskiem biologicznym oraz reakcji biologicznych. Istotną
rolę w odpowiedzi środowiska biologicznego na sztuczne urządzenia medyczne
odgrywa powierzchnia materiałów. Poszczególne etapy produkcji implantów
powodują zanieczyszczenie, poprzez powstawanie warstwy tlenków na ich
powierzchni. Wynika to z poddawania ich naprężeniom i odkształceniom
plastycznym, jak również niejednorodności materiału. Powierzchnie takie nie są
odpowiednie dla zastosowań biomedycznych, przez co muszą przejść proces
obróbki. Innym powodem dokonywania modyfikacji powierzchni medycznych
wyrobów z tytanu jest fakt, iż często konieczne są specjalne właściwości
116
powierzchni, które znacznie odbiegają od powierzchni wytwarzanych w produkcji
masowej. Odpowiednie sposoby modyfikacji oprócz zachowania pozytywnych
właściwości tytanu i jego stopów, takich jak stosunkowo niewysoki moduł
sprężystości, duża wytrzymałość zmęczeniowa oraz skrawalność i formowalność,
ulepszają specyficzne właściwości, w zależności od klinicznego zastosowania.
W celu uzyskania możliwie najlepszej integracji biologicznej, wymagane jest
osiągnięcie zdolności do tworzenia się kości. W urządzeniach znajdujących się
w kontakcie z krwią, jak na przykład sztuczne zastawki serca, zgodność
komórkowa ma kluczowe znaczenie [2,11–12].
3.2. Zastosowanie biomedyczne tytanu
Rygorystyczne wymagania stawiane przez wojsko i przemysł lotniczy
przyczyniły się do rozprzestrzeniania tytanu jako odpowiedniego materiału do
zastosowań medycznych, w tym chirurgicznych i stomatologicznych.
Spotęgowane wykorzystanie tytanu i jego stopów jako materiałów
biokompatybilnych spowodowane było posiadaniem przez nie niższego modułu,
lepszej zgodności komórkowej i lepszej odporności na korozję w porównaniu
z bardziej konwencjonalnymi stopami, takimi jak stal nierdzewna i kobalt. Podane
właściwości przyczyniły się do szybkiego rozpowszechnienia nowoczesnych
stopów Ti. Zastosowania wcześniej wymienionych materiałów można
klasyfikować według ich funkcji biomedycznych [2,11].
3.3. Zastosowania kardiologiczne i sercowo-naczyniowe
Tytan i jego stopy są masowo wykorzystywane w implantach układu sercowo-
naczyniowego, dzięki ich unikalnym właściwościom. Po raz pierwszy użyto ich
w protezach zastawkowych serca, elementach ochronnych rozruszników,
sztucznych sercach i urządzeniach krążeniowych. W ostatnich latach zwrócono
uwagę na użycie stopu niklu i tytanu (NITINOL) jako kształtowego materiału
w urządzeniach wewnątrznaczyniowych, takich jak stenty i cewki okluzyjne.
Zaletą wykorzystania w układzie sercowo-naczyniowy tytanu jest fakt, iż
charakteryzuje się on wytrzymałością, jest obojętny odczynowo
i niemagnetyczny. Ponadto, w trakcie rezonansu magnetycznego, tytan wchodząc
w reakcje wspomaga obrazowanie zmian fizjologicznych i patologicznych. Do
wad należy niewystarczająca radioaktywność w mniejszych strukturach.
W urządzeniach wspomagających krążenie, jak i w rozrusznikach sercach, tytan
używany jest w częściach mechanicznych pomp, a także w elementach
narażonych na kontakt z krwią. Urządzenia wykonane w całości z tytanu są
niestosowane, ponieważ występują problemy związane z krzepliwością krwi na
ich powierzchni. Najpowszechniej stosowanym materiałem, będącym
wystawianym na kontakt z krwią jest stop tytanu i niklu, który jest rezultatem
badań poświęconych poprawie właściwości przeciwzakrzepowych biomateriałów
[2,11–12].
117
3.4. Zastosowanie tytanu w procesie osteosyntezy
Tytan, oprócz wykorzystania go przy produkcji sztucznych kości, stawów
i implantów stomatologicznych, znalazł zastosowanie w osteosyntezie, czyli
chirurgicznej metodzie leczenia złamanych kończyn. Dzięki niej możliwe jest
odzyskanie utraconych podczas wypadku funkcji. Tytan i jego stopy są
atrakcyjnymi materiałami wykorzystywanymi przy osteosyntezie, spełniając
wszystkie stawiane temu procesowi wymagania. Elementami implantacyjnymi są
śruby i płyty kostne, implanty szczękowo-twarzowe itp. Śruby kostne są
stosowane jako pojedyncze wkręty do mocowania kostnego bezpośredniego, bądź
jako śruby łączące, które wywierają nacisk na powstałą w czasie pęknięcia
szczelinę. Ponadto, stosuje się je do mocowania płyt lub innych elementów
implantacyjnych do kości. Płyty kostne są stosowane niemalże we wszystkich
głównych obszarach szkieletowych jako mostki, lub wewnętrzne stabilizatory.
Materiały o szorstkich powierzchniach (powierzchnie ścierne, plazmowe,
trawione itp.) lub powierzchniach bioaktywnych, poprawiają osteointegrację,
ponieważ będąc ściśle związane z kością, redukują w ten sposób względne ruchy
powodujące wydłużenie procesu gojenia [2,11].
4. Proces fotolitografii
Ostatnie lata przyniosły niebagatelny rozwój scalonych układów
mikroelektronicznych. Ich wytwarzanie wymaga zastosowania metod
umożliwiających szczegółowe i dokładne odwzorowanie wzorów na
wykorzystywanych podczas prac podłożach. W tym celu wykorzystuje się szereg
metod litografii, do których należy fotolitografia UV, litografia elektronowa,
litografia rentgenowska i litografia jonowa. Wybór danej metody determinowany
jest nie tylko przez posiadane zaplecze technologiczne, lecz również wskutek
związanej z produkcją efektywności kosztowej. W chwili obecnej proces litografii
stanowi poniżej 10% kosztów wyrobu gotowego. Zastosowanie technologii
wymagającej znacznych nakładów w sprzęt o niskiej przepustowości stać mógłby
się głównym czynnikiem kształtującym ostateczną cenę gotowego układu [7,13].
Najpowszechniej stosowaną techniką fotolitograficzną jest druk kontaktowy.
Polega on na utrzymaniu maski technologicznej, z danym wzorem do
odtworzenia, nad powierzchnią pokrytą emulsją światłoczułą. Jeżeli na płytce
znajduje się już inna struktura, przeprowadzane jest wizualne dopasowanie maski
do widniejącego wzoru. Następnie dokonuje się doprowadzenia
do twardego styku maski z płytką. Istnieje również możliwość zastosowania
techniki miękkiego kontaktu. Zabezpiecza to przed uszkodzeniem maski i płytki,
kosztem gorszej jakości otrzymanego wzoru. Po wykonaniu wyżej wymienionych
czynności, kolejnym krokiem jest naświetlanie. Płytka z fotorezystem, na której
znajduje się maska technologiczna, poddawana jest działaniu światła
ultrafioletowego, którego długości fal waha się w przedziale od 350 do 430nm.
Wyodrębnić można dwa rodzaje emulsji, pozytywową i negatywową.
118
Wykorzystując pierwszą, uzyskany wzór jest dokładnym odwzorowaniem maski.
W procesie z użyciem emulsji negatywowej, w odróżnieniu do pozytywowej,
naświetlany wzór nie jest wypłukiwany przy użyciu wywoływacza, a utwardzony
i na niego odporny. Kształt jest dopełnieniem obrazu maski [7].
5. Projekt struktur do pomiarów właściwości elektrycznych
Na zakres prac technologicznych składało się zaprojektowanie i wykonanie
masek technologicznych, niezbędnych podczas wykonywania procesu
fotolitografii. Na poliwęglanowe podłoże naniesiono warstwę metalizacji tytanu,
przy użyciu napylarki NANO 36™ firmy Kurt J. Lesker. W procesie fotolitografii
pozytywowej wytworzono zestaw elektrod o strukturze grzebieniowej. Ostatnim
punktem prac była kontrola optyczna kształtu elektrod oraz pomiar ich
rezystancji.
Prace rozpoczęto od poznania możliwości technologicznych do wykonywania
struktur o określonych mikrowymiarach. W tym celu zaprojektowano maski do
przeprowadzenia fotolitografii metodą zarówno pozytywową jak i negatywową.
Ścieżki znajdujące się na masce posiadały od 10 µm do 100 µm szerokości. Ze
względu na wysoki koszt materiału jakim jest tytan, próby technologiczne
zrealizowano na podłożu PCB, wykonanym z laminatu FR-4, o grubości 0,8 mm
i pokrytego warstwą metalizacji miedzi o grubości 35 µm. Po zrealizowaniu
testów stwierdzono, że najmniejsze rozmiary uzyskane dostępną metodą
w laboratorium Instytutu Elektroniki i Technik Informacyjnych Politechniki
Lubelskiej wynoszą 50 µm. W związku z tym, do pierwszych testów
technologicznych przyjęto wymiary minimalne nie przekraczające
100 µm × 100 µm. Kolejnym krokiem było zaprojektowanie elektrod, opierając
się na obecnie stosowanych kształtach. Stwierdzono, iż optymalnym wyborem
będzie wykorzystanie elementów grzebieniowych. Zaprojektowano maskę
z ośmioma elektrodami znajdującymi się na pojedynczym podłożu, gdzie
szerokość i odległości pomiędzy poszczególnymi palcami kondensatora wynosiła
200 µm. Wykonywanie struktur o mniejszych wymiarach było niemożliwe,
ponieważ elektrody charakteryzowały się kształtami niespełniającymi
określonych wymogów początkowych.
6. Podsumowanie
Zapoznano się z techniką monitorowania właściwości komórek poprzez
pomiar impedancji w czasie rzeczywistym. Na podstawie przeglądu literatury
poznano możliwości wykorzystania tytanu w aplikacjach medycznych. Podczas
wykonanych eksperymentów poznane zostały możliwości technologiczne,
umożliwiające wykonanie kondensatorów grzebieniowych w metalizacji tytanu.
Wytworzona została płytka badawcza z ośmioma kondensatorami
grzebieniowymi, których szerokość i odległości pomiędzy poszczególnymi
119
palcami kondensatora wynosiła 200 µm. Analiza charakterystyk otrzymanych na
podstawie uzyskanych podczas badań danych wykazuje, iż im wyższa
częstotliwość, tym niższa rezystancja doprowadzeń płytki badawczej. Dzięki
wykorzystaniu wytworzonych płytek badawczych, możliwe jest przeprowadzenie
pomiaru właściwości elektrycznych komórek w otoczeniu metalizacji tytanu.
Bibliografia
1. He X., Zhang G., Wang X., Hang R., Huang X., Qin L., Tang B., Zhang X.,
Biocompatibility, corrosion resistance and antibacterial activity of TiO2/CuO
coating on titanium, Ceramics International, 43(18),16185–16195, 2017.
2. Rack H. J., Titanium alloys for biomedical applications, Materials Science and
Engineering 26, 1269–1277, 2006.
3. Applied BioPhysics, Product Guide, Corporate Headquarters, 185 Jordan Road
Troy, NY 12180 1-866-301-ECIS (3247).
4. Judith A., Stolwijk K.M., Renken Ch. W., Trebak M., Impedance analysis of GPCR-
mediated changes in endothelial barrier function: overview and fundamental
considerations for stable and reproducible measurements, SpringerLink, 2018.
5. Szulcek R, Bogaard HJ, Nieuw Amerongen G.P., Electric Cell-substrate Impedance
Sensing for the Quantification of Endothelial Proliferation, Barrier Function and
Motility. J Vis Exp., 2014.
6. Wegener J., Keese C.R., Giaever I., Electric Cell–Substrate Impedance Sensing
(ECIS) as a Noninvasive Means to Monitor the Kinetics of Cell Spreading to
Artificial Surfaces. Experimental Cell Research, 259(1), 158–166, 2000.
7. Prendecka M.R., Małecka-Massalska T., Effect of exopolysaccharide from
Ganoderma applanatum on the electrical properties of mouse fibroblast cells line
L929 culture using an electric cel-substrate impedance sensing (ECIS), Annals of
Agricultural and Environmental Medicine, 23, 293–297, 2016.
8. Pennington M.R., Walle G., Smith G.A., Electric Cell-Substrate Impedance Sensing
To Monitor Viral Growth and Study Cellular Responses to Infection with
Alphaherpesviruses in Real Time. 2017.
9. Veiga C., Loureiro A.J.R., Proprties and applications of titanium alloys, Rev.Adv.
Mater. Sci., 32, 133–148, 2012.
10. Wang K.: The use of titanium for medical applications in the USA., Materials Science
and Engineering, 213, 134–137, 1996.
11. Liu X, Chu PK, Ding C: Surface modification of titanium, titanium alloys, and
related materials for biomedical applications, Materials Science and Engineering,
47(3), 49–121, 2004.
12. Niinomi M: Properties of biomedical titanium alloys, Materials Science and
Engineering Mechanical, 243, 231–236, 1998.
13. Jaworski B., Kurs fizyki t. 3, Procesy falowe, optyka, fizyka atomu i jądrowa,
PWN, 1974.
120
Żaklin Grądz(1), Joanna Styczeń(2)
Wybrane problemy diagnostyki procesu spalania
z wykorzystaniem sztucznych sieci neuronowych
1. Wstęp
Diagnostyka procesu spalania w szczególności ma na celu zapewnienie
stabilności przebiegu procesu spalania oraz ograniczenie emisji powstałych
zanieczyszczeń. Wykorzystanie układów optycznych do monitorowania procesu
pozwala nadzorować spalanie w sposób bezinwazyjny. W ogólnej definicji proces
spalania to reakcja chemiczna pomiędzy paliwem i utleniaczem, której
towarzyszy wydzielenie ciepła i światła. W zależności od tego co jest produktem
spalania proces ten przebiega w odmiennych warunkach. Do oceny stanu procesu
spalania mogą wykorzystuje się sztuczne sieci neuronowe [1].
Jednym z powszechnie stosowanych sposobów modelowania sztucznej sieci
neuronowej jest wykorzystanie algorytmu propagacji wstecznej. Algorytm ten
określa sposób doboru wag w sieci wielowarstwowej przy wykorzystaniu
gradientowych metod optymalizacji. Architektura sztucznej sieci neuronowej dla
tej struktury składa się z następujących warstw: wejściowej, ukrytej
i wyjściowej[2–4].
Projektowanie sieci neuronowej wymaga wyselekcjonowania z danych
pomiarowych informacji, które zostaną wykorzystane jako dane wejściowe.
W celu ocenienia dokładności prognozowania sieci dokonuję się podziału danych
na grupę szkoleniową i grupę testową. Trenowanie sieci neuronowej w przypadku
algorytmu propagacji wstecznej opiera się na czterech etapach uczenie sieci.
Pierwszym z nich jest przeprowadzenie analizy sieci neuronowej cechującej się
zwykłym kierunkiem przepływu sygnałów, w wyniku której między innymi
otrzymuje się wartości sygnałów wyjściowych neuronów warstw ukrytych oraz
pochodne funkcji aktywacji w poszczególnych warstwach[3].
Kolejnym etapem jest utworzenie sieci propagacji wstecznej zrealizowane
przez zastąpienie funkcji aktywacji przez jej pochodne, odwrócenie kierunku
przepływu sygnałów i zastosowanie na obecnym wejściu (byłym wyjściu) sieci
wymuszenia [3]. Sieć ta wyrażona jest różnicą pomiędzy wartością aktualną
i zadaną. W przypadku sieci, która jest utworzona w taki sposób należy obliczyć
(1) z.gradz@pollub.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział Elektrotechniki
i Informatyki, Politechnika Lubelska
(2)j.styczen@pollub.pl, Instytut Elektroniki i Technik Informacyjnych, Wydział Elektrotechniki
i Informatyki, Politechnika Lubelska
121
wartości odpowiednich różnic wstecznych. Etapem trzecim jest adaptacja wag,
która odbywa się z wykorzystaniem wyników otrzymanych w dwóch pierwszych
etapach. Ostatnim etapem trenowania sieci jest powtórzenie procesu opisanego
w etapach 1–3. Proces ten powinien zostać powtórzony dla wszystkich wzorców
uczących do chwili, w której spełniony zostanie warunek zatrzymania
algorytmu[3].
Sztuczne sieci neuronowe w diagnostyce procesu spalania znajdują
zastosowanie w rozwiązywaniu problemów klasyfikacji oraz modelowania [1].
2. Problematyka spalania i współspalania
Złożoność procesu spalania powoduje konieczność stosowania wielu metod
monitorowania i diagnostyki. Warunki w jakich prowadzony jest proces są
zależne od rodzaju spalanego paliwa. Wśród substancji wykorzystywanych
w procesie spalania w roli paliwa można zaliczyć węgiel, biomasę, paliwa
gazowe i ciekłe czy odpady. Proces spalania oceniany jest z wykorzystaniem
różnych kryteriów klasyfikacji. Takim kryterium, przykładowo może być spalanie
zupełne i niecałkowite. W przypadku spalania całkowitego, jego cechą
charakterystyczną jest to, że w trakcie trwania tego procesu dochodzi do
utlenienia całej masy substancji, która jest spalana. Dodatkowo, spalanie
niecałkowite rozumiane jest jako proces, który zachodzi gdy zużywalna ilość
tlenu w trakcie trwania procesu jest nie większa niż wynika to ze stechiometrii
procesu spalania [5].
Biomasa może być spalana na wiele sposobów. Do technologii jej
przetwarzana należą: spalanie bezpośrednie oraz współspalanie biomasy
z węglem lub innymi substancjami. W przypadku bezpośrednie spalanie jest
procesem, w którym dochodzi do całkowitego utlenienia biomasy w warunkach
nadmiaru powietrza. Współspalanie biomasy z węglem jest procesem, w którym
węgiel spalany jest z odpowiednio dobranymi biopaliwami stałymi. W procesie
współspalania bezpośredniego węgiel oraz biomasa tworzą mieszaninę paliw,
która jest spalana w jednej komorze [6–7].
Przetwarzanie odpadów może być przeprowadzone z wykorzystaniem metod
takich jak spalanie, piroliza czy zgazowanie. Porównując wymienione
technologie, można stwierdzić, że najbardziej korzystną z nich jest spalanie.
Uzasadnieniem tego jest fakt, że w trakcie procesu spalania odpadów istnieje
możliwość odzysku ciepła z ich spalania, a koszt ich przetworzenia jest mniejszy [8].
3. Zastosowania sieci neuronowych
Sieci neuronowe mają wiele zastosowań. W procesach przemysłowych często
wykorzystywane są do sterowania lub pełnia funkcji decyzyjnych, które
realizowane są przez przekazywanie sygnałów wykonawczych elementom
urządzeń nie powiązanych z siecią. Wśród ogólnych zastosowań sztucznych sieci
122
neuronowych, oprócz tych zawartych w Tabeli 1, należy wyróżnić następujące
funkcje: interpolacji, kompresji oraz asocjacji [3].
Tabela 3. Wybrane funkcje pełnione przez sztuczne sieci neuronowe
Funkcja sieci neuronowej Opis
Aproksymacja
- sieć neuronowa dla funkcji wielu
zmiennych może pełnić rolę uniwersalnego
aproksymatora
- funkcja nieliniowa wyrażona jest: y=f(x),
gdzie x to wektor wejściowy, y to funkcja
wektorowa wielu zmiennych
Klasyfikacja i rozpoznawanie
wzorców
- sieć neuronowa posiada zdolność uczenia
się charakterystycznych cech wzorców
takich jak np.:
a) odwzorowanie graficzne układu
pikselowego wzorca ,
b)klasyfikacja wzorców polegająca na
przypisywaniu różnych wzorców do
stosownych klas
Predykcja
- sieć neuronowa ma za zadanie w oparciu
o ciąg wartości z przeszłości określić
przyszłe odpowiedzi systemu
Identyfikacja i sterowanie
- sieć neuronowa jest modelem
nieliniowym analizowanego procesu, który
umożliwia wytrenowanie sygnału
sterującego
- sieć neuronowa dostosowuje się do
zmiennych warunków oraz może pełnić
funkcję układu nadążnego i śledzącego
Zdolność uczenia i adaptacji
- sieć neuronowa, która została już
wytrenowana na konkretnej grupie
informacji - danych uczących, posiada
nabytą wiedzę i jest w stanie wykorzysta ją
na nowych danych.
Źródło: Osowski S., Sieci neuronowe do przetwarzania informacji, Oficyna wydawnicza
Politechniki Warszawskiej, Warszawa 2013
Dodatkowo, sposób uczenia neuronu tzw. dobór wag jest zależny od
charakterystycznych cech funkcji nieliniowej np. od ciągłości funkcji.
W literaturze [3] zaprezentowane są dwa podejścia doboru strategii uczenia –
uczenie z nauczycielem i bez. W przypadku strategii uczenia z nauczycielem
zakłada się, że znane są nie tylko sygnały wejściowe ale także oczekiwane sygnały
wyjściowe. Strategia uczenia neuronu bez nauczyciela oparta jest na zastosowaniu
123
konkurujących między sobą neuronów lub korelacji sygnałów uczących. Jednak
w tym podejściu niemożliwe jest przewidzenie konkretnego sygnału wyjściowego [3].
4. Wybrane struktury sieci neuronowych – sieci
jednokierunkowe wielowarstwowe
Istnieje wiele rodzajów sztucznych sieciach neuronowych, do których można
zaliczyć między innymi sieci jednokierunkowe wielowarstwowe, neuronowo
radialne, SVM, rekurencyjne czy samoorganizujące się. Ich aplikacyjność zależna
jest od problemu, który mają za zadanie rozwiązać. Powszechnie
wykorzystywanymi sieciami są jednokierunkowe wielowarstwowe typu
sigmoidalnego. Inną nazwą tych struktur jest perceptron wielowarstwowy z ang.
MLP – Multi Layer Perceptron. Cechą charakterystyczną MPL jest przepływ
sygnałów w jednym kierunku – od wejścia do wyjścia sieci. Metody trenowania
sieci uznane są za proste w interpretacji matematycznej a co za tym idzie proste
w implementacji [3].
W architekturze sieci wielowarstwowej perceptronowej należy wyróżnić
następujące warstwy: wejściową, ukrytą (co najmniej jedną) i wyjściową.
Na poniższym rysunku znajduje się przykładowy schemat tego typu sieci
neuronowej [3].
Rysunek 1. Schemat sieci wielowarstwowej perceptronowej
Źródło: Opracowanie własne na podstawie: Osowski S., Sieci neuronowe do przetwarzania
informacji, Oficyna wydawnicza Politechniki Warszawskiej, Warszawa 2013
124
4.1. Algorytm propagacji wstecznej
Algorytm propagacji wstecznej jest uważany za jeden z najlepszych
algorytmów ze względu na wysoką skuteczność uczenia sieci wielowarstwowej.
Definiuje on strategię doboru wag neuronów w sieci wielowarstwowej
z zastosowanie gradientowych metody optymalizacji. Podstawą tego algorytmu
jest funkcja celu. Funkcja ta definiowana jest jako suma kwadratów różnic między
występującymi wartościami sygnałów sieci wyjściowych a wartościami, które są
zadane. Gdy próbka ucząca jest pojedyncza funkcję celu określa się jako [3]:
𝐸(𝑤) =1
2∑ (𝑦𝑘 − 𝑑𝑘)
2𝑀𝑘=1 . (1)
Gdy próbek uczących jest wiele j(j=1,2, …, p) funkcję celu stanowi wówczas
suma E po wszystkich próbkach [3]:
𝐸(𝑤) =1
2∑ ∑ (𝑦𝑘
(𝑗)− 𝑑𝑘
(𝑗))2
𝑀𝑘=1
𝑝𝑗=1 . (2)
Wagi mogą zostać uaktualnione po każdorazowej prezentacji próbki uczącej
(jest to uczenie typu on-line). Inną metodą może być uaktualnienie jednorazowe
po prezentacji wszystkich próbek, które tworzą cykl uczący (jest uczenie typu
off-line). Celem uczenia sieci jest określenie jaką wartość wag neuronów mają
wszystkie warstwy sieci. Powinno to być określone w taki sposób aby zadając
wektor wejściowy x uzyskać na wyjściu sieci sygnał wyjściowy o wartości y [3].
Przy uczeniu sieci wielowarstwowej z zastosowaniem metod gradientowych dla
wyznaczenia kierunku p(w) wymagane jest określenie wektora gradientu
względem wartości wszystkich wag warstw sieci. Jeżeli chodzi o wagę warstwy
wyjściowej zadanie to jest określone natychmiast. Algorytmem propagacji
wstecznej nazywana jest strategia postępowania zastosowana w warstwach
pozostałych. Na podstawie tego algorytmu wyróżnić można następujące etapy
uczenia – analiza sieci neuronowej o zwykłym kierunku przepływu, sieci
propagacji wstecznej, adaptację wag oraz proces powtarzany dla wszystkich
wymienionych wzorców [3].
Pierwszy etap uczenia czyli analiza sieci neuronowej o zwykłym kierunku
przepływu zakłada iż sygnały wejściowe sieci są równe elementom aktualnego
wektora x. W wyniku analizy otrzymujemy wartości sygnałów wyjściowych
neuronów warstwy wyjściowej jak również warstw ukrytych oraz pochodne
funkcji aktywacji w poszczególnych warstwach [3]:
𝑑𝑓(𝑢𝑖(1)
)
𝑑𝑢𝑖(1) ,
𝑑𝑓(𝑢𝑖(2)
)
𝑑𝑢𝑖(2) , … ,
𝑑𝑓(𝑢𝑖(𝑚)
)
𝑑𝑢𝑖(𝑚) . (3)
125
Kolejnym etapem jest utworzenie sieci propagacji wstecznej, które
zrealizowane jest przez zmianę kierunku przepływu sygnałów, zastąpienie
pochodnymi ich funkcji aktywacji. Następuje tu również przyłożenie sieci
wymuszenia w postaci różnicy między wartością aktualną i zadaną a byłym
wyjściu a obecnie wejściu. Punkt trzeci obejmuje adaptację wag która odbywa się
na podstawie wyników uzyskanych w poprzednich punktach dla sieci oryginalnej
oraz sieci o propagacji wstecznej [3].
Opisany proces w powyższych trzech punktach należy powtórzyć we
wszystkich wzorcach uczących. Proces ten należy kontynuować do chwili
spełnienia warunków zatrzymujących algorytm. Działanie takiego algorytmu
można uznać za zakończone w chwili , w którym norma gradientu spadnie poniżej
wartości ɛ definiującej dokładność z jaką zachodzi proces uczenia [3].
W pracy [2] przedstawiono problematykę współspalania szlamu barwiącego
z materiałów włókienniczych i skórki pomelo. Wyniki zawarte w artykule [2]
zostały przeanalizowane z wykorzystaniem sztucznych sieci neuronowych,
a w szczególności sieci propagacji wstecznej oraz radialnej funkcji bazowej.
Architektura sieci neuronowej była złożona z trzech warstw: wejściowej, ukrytej
i wyjściowej. W projektowanych sieciach za dane wejściowe autorzy [2] uznali
stosunek mieszania, szybkość ogrzewania, atmosferę spalania i temperaturę, a za
wynik uznano procent utraty masy. W celu przetestowania dokładność
prognozowania i odporność obu modeli sztucznej sieci neuronowej, zestawy
danych prognozowania analizy termograwimetrycznej podzielono na zestawy
szkoleniowe (95%) i testowe (5%). Zestaw danych testowych posłużył do oceny
poprawności pracy sieci.
Radialna funkcja bazowa składa się z warstwy wejściowej, ukrytej warstwy
radialnej bazowej węzłów z funkcją Gaussa i wyjściowej warstwy liniowej. Sieć
propagacji wstecznej jest oparta na algorytmie Bayesa, który znacznie poprawia
zdolność generalizacji poprzez modyfikację funkcji celu sztucznej sieci
neuronowej [2,9]. Średnia suma kwadratów błędów sieci jest zwykłym wyborem
dla funkcji celu [2,9]. Trenowanie sieci odbywało się w środowisku Matlab
z wykorzystaniem dla radialnej funkcji bazowej funkcji newrb. Trening
utworzony za pomocą funkcji newrb jest procesem, w którym iteracja została
zaprojektowana poprzez ciągłe zwiększanie liczby ukrytych neuronów, które
trwały, dopóki błąd nie osiągnął celu lub liczba neuronów osiągnęła górną granicę
[2,10].
4.2. Algorytm Levenberga-Marquardta
Kolejną metodą implementacyjną jest newtonowska strategia optymalizacji.
Algorytm Levenberga-Marquardta jest jedną z implementacji newtonowskiej
strategii optymalizacji. W metodzie tej wartość hesjanu H(w) zastępuje się
wartością aproksymowaną G(w) [3]:
126
𝑝𝑘 = −[𝐻(𝑤𝑘)]−1𝑔(𝑤𝑘) . (4)
W metodzie tej przyjmuje się definicję funkcji celu w postaci odpowiadającej
jednemu wzorcu uczącemu. Istotą podejścia tej metody jest aproksymacja
z wykorzystaniem czynnika regularyzacyjnego, w którym parametr Levenberga-
Marquardta jest wielkością skalarną, zmienianą podczas procesu
optymalizacyjnego. Na początku procesu uczenia gdy jeszcze wartość wk jest
jeszcze daleka do rozwiązanie, przyjmuje się wartość parametru Levenberga-
Marquardta jako bardzo dużą w porównaniu z największą wartością macierzy.
W tym przypadku hesjan reprezentowany jest przez czynnik regularyzacyjny [3]:
𝐺(𝑤𝑘) ≈ 𝑣𝑘1 . (5)
Poszukiwanie kierunku odbywa się zgodnie z zastosowaniem metody
największego spadku [3].
𝑃𝑘 ≈ −𝑔(𝑤𝑘)
𝑣𝑘 . (6)
Na podstawie określonych testów dokonuje się porównania różnych
algorytmów uczących. Porównanie tego dokonuje się miedzy innymi biorąc pod
uwagę takie czynniki jak liczbę cykli uczących, liczbę obliczeń funkcji celu,
liczbę mnożeni zmienno przecinkowych, czas obliczeń i wrażliwość na minima
lokalne. Porównując algorytm Levenberga-Marquardta z innymi – algorytmem
największego spadku, algorytmem gradientów sprzężonych czy algorytmem
zmiennej metryki to w procesie uczenia jest on najskuteczniejszy. Dla porównania
uzyskanie założonej wartości funkcji celu przy użyciu algorytmu Levenberga-
Marquardta zajmuje czas równy 1,2 s. podczas gdy algorytmowi największego
spadku zajęło to ponad 10 godzin. Na podstawie wielu badań testowych
stwierdzono, że algorytmy newtonowskie – w tym Algorytm Levenberga-
Marquardta – przewyższają inne algorytmy pod względem efektywności [3].
W pracach [4,11] zostały zaprezentowane rozwiązania wykorzystujące
algorytm Levenberga-Marquardta. W sieciach neuronowych można wyróżnić
wiele rodzajów algorytmów szkoleniowych, takich jak Leven-Marquardt (LM)
[4,11–12], gradientowy moment zniżania (GDM), współczynnik adaptacyjnego
uczenia się (GDX) [913], skalowany gradient koniugatu (SCG) i Broyden-
Fletcher-Goldfarb-Shanno quasi-Newton (BFGS) [14]. Autorzy pracy 4 do
przeprowadzenia badań wybrali algorytm LM, ponieważ często charakteryzuje się
on wyższym współczynnikiem zbieżności niż inne algorytmy [15].
W badaniach przedstawionych w pracy [12] wykorzystano model
wielowarstwowej sieci neuronowej opartej na sprzężeniu z perceptronem (ang.
multi-layer perceptron) z algorytmem propagacji wstecznej Levenberga-
Marquardta do przewidywania wydajności glukozy i ksylozy podczas hydrolizy
127
enzymatycznej biomasy dla różnych wielkości cząstek i załadowania biomasy.
Na poniższym rysunku został przedstawiony diagram zmian w badanej sztucznej
sieci neuronowej.
Rysunek 2. Diagram regresji modelu sieci neuronowej
Źródło: Vani, S., Sukumaran, R.K., Savithri, S., 2015. Prediction of sugar yields during
hydrolysis of lignocellulosic biomass using artificial neural network modeling. Bioresour. Technol.
188, 128–135, 2015.
5. Wnioski
Przetwarzanie danych pomiarowych z procesu spalania wymaga zastosowania
złożonych metod ich analizy. Przykładem są sztuczne sieci neuronowe, które
w tym ujęciu wykorzystywane do rozwiązywania problemów klasyfikacji oraz
modelowania. W śród wielu zalet sieci neuronowych należy wyróżnić zdolność
uczenia się, adaptacji i uogólniania[1].
W niniejszym rozdziale przedstawione zostały wybrane problemy diagnostyki
procesu spalania z wykorzystaniem sztucznych sieci neuronowych [16-19].
Istnieje wiele skutecznych algorytmów, z wykorzystaniem których trenowanie
sieci neuronowych jest szczególnie skuteczne. Przykładem ich są algorytm
128
Levenberga-Marquardta oraz algorytm propagacji wstecznej. Algorytmy te
charakteryzują się wysoką skutecznością uczenia sieci wielowarstwowej.
Algorytm Levenberga-Marquardta przewyższa inne rozwiązania swoją
efektywnością, ze względu na fakt, że utworzenie założonej wartości funkcji celu
zajmuje mu czas równy 1,2 sekundy podczas gdy algorytmowi największego
spadku zajęło to ponad 10 godzin [3].
Bibliografia
1. Smolarz, A., Diagnostics of combustion processes of gaseous fuels, coal dust and
mixtures of coal dust and biomass using optical methods, Politechnika Lubelska, 2013.
2. Xie C., Liua J., Zhang X., Xie W., Sun J., Chang K., Kuo J., Xie W., Liu C., Sun S.,
Buyukada M., Evrendilek F., Co-combustion thermal conversion characteristics of
textile dyeing sludgeand pomelo peel using TGA and artificial neural networks,
Applied Energy, 212, 786–795, 2018.
3. Osowski S., Sieci neuronowe do przetwarzania informacji, Oficyna wydawnicza
Politechniki Warszawskiej, 2013.
4. Chen J., Liu J., He Y., Huang L., Sun S., Sun J., Chang K., Kuo J., Huang S., Ning
X., Investigation of co-combustion characteristics of sewage sludge and coffee
grounds mixtures using thermogravimetric analysis coupled to artificial neural
networks modeling, Bioresource Technology 225, 234–245, 2017.
5. Sawicki D., Ocena procesu spalania węgla i biomasy z wykorzystaniem analizy
obrazu, Politechnika Lubelska, 2015.
6. Mikulandric, R., Loncar, Drazen., Bôhning, D., Bôhme, R., Beckmann, M., Artificial
neural network modelling approach for a biomass gasification proces in fixed bed
gasifiers, Energy Convers. Manage, 87, 1210–1223 2014.
7. Berent-Kowalska G., Kacprowska J., Moskal I., Jurgaś A. i inni: Energia ze źródeł
odnawialnych w 2014r., Główny Urząd Statystyczny Departament Produkcji, 2014.
8. Kordylewski W., Spalanie i paliwa, Oficyna Wydawnicza Politechniki
Wrocławskiej, 2008.
9. Mani-Varnosfaderani A, Kanginejad A, Gilany K, Valadkhani A., Estimating
complicated baselines in analytical signals using the iterative training of Bayesian
regularized artificial neural networks, Anal Chim Acta, 940, 56–64, 2016.
10. Matlab: Signal processing toolbox - User’s Guide, Natick, 2018.
11. Yildiz Z., Uzun H., Ceylan S., Topcu Y., Application of artificial neural networks to
co-combustion of hazelnut husk-lignite coal blends, Bioresource Technology 200,
42–47, 2016.
12. Vani, S., Sukumaran, R.K., Savithri, S., Prediction of sugar yields during hydrolysis
of lignocellulosic biomass using artificial neural network modeling, Bioresour.
Technol., 188, 128–135, 2015.
13. Buyukada, M., Co-combustion of peanut hull and coal blends: artificial neural
networks modeling, particle swarm optimization and Monte Carlo Simulation,
Bioresour. Technol., 216, 280–286, 2016.
129
14. Yildiz, Z., Uzun, H., Prediction of gas storage capacities in mental organic
frameworks using artificial neural network, Microporous Mesoporous Mater, 208,
50–54, 2015.
15. Caner, M., Gedik, E., Kecebas, A., Investigation on thermal performance calculation
of two type solar air collectors using artificial neural network, Expert Syst. Appl.,
38, 1668–1674, 2011.
16. Gajic, D., Savic-Gajic, I., Savic, I., Georgieva, O., Gennaro, S., Modelling of
electrical energy consumption in an electric arc furnace using artificial neural
networks, Energy, 108, 132–139 2015.
17. Mazrou, H., Performance improvement of artificial neural networks designed for
safety key parameters prediction in nuclear research reactors, Nucl. Eng. Des., 239,
1901–1910, 2009.
18. Moghaddam M.G., Ghaffari M., Ahmad F.B.H., Rahman M.B.A., Artificial neural
network modeling studies to predict the yield of enzymatic synthesis of betulinic acid
ester Electron. J. Biotechnol., 13, 3–14, 2010.
19. O’Dwyer J.P., Zhu L., Granda C.B., Chang V.S., Holtzapple M.T., Neural network
prediction of biomass digestibility based on structural features, Biotechnol. Prog.,
24, 283–292, 2008.
130
Joanna Styczeń(1), Danuta Barnat-Hunek(2), Arkadiusz Urzędowski(3)
Analiza właściwości fizycznych
hydrofobizowanych lekkich zapraw z dodatkiem
zeolitu
1. Wstęp
Lekką zaprawą nazywana jest mieszanina cementu lub cementowo-wapienna
z dodatkiem składników poprawiających izolację termiczną. Skład zapraw
lekkich zwanych też ciepłochronnymi powstaje poprzez mieszanie tradycyjnych
spoiw, lekkich kruszyw np. ekspandowanego perlitu, spienionych granulek
polistyrenowych, eksfoliowanego wermikulitu, lekkiego spienionego kruszywa
glinowego, dodatków oraz domieszek. Zaprawa ciepłochronna posiada niską
gęstość pozorną oraz niski współczynnik przewodzenia ciepła [1–2]. Niski
współczynnik uzyskiwany jest dzięki lekkim wypełniaczom. Zaprawa w stanie
suchym ma wartość współczynnika przewodzenia ciepła mniejszą niż 0,18
W/(m×K), gęstość pozorną nie większą niż 950 kg/m3, wytrzymałość na ściskanie
większą niż 3 MPa oraz nasiąkliwością wagową nieprzekraczającą 45%. Niska
gęstość lekkich kruszyw zmniejsza wagę zaprawy, jednak obniża również
parametry wytrzymałościowe. Na właściwości cieplne zapraw duży wpływ ma
zastosowanie materiałów porowatych, dobrać należy wiec odpowiedni rodzaj oraz
proporcję kruszywa jak również odpowiednie uzupełniające materiały cementowe
[3–4]. Do podstawowych zalet zapraw ciepłochronnych należą: wysoka
plastyczność, stabilność, paroprzepuszczalnoś, zredukowane mostki termiczne,
znaczna odporność na grzyby oraz algi [2–5].
Z roku na rok rośnie zainteresowanie budownictwem energooszczędnym.
Dzięki dobrze wybranym rozwiązaniom ścian i zastosowanym materiałom,
można znacznie ograniczyć zapotrzebowanie budynku na energię grzewczą.
Z tego powodu wciąż trwają badania mające na celu unowocześnienie materiałów
budowlanych, aby uzyskać jak najlepsze ich właściwości. Testom zostają poddane
kolejne materiały nadające się do zapraw ciepłochronnych. Dopracowuje się
również zaprawy, które takie materiały mogą połączyć, jednoczesne nie
powodując powstania niepotrzebnych mostków cieplnych [3]. Stosuje się perlit
(1)j.styczen@pollub.pl: Instytut Elektroniki i Technik Informacyjnych, Wydział Elektrotechniki
i Informatyki, Politechnika Lubelska (2)d.barnat-hunek@pollub.pl: Katedra Budownictwa Ogólnego, Wydział Budownictwa
i Architektury, Politechnika Lubelska (3)a.urzedowski@pollub.pl: Katedra Podstaw Techniki, Wydział Podstaw Techniki, Politechnika
Lubelska
131
ekspandowany, pucolanowy [6–7], granulat korkowy [8], pył krzemionkowy
i popiół lotny [9], piankę poliuretanowa z recyklingu [10], żużel wielkopiecowy
[11] oraz pumeks [12–13]. Dziki dodatkom z materiałów porowatych zaprawy
takie wykazują się dużo lepszą izolacyjnością cieplną [2]. Materiałem, który
doskonale nadaje się do zapraw ciepłochronnych jest zeolit - naturalny minerał
pochodzenia wulkanicznego.
Zeolity stanowią dużą grupę minerałów glinokrzemianowych. Dzięki swoim
niezwykłym właściwościom znajdują zastosowanie w wielu dziedzinach
przemysłu. Ich szkieletowa struktura pozwala na wykorzystanie ich
w budownictwie [14–15]. Dzięki pustym, kanalikowatym przestrzeniom,
wykazują doskonałe predyspozycje do używania ich w lekkich zaprawach.
Porowata struktura tynków z naturalnym zeolitem stymuluje migrację wody
z nałożonej warstwy tynku, co wpływa na wiązanie i wytrzymałość mechaniczną
[16–17]. Dzięki unikalnej, wydrążonej strukturze zeolity mają dobre właściwości
sorpcyjne [18–19]. Zeolity mogą powodować zwiększoną hydrofilność tynków,
dlatego należałoby zastosować równocześnie dodatek hydrofobowy [20].
Hydrofobizacja zwiększa granicę napięcia powierzchniowego między wodą
a impregnowanym materiałem, tak aby różnica między nimi była jak największa
[2, 21]. Dzięki zmianie kąta zwilżania naczyń włosowatych następuje
odepchnięcie wody od powierzchni materiału, staje się on niezwilżalny
i zabezpieczony przed wnikaniem wody. Cienka warstwa hydrofobowa lekko
pokrywa ściany naczyń włosowatych i nie wypełnia całej objętości porów.
Hydrofobizacja nie zmienia natomiast dyfuzji gazów i pary wodnej, pory
pozostają otwarte. Obecnie na rynku budowlanym można wyróżnić wiele
skutecznych preparatów hydrofobowych, ważne jest jednak dobranie
odpowiedniego środka i sposobu hydrofobizacji, który będzie bezpieczny dla
danego materiału i pomoże go odpowiednio zabezpieczyć. Głębokość penetracji
hydrofobowego preparatu zależy od wielkości porów i kapilar w strukturze
materiału. Równie ważny jest rodzaj i stężenie substancji aktywnej w preparacie.
W pracy użyto preparatów na bazie związków krzemoorganicznych, powszechnie
stosowanych do hydrofobizacji materiałów budowlanych. Silikony są to
polimery, które zawierają dowolny obojętny, syntetyczny związek złożony
z powtarzających się jednostek siloksanu. Jest to łańcuch naprzemiennych atomów
krzemu i atomów tlenu (Si - O - Si), często połączony z węglem (Si - C - Si) [22].
W pracy dokonano analizy porównawczej wpływu hydrofobowych
preparatów na bazie związków krzemoorganicznych na właściwości zapraw
ciepłochronnych z dodatkiem zeolitu. Przeprowadzono badania mrozoodporności
oraz odporności na krystalizację soli.
132
2. Przygotowanie zapraw
2.1. Materiały
Przygotowano skład dwóch mieszanek zapraw ciepłochronnych. Kompozycje
suchych składników zaprawy przedstawiono w Tabeli 1. Receptury oznaczono
następującymi symbolami: M1 – zaprawa bez dodatku hydrofobowego, M2 –
zaprawa z dodatkiem hydrofobowym (hydrofobizacja strukturalna) w postaci
szlamu mineralnego uszczelniającego Ah. Szlam uszczelniający charakteryzuje
się znaczną poprawą wodoszczelność, nasiąkliwością kapilarną – w24 < 0,1
kg/(m2•h0,5), współczynnikiem oporu dyfuzyjnego pary wodnej μ < 200,
wytrzymałością na ściskanie po 28 dniach – ok. 30 N/mm2.
Tabela 4. Składniki zapraw z zeolitem
Material Symbol M1
[%]
M2
[%]
Dodatek Hydrofobowy Ah - 1
Domieszka napowietrzająca Aa 0.2 -
Zeolit - Klinoptylonit
0.5–2.0 mm Zo 67 67
Wapno hydratyzowane Hl 14 14
Cement portlandzki CEM I 32.5 R Cm 19 18
Źródło: opracowanie własne
Część próbek bez dodatku hydrofobowego poddana została hydorfobizacji
powierzchniowej. W tym celu użyte zostały trzy odmienne preparaty
hydrofobowe. W próbkach M1A zastosowano roztwór związków silikonowych
w rozpuszczalniku. Środek ten przeznaczony jest do hydrofobizacji na zewnątrz
budynków: murów, tynków cementowo-wapiennych, porowatych materiałów
budowlanych takich jak: beton, dachówka ceramiczna, cegły ceramiczne, gips,
wapień, piaskowiec drobno- i gruboporowaty, niepolerowany granit i marmur.
Charakterystyczne dane materiału to: wygląd – jednorodna ciecz bezbarwna,
gęstość w 20°C – ok. 0,8 g/ml, lepkość w 20°C – wg kubka Forda nr 4 ok. 11 s.
Próbki M1B zanurzone zostały w wodnej emulsji silikonowej z niewielką
domieszką rozpuszczalnika. Preparat ten stosowany jest jako: dodatek
uszlachetniający w produkcji różnego rodzaju tynków fasadowych, spoiwo
w produkcji farb, środek do powierzchniowej hydrofobizacji porowatych
materiałów budowlanych ( tynki cementowo-wapienne i akrylowe, beton, bloczki
gipsowe, dachówki, cegła silikatowa). Emulsja trwale chroni przed wilgocią,
zabezpiecza kolorowe powłoki fasadowe przed płowieniem. Charakterystyczne
dane materiału to: wygląd – jednorodna ciecz o barwie mlecznobiałej,
rozcieńczanie – wodą (do impregnacji powierzchniowej), gęstość w 20°C – ok.
1,00 g/ml, zawartość żywicy – ok. 25%
133
W próbkach M1C zastosowano hydrofobizacje powierzchniową z użyciem
reaktywnego, oligomerycznego roztworu siloksanowego. Charakterystyka:
wygląd – bezbarwny płyn; zawartość siloksanów – ok. 7 % wag.; nośnik –
węglowodory alifatyczne o nikłym zapachu; gęstość – ok. 0,80 g/cm3. Preparat
ten zmniejsza wnikanie wody i substancji szkodliwych, ogranicza zagrożenie
atakiem mikroflory mineralnej powierzchni materiału budowlanego, zwiększa
odporność na działanie mrozu i soli rozmrażającej.
W zaprawach zastosowany również został zeolit o uziarnieniu
0.00–2.00mm. Jest to naturalny minerał pochodzenia wulkanicznego. Skała
drobnoziarnista o barwie szarej charakteryzująca się zbitą teksturą, słabo zwięzłą,
bezładną, miejscami fluidalną. W krystalicznej strukturze zeolitów występują
puste przestrzenie oraz kanały. Zeolit cechuje się szerokim zasobem
specyficznych cech fizykochemicznych, takich jak: wysoka pojemność sorpcyjna
i jonowymienna, zdolność molekularno-sitowa, aktywność katalityczna
(szczególnie w formie wodorowej) oraz termostabilność strukturalna
w temperaturach do 700–750°C. Zeolity mają właściwości, dzięki którym
zapewniają wysoką porowatość oraz dyfuzyjność zaprawy. Porowata struktura
mieszanek z naturalnym zeolitem stymuluje migrację wody co wpływa na
wiązanie i wytrzymałość mechaniczną. Dzięki unikalnej, wydrążonej strukturze
zeolity mają dobre właściwości sorpcyjne [23–24].
Wapno hydratyzowane użyte w badaniach spełniało normy i charakteryzowało
się gęstością pozorną 390–410 kg / m3. Skład chemiczny wapna: CaO – 95,5%,
MgO – 0,5%, CO2 – 2,1%, SO3 – 0,1%, woda wolna – 1,5% [25].
Zastosowany cement portlandzki CEM I 32,5R, charakteryzował się:
powierzchnia właściwa 3985 cm2/g, początek czasu wiązania 75 min,
wytrzymałość na ściskanie [MPa] po 2 dniach> 10, po 28 dniach> 32,5 <52.5,
zmiana objętości [mm] –max10. CEM I 32,5R był testowany zgodnie z polskimi
normami PN EN 197-1: 2012 „Cement - Część 1: Skład, wymagania i kryteria
zgodności dotyczące cementów powszechnego użytku”, oraz PN-EN 197–2:2002
– “Cement – Część 2: Ocena zgodności” [26–27].
W mieszance M2 zastosowano dodatkowo złożony plastyfikator: plastyfikację
i napowietrzanie. Opóźnia on czas wiązania i jest zalecany do zapraw i betonu
wodoodpornego oraz mrozoodpornego. Dodatkiem napowietrzającym był wodny
roztwór soli alifatycznych amin i detergentów o gęstości 1,12–1,15 g/cm3
w 20°C. Umożliwia on zmniejszenie ilości wody potrzebnej do wytworzenia
mieszaniny o około 10%. Znacznie zwiększa ostateczną wytrzymałość,
napowietrza oraz poprawia urabialność.
2.2. Przygotowanie próbek
Przygotowano próbki o wymiarach 40 × 40 × 160 mm na podstawie normy
PN-EN 196–7: 2008. Mieszanki zapraw przygotowano w laboratorium.
134
Początkowo połączono ze sobą suche składniki, a następnie dodana została woda.
Mieszanie odbywało się w mieszarce automatycznej, gdzie wszystkie etapy
mieszania dokonywane były samoczynnie. Łączny czas mieszania – 4 minuty.
Beleczki uformowano bezpośrednio po przygotowaniu zaprawy. Zastosowana do
tego celu została forma trójdzielna, uprzednio skręcona oraz posmarowana
środkiem antyadhezyjnym, w celu ułatwienia rozformowania. Forma wraz
z nakładką zamocowana została na wstrząsarce. Do każdej przegrody formy,
odmierzono po 300 g zaprawy, po czym zagęszczono ją 60 wstrząsami. Następnie
nałożona została druga warstwa zaprawy, w takich samych ilościach. Całość
zagęszczono kolejnymi 60 wstrząsami. Po usunięciu nakładki, nadmiar zaprawy
usunięty został za pomocą linijki zgarniającej. Formy z zaprawą po 24h
rozformowano i oznaczono. Próbki przechowywano w komorze klimatycznej
w temperaturze 23,5 ° C przy wilgotności względnej 73,5% przez 21 dni [28].
Próbki M1 przed hydrofobizacją powierzchniową zostały wysuszone do stałej
masy. Próbki hydrofobizowano przez zanurzenie w hydrofobowych preparatach
przez 10 sekund. Następnie wszystkie próbki zostały poddane 14 dniowemu
okresowi sezonowania w warunkach laboratoryjnych w celu rozpoczęcia
hydrolizy polikondensacji.
2.3. Metody
Określona została gęstość objętościowa stwardniałych zapraw zgodnie
z normą PN-EN 1015–10. Gęstość wysuszonej stwardniałej zaprawy została
określona jako iloraz jej masy w stanie wysuszonym w suszarce i objętości, którą
próbka zajmuje w stanie nasyconym podczas zanurzenia w wodzie. Gęstość
oznaczono na trzech próbkach dla każdego rodzaju zaprawy. Zbadane zostały
próbki normowe o regularnym kształcie 40x40x160mm. Otrzymane wyniki
przedstawiono w Tabeli 2 [29].
Do wyznaczenia gęstości właściwej użyto metody piknometrycznej.
Przeprowadzono badanie dwóch próbek dla każdego rodzaju zaprawy (wersji
podstawowej i z dodatkiem hydrofobowym). Materiał do badań uprzednio został
wysuszony w suszarce do stałej masy a następnie rozdrobniony w młynku
kulowym [26].
Szczelność, jest to właściwość fizyczna, określająca jaką część objętości badanego
materiału zajmuje materiał bez porów. Określony został wskaźnik szczelności jako
stosunek gęstości pozornej do gęstości właściwej, wg poniższego wzoru:
(1)
gdzie:
s – współczynnik szczelności badanego materiału [%]
ρp – gęstość pozorna [g/cm3]
ρ – gęstość właściwa [g/cm3].
%100*
ps
135
Wykonano również badania porowatości całkowita stwardniałych zapraw na
podstawie normy PN-EN 1936:2010 [30]. Określono współczynnik absorpcji
wody spowodowanej podciąganiem kapilarnym stwardniałej zaprawy wg. PN–
EN 1015–18 „Metody badań zapraw do murów – Część 18: Określenie
współczynnika absorpcji wody spowodowanej podciąganiem kapilarnym
stwardniałej zaprawy" [31]. Zbadano trzy sposoby hydrofobizacji
powierzchniowej (trzema różnymi środkami) oraz zaprawę z dodatkiem
hydrofobowym. Dla porównania sprawdzono również nasiąkliwość dla próbki
niezabezpieczonej żadnymi środkami. Próbki zostały przed badaniem wysuszone
do stałej masy, zważone, a następnie umieszczone w pojemniku z wodą, tak, aby
całe zostały przykryte. Pomiar nasiąkliwości wagowej przeprowadzono dla
czterech okresów: po 1, 3, 7 oraz 14 dniach. Wyniki badań przedstawiono na
Wykresie 1.
Dyfuzja pary wodnej jest to ruch cząsteczek zmierzający do wyrównania
stężenia pary. Aby sprawdzić, czy dyfuzja nie zostaje zakłócona po
hydrofobizacji, wykonane zostało badanie paroprzepuszczalności. W tym celu
próbki mokre (po badaniu nasiąkliwości) zostały osuszone, zważone, a następnie
pozostawione w warunkach laboratoryjnych. Woda mogła swobodnie
odparowywać. Ubytek masy kontrolowano, poprzez zważenie próbek po upływie
1, 3, 7 i 14 dni.
3. Rezultaty
Własności fizyczne i mechaniczne zapraw termoizolacyjnych przedstawione
zostały w Tabeli 2.
Tabela 2. Fizyczne i mechaniczne właściwości zapraw ciepłochronnych
Typ zaprawy/
Średnia
Gęstość
pozorna
(kg/m3)
Gęstość
(kg/m3)
Całkowita
porowatosć
(%)
Wytrzymałość na
ściskanie
(MPa)
M1 Mean 1.08 2.48 56.43 3.41
M2 Mean 1.28 2.47 48.07 10.05
Źródło: opracowanie własne
Wytrzymałość na ściskanie zaprawy z dodatkiem hydrofobowym jest prawie
trzy razy wyższa niż w przypadku składu podstawowego. Dodatek hydrofobowy
znacznie poprawił parametry wytrzymałościowe. Gęstość pozorna próbek
z dodatkiem hydrofobowym była większa o 18.5% od gęstości próbek bez
hydrofobizacji. Gęstość właściwa była niemal identyczna. Porowatość całkowita
w przypadku próbek z dodatkiem roztworu siloksanowego była mniejsza o 14.8%.
136
Dodatek hydrofobowy zmniejszył porowatość materiału, co tłumaczy w/w wzrost
wytrzymałości.
Nasiąkliwość została zbadana dla zapraw bez oraz z dodatkiem
hydrofobowym. Porównano również zaprawy zabezpieczone powierzchniowo
materiałami hydrofobowymi. Próbki badano po 1 oraz 14 dniach. Wyniki zostały
przedstawione na Wykresie 1.
Wykres 1. Nasiąkliwość badanych zapraw ciepłochronnych
Źródło: Opracowanie własne
Próbki pozbawione hydrofobizacji MI już po upływie 1 doby, osiągnęły
wysoki poziom nasiąkliwości wagowej. Przez całość badania nieznacznie się
zwiększał i utrzymywał się na poziomie ok. 60%. Podobne zachowanie możemy
zaobserwować w przypadku zaprawy z dodatkiem hydrofobowym MII. Po
pierwszym dniu nasiąkliwość wynosiła 37,6%, a potem utrzymywał wysoki
poziom nasiąkliwości, dążący do 40%. Obliczona skuteczność hydrofobizacji
utrzymywała się tu na stałym poziomie 35%. W przypadku pozostałych
preparatów, skuteczność bardzo szybko zmniejszała się wraz z upływem czasu.
Zaprawy poddane hydrofobizacji powierzchniowej po pierwszym dniu uzyskały
nasiąkliwość 5–6%. Nasiąkliwość ta jednak z biegiem czasu zwiększała się,
dochodząc do 56,2%.
Środki wykorzystane w próbkach MIA oraz MIC działały podobnie, na
początku bardzo dobrze zabezpieczając, potem stale tracąc skuteczność. Przy
czym środek użyty do zabezpieczenia próbek MIC był o 7% lepszy od
pozostałych. W przypadku preparatu MIB przez pierwsze 7 dni osiągał najlepsze
5,7
5,5
6,4
37,6
57,4
48,8
56,2
50,9
39,1
61
0 10 20 30 40 50 60 70
MI A
MI B
MI C
MII
MI
Nasiąkliwość (%)
14 dni 1 dzień
137
wyniki jeżeli chodzi o skuteczność, jednakże po 14 dniach jego nasiąkliwość
bardzo wzrosła, stała się wyższa niż w przypadku użycia innych środków,
zbliżając się do poziomu nasiąkliwości próbek niezhydrofobizowanych.
Aby sprawdzić, czy dyfuzja pary wodnej nie została zakłócona po
hydrofobizacji, wykonane zostało badanie paroprzepuszczalności. Porównano
wyniki po 1 orz 14 dniach. Wyniki przedstawiono na Wykresie 2.
Wykres 2. Zdolność dyfuzji pary wodnej badanych zapraw ciepłochronnych
Źródło: Opracowanie własne
Hydrofobizacja nie zakłóca dyfuzji pary wodnej, a nawet w pewnym stopniu
ją przyśpiesza. W każdym z preparatów ubytek wody ze struktury przebiegał
podobnie co świadczy o tym iż powłoka hydrofobowa jest w pełni przepuszczalna
dla gazów i pary wodnej.
Po 14 dniach badania spadek wilgotności w próbce bez zabezpieczenia
wynosił 38,5%. W przypadku próbek zabezpieczonych powierzchniowo ta
wartość również oscylowała wokół 40%. Dla próbek MIB zabezpieczonych
preparatem na bazie emulsji silikatowej z niewielkim dodatkiem rozpuszczalnika,
wartość ta była nawet większa, próbki zabezpieczone tym środkiem schły szybciej
niż próbka bez zabezpieczenia.
Dla próbek MII z dodatkiem hydrofobowym wilgotność masowa zmalała
w ciągu 14 dni o 26,5%, czyli mniej niż we wcześniej opisanych przypadkach.
Jednak wilgotność początkowa tych próbek była dużo niższa.
Nie udało się przeprowadzić badania mrozoodporności przy 25 cyklach
zamrażania i odmrażania gdyż próbki uległy zniszczeniu podczas cyklicznego
zamrażania i odmrażania. Poniżej przedstawiono po ilu cyklach próbki zostały
zniszczone.
7
7,5
10,7
6,1
3,4
36,9
44,7
40,5
26,5
38,5
0 10 20 30 40 50
MI A
MI B
MI C
MII
MI
Dyfuzja pary wodnej%
po 14 dniu po 1 dniu
138
Tabela 3. Średni procentowy ubytek / przyrost masy zapraw ciepłochronnych
Typ badania
M1A M1B M1C MII MI
Liczba cykli po których próbki uległy zniszczeniu
Mrozoodporność 9 14 7 3 1
Krystalizacja
soli 3 9 3 4 2
Źródło: opracowanie własne
Rys. 1. Próbki zapraw ciepłochronnych z zeolitem po cyklach mrożenia – odmrażania
Próbki MI bez zabezpieczenia okazały się najsłabsze. Od razu nasiąknęły wodą
i już po pierwszym cyklu zamrażania doszło do ich zniszczenia. Podobna sytuacja
występuje przy zaprawie z dodatkiem hydrofobowym MII – próbki wytrzymały
jedynie trzy cykle badania. Bardziej wytrzymałe okazały się próbki zabezpieczone
środkami hydrofobizującymi powierzchniowo. Próbki MIB zabezpieczone
preparatem na bazie emulsji silikatowej z niewielką domieszką rozpuszczalnika
wytrzymały największą liczbę cykli zamrażania – rozmrażania.
Rys. 2. Próbki zapraw ciepłochronnych po cyklach krystalizacji soli
Podobnie jak w badaniu mrozoodporności, próbki nie wytrzymały założonej
liczby cykli i uległy szybszemu zniszczeniu. Najtrwalsze okazały się próbki MIB
zabezpieczone preparatem na bazie emulsji silikatowej z niewielką domieszką
rozpuszczalnika. Próbki porównawcze, bez zabezpieczenia hydrofobowego
wytrzymały najmniejszą ilość cykli krystalizacji soli. Mimo, iż żadne z próbek nie
przeszły testu, stwierdzić można iż preparaty hydrofobowe, poprawiają odporność
na krystalizację soli.
139
4. Wnioski
Artykuł analizuje przydatności zeolitu, jako dodatku do zapraw ciepłochronnych
oraz porównuje różne sposobów zabezpieczenia takich zapraw przed wodą. Poddane
badaniom zostały próbki zapraw bez dodatku hydrofobowego MI, z dodatkiem
hydrofobowym MII oraz próbki powierzchniowo zabezpieczone preparatami
hydrofobowymi MIA, MIB, MIC.
Na podstawie przeprowadzonych badań wyciągnąć można następujące wnioski
końcowe:
Badania wytrzymałościowe wykazały, że dodatek zeolitu działa niekorzystnie na
wytrzymałość próbek. Badana zaprawa była bardzo krucha i podatna na
zniszczenie.
Wytrzymałość na ściskanie zaprawy MII z dodatkiem hydrofobowym była prawie
3 razy wyższa niż w przypadku składu podstawowego. Dodatek hydrofobowy na
bazie szlamu mineralnego uszczelniającego znacznie poprawia parametry
wytrzymałościowe.
Próbki z dodatkiem hydrofobowym miały znaczne zwiększenie gęstość pozorną
w porównaniu z zaprawą bez dodatku hydrofobowego. Gęstość właściwa
natomiast była niemal identyczna. Dodatek hydrofobowy spowodował
zmniejszenie porowatości materiału, a tym samym zwiększenie szczelności oraz
wytrzymałości materialu.
Porowatość materiału była bardzo duża, dla zaprawy o składzie podstawowym
wynosiła 56.43%, co jest spowodowane dodatkiem zeolitu. Tłumaczy to tym
samym bardzo wysoką nasiąkliwość materiału.
Sposób zabezpieczenia materiału poprzez hydrofobizację strukturalną
i powierzchniową jest odmienny. Próbki MII z dodatkiem hydrofobowym
nasiąkają szybko wodą już w pierwszych godzinach, tak ja materiał
niezabezpieczony. Jednak nasiąkliwość ta nie wzrasta znacznie wraz z upływem
czasu (nasiąkliwość po pierwszym dniu – 37,6% po 14 dniach – 39,1%). Jeżeli
chodzi o hydrofobizację powierzchniową to daje ona zdecydowanie lepsze
rezultaty ale tylko w początkowej fazie badania. Po pierwszym dniu nasiąkliwości
wahała się w granicach 7%, natomiast po 14 dniach była bliska nasiąkliwości
próbki niezabezpieczonej.
Badania wykazały, że hydrofobizacja nie zakłóca w żaden sposób dyfuzji pary
wodnej. Próbki MII, MIA, MIB, MIC schły w podobnym tempie co próbki
porównawcze, a nawet minimalnie szybciej.
Badanie mrozoodporności oraz odporności na korozyjne działanie soli wykazało,
że zaprawa ciepłochronna na bazie zeolitu jest bardzo nieodporna na dane
niszczące czynniki. Próbki bardzo szybko uległy zniszczeniu. Jest to
najprawdopodobniej spowodowane wysoką nasiąkliwością materiału, co bardzo
zmniejsza odporność na niskie temperatury oraz sól. Badanie jednak wykazało iż
próbki MII z dodatkiem hydrofobowym oraz próbki MIA,B,C gdzie zastosowana
140
została hydrofobizacja powierzchniowa wykazywały lepsza odporność na
niszczące działanie mrozu oraz soli. Najbardziej odpornymi zaprawami okazały
się zaprawy MII z dodatkiem hydrofobowym.
Podsumowując dodatek zeolitu do zapraw ciepłochronnych wpływa negatywnie
na parametry wytrzymałościowe oraz przyczynia się do wysokiej nasiąkliwości
materiału. Należy to brać pod uwagę, gdy planuje się wykorzystanie zapraw
ciepłochronnych i zadbać o odpowiednie zabezpieczenie przed działaniem wody.
Hydrofobizacja przyczynia się do polepszenia właściwości materiału.
Zabezpiecza przed wnikaniem wody, nie blokują przepływu pary wodnej. Do
zastosowania w budownictwie mieszkaniowym lepszym rozwiązaniem może okazać
się hydrofobizacja powierzchniowa, lecz elementy zabezpieczone nie mogą być
wystawione na stałe działanie wody.
Literatura
1. Khan M.I., Factors affecting the thermal properties of concrete and applicability of
its prediction models, Build. Environ. 37, 607–614, 2002.
2. Barnat-Hunek D., Smarzewski P., Analysis of the physical properties of hydrophobised
lightweight-aggregate mortars, Composites Theory and Practice, 2, 2016.
3. Szymański E., Murarstwo i tynkarstwo, WSiP, 2010.
4. Barnat-Hunek D., Smarzewski P., Szafraniec M., Hydrofobizowane zaprawy
ciepłochronne z dodatkiem perlitu i keramzytu, IZOLACJE, 2, 2015.
5. Topçu I., Işikdaǧ B., Effect of expanded perlite aggregate on the properties of lightweight
concrete, Journal of Materials Processing Technology, 204(1–3), 34–38, 2008.
6. Kramar D., Bindiganavile V., Impact response of lightweight mortars containing
expanded perlite, Cement and Concrete Composites, 37(1), 205–214, 2013.
7. Torres M., García-Ruiz P., Lightweight pozzolanic materials used in mortars:
Evaluation of their influence on density, mechanical strength and water absorption,
Cement and Concrete Composites, 31(2), 114–119, 2009.
8. Carvalho R., Teixeira-Dias F., Varum H., Cyclic behaviour of a lightweight mortar
with cork granulate composite, Composite Structures, 95, 748–755, 2013.
9. Demirboğa R., Gül R., The effects of expanded perlite aggregate, silica fume and fly
ash on the thermal conductivity of lightweight concrete, Cement and Concrete
Research, 33, 723–727, 2003.
10. Junco C., Gadea J., Rodríguez A., Gutiérrez-González S., Calderón V., Durability of
lightweight masonry mortars made with white recycled polyurethane foam, Cement
and Concrete Composites, 34, 1174–1179, 2012.
11. Hadj-Sadok A., Kenai S., Courard L. Darimont A., Microstructure and durability of
mortars modified with medium active blast furnace slag, Construction and Building
Materials, 25(2), 1018–1025, 2012.
12. Habib U., Remzi S., Ramazan D., Rüstem G., The effects of different cement dosages,
slumps, and pumice aggregate ratios on the thermal conductivity and density of
concrete, Cement and Concrete Research, (34) 845–848, 2004.
141
13. Degirmenci N., Yilmaz A., Use of pumice fine aggregate as an alternative to
standard sand in production of lightweight cement mortar, Indian Journal Of
Engineering And Materials Sciences 18(1), 61–68, 2011.
14. J. Lanas, J.I. Alvarez, Masonry repair lime-based mortars: factors affecting the
mechanical behavior, Cem. Concr. Res. (33), 1867–1876, 2003.
15. Barnat-Hunek D., Klimek B., Franus W., Wpływ dodatku zeolitu na właściwości
fizykomechaniczne tynków renowacyjnych, Izolacje, 9, 2014.
16. Markiv G.T., Sobol K., Franus M., Franus W., Mechanical and durability properties of
concretes incorporating natural zeolite, Arch. Civ. Mech. Eng., 16, 554–562, 2016.
17. Barnat-Hunek D., Siddique R, Klimek B., Franus M., The use of zeolite, lightweight
aggregate and boiler slag in restoration Renders, Construction and Building
Materials, 142, 162–174, 2017.
18. L. Bandura, R. Panek, M. Rotko, W. Franus, Synthetic zeolites from fly ash for an
effective trapping of BTX in gas stream, Microporous Mesoporous Mater, 223, 1–9, 2016.
19. G. Sezemanas, M. Sinica, P. Zacharcenko, N. Pivenj, D. Mikulskis, M. Kligys,
Influence of Zeolite Additive on the Properties of Plaster Used for External Walls
from Autoclaved Aerated Concrete, Materials Science, 19(2), 222–229, 2013.
20. T. Perraki, G. Kakali, F. Kontoleon, The Effect of Natural Zeolites on the Early Hydration
of Portland Cement, Microporous and Mesoporous Materials, 61, 205–212, 2003.
21. Torres M., García-Ruiz P., Lightweight pozzolanic materials used in mortars:
Evaluation of their influence on density, mechanical strength and water absorption,
Cement and Concrete Composites, 31(2), 114–119 2009.
22. Barnat-Hunek D., Smarzewski P., Szafraniec M., Hydrofobizowane zaprawy
ciepłochronne z dodatkiem perlitu i keramzytu, Izolacje, 2, 30-35, 2015.
23. Dzigita Nagrockiene, Giedrius Girskas, Research into the properties of concrete
modified with natural zeolite addition, Construction and Building Materials, 113,
964–969, 2016.
24. Klimek B., Barnat-Hunek D., Franus M., Wpływ dodatku zeolitu na właściwości
tynków do murów o wysokim stopniu zasolenia, Materiały budowlane, 519, 2015.
25. PN-EN 459-1:2012, Wapno budowlane – Część 1: Definicje, wymagania i kryteria
zgodności
26. PN EN 197–1: 2012 „Cement – Część 1: Skład, wymagania i kryteria zgodności
dotyczące cementów powszechnego użytku”,
27. PN-EN 197–2:2002 –“Cement - Część 2: Ocena zgodności”
28. PN-EN 196–7: 2008, Metody badania cementu – Część 7: Sposoby pobierania
i przygotowania próbek cementu
29. PN-EN 1015–10:2010 Metody badań zapraw do murów – Część 10: Określenie
gęstości wysuszonej stwardniałej zaprawy
30. PN-EN 1936:2010 Metody badań kamienia naturalnego – Oznaczanie gęstości
i gęstości objętościowej oraz całkowitej i otwartej porowatości
31. PN-EN 1015–18 „Metody badań zapraw do murów – Część 18: Określenie
współczynnika absorpcji wody spowodowanej podciąganiem kapilarnym
stwardniałej zaprawy"
142
Rafał Kwoka(1), Janusz Kozak(2), Michał Majka(3)
Badania rezystancji połączeń taśm HTS 2G
stosowanych w nadprzewodnikowych
ogranicznikach prądów zwarciowych
1. Wstęp
Szczególne właściwości nadprzewodników umożliwiają budowę urządzeń
elektrycznych o parametrach nieosiągalnych przy stosowaniu materiałów
konwencjonalnych. Nadprzewodniki wykazują całkowity zanik rezystywności
jedynie w warunkach, gdy ich parametry tj. gęstość prądu krytycznego Jc,
temperatura krytyczna Tc i krytyczne natężenie pola magnetycznego Hc nie
przekraczają wartości krytycznych. Przekroczenie wartości krytycznej
któregokolwiek parametru powoduje gwałtowne przejście ze stanu
nadprzewodzenia do stanu rezystywnego. Właściwości gwałtownego
(skokowego) wzrostu rezystancji elementu nadprzewodnikowego przy
przekroczeniu jego wartości krytycznej prądu umożliwia budowę
nadprzewodnikowych ograniczników prądów zwarciowych.
Na przestrzeni ostatnich kilku lat nastąpił ogromny postęp w konstrukcji
i technologii produkcji taśm nadprzewodnikowych drugiej generacji 2G HTS
bazujących na nadprzewodniku wysokotemperaturowym (RE)BCO. Taśmy
nadprzewodnikowe drugiej generacji mogą zostać zastosowane w wielu
urządzeniach elektrycznych takich jak: elektromagnesy nadprzewodnikowe,
nadprzewodnikowe ograniczniki prądu zwarciowego (SFCL), silniki elektryczne
czy też generatory. Obecnie w wielu krajach prowadzone są zaawansowane
badania z zakresu technologii produkcji taśm oraz ich maksymalnego
wykorzystania w urządzeniach [1–4].
W nadprzewodnikowych ogranicznikach prądu zwarciowego pracujących
w temperaturze kriogenicznej wymagane jest wykonanie odpowiednich połączeń
taśm nadprzewodnikowych HTS do przepustów prądowych i wewnątrz uzwojenia
pomiędzy taśmami HTS.
(1)rafal.kwoka@pollub.edu.pl, Instytut Elektrotechniki i Elektrotechnologii, Wydział
Elektrotechniki i Informatyki, Politechnika Lubelska (2) j.kozak@iel.waw.pl, Pracownia Technologii Nadprzewodnikowych, Zakład Wielkich Mocy,
Instytut Elektrotechniki (3) m.majka@pollub.pl, Instytut Elektrotechniki i Elektrotechnologii, Wydział Elektrotechniki
i Informatyki, Politechnika Lubelska
143
W pracy opisano sposób przygotowania lutowanych próbek taśm HTS 2G
(SF12050) do badań. Przeprowadzono pomiary rezystancji połączeń taśm
nadprzewodnikowych HTS 2G oraz zaprezentowano otrzymane wyniki.
2. Taśmy nadprzewodnikowe HTS 2G
Taśmy nadprzewodnikowe drugiej generacji wykonane są w technologii
cienkowarstwowej. Składają się z szeregu warstw spośród których można
wyróżnić: warstwę podłoża, warstwę stabilizatora, warstwy buforowe i warstwę
nadprzewodnika.
W procesie produkcji taśm nadprzewodnikowych drugiej generacji 2G,
na podłoże metalowe nanoszone są warstwy buforowe, a następnie warstwa
odpowiedniego prekursora nadprzewodnika, z którego po obróbce cieplnej
w atmosferze tlenowej tworzy się nadprzewodnik (rysunek 1). Na warstwę
nadprzewodnika nanoszona jest warstwa srebra, a następnie taśma jest cięta
na węższe taśmy oraz laminowana w zależności od typu taśmy [5–6, 9, 11].
Rys. 1. Proces produkcji taśmy nadprzewodnikowej drugiej generacji
Źródło: Opracowanie własne przy wykorzystaniu materiałów informacyjnych firmy American
Superconductor: http://www.amsc.com
Strukturę taśmy nadprzewodnikowej drugiej generacji 2G produkcji
SuperPower przedstawiano na rysunku 2. Obecnie produkowane są taśmy
nadprzewodnikowe HTS 2G bez stabilizatora i ze stabilizatorem miedzianym
o szerokościach od 2 mm do 12 mm, grubościach podłoża 50 μm
i 100 μm z warstwą srebra od 2 μm do 4,5 μm [6, 10].
144
Rys. 2. Struktura taśmy nadprzewodnikowej HTS 2G bez stabilizatora miedzianego
Źródło: Opracowanie własne przy wykorzystaniu materiałów informacyjnych firmy
SuperPower: http://www.superpower-inc.com
Podstawowe parametry taśm nadprzewodnikowych HTS 2G typu SF
produkowanych przez firmę SuperPower przedstawiono w tabeli 1.
Tabela 5. Parametry ogólne taśm SF12050 i SF12100
Taśma HTS 2G SF12050 SF12100
Szerokość 12 mm 12 mm
Długość (odcinkowa) Do 600 m Do 300 m
Całkowita grubość
taśmy 55 µm 105 µm
Grubość warstwy srebra 1 – 4,5 µm 1 – 4,5 µm
Grubość podłoża 50 µm 100 µm
Granica plastyczności 1200 MPa 650 MPa
Minimalna średnica
gięcia 11 mm 25 mm
Materiał podłoża C276 C276
Prąd krytyczny IC (77,4 K) > 300 A > 300 A
Temperatura krytyczna
TC ~92 K ~92 K
Źródło: Opracowanie własne przy wykorzystaniu materiałów informacyjnych firmy
SuperPower: http://www.superpower-inc.com
2.1. Zastosowania taśm HTS 2G
Taśmy nadprzewodnikowe HTS 2G są wykorzystywane w takich urządzenia
w których wymienia się tradycyjne przewodniki na odpowiedniki
nadprzewodzące. Zaliczamy do nich: kable, transformatory czy silniki oraz
urządzenia, które nie maja odpowiedników w postaci konwencjonalnych
145
przewodników. Drugą grupą urządzeń, w których taśmy nadprzewodnikowe HTS
2G znajdują zastosowanie to m.in.: elektromagnesy nadprzewodnikowe,
nadprzewodnikowe ograniczniki prądu zwarciowego SFCL, generatory [2, 4–5].
Wszystkie rodzaje taśm HTS 2G ze stabilizatorem miedzianym
i bez stabilizatora miedzianego dostępne są o szerokościach 2 mm (rysunek 3),
3 mm, 4 mm (rysunek 4), 6 mm i 12 mm (rysunek 5).
Rys. 3. Taśmy nadprzewodnikowe HTS 2G firmy SuperPower bez stabilizatora
miedzianego SF2050 o szerokości 2mm
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
Rys. 4. Taśmy nadprzewodnikowe HTS 2G firmy SuperPower o szerokości 4mm
a) bez stabilizatora miedzianego SF4050, b) ze stabilizatorem miedzianym SCS4050
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
Rys. 5. Taśmy nadprzewodnikowe HTS 2G firmy SuperPower bez stabilizatora
miedzianego SF12050-AP i SF 12100-CF
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
146
3. Lutowanie taśm nadprzewodnikowych
Łączenie taśm nadprzewodnikowych jest niezbędną czynnością do wykonania
w każdym urządzeniu nadprzewodnikowym. W nadprzewodnikowych
ogranicznikach prądów zwarciowych konieczne jest wykonanie połączenia taśmy
nadprzewodnikowej z miedzianymi przepustami prądowymi, bardzo często
zachodzi również konieczność wykonania połączenia lutowanego o niskiej
rezystancji między cewkami występującymi w urządzeniu. Jakość wykonanych
połączeń taśm jest bardzo istotna dla poprawnego funkcjonowania urządzenia.
W niepoprawnie wykonanym połączeniu lutowanym występują stałe straty
Joule’a, które mogą spowodować lokalne podgrzanie nadprzewodnika powyżej
jego temperatury krytycznej, wyjście ze stanu nadprzewodzenia, co z kolei może
doprowadzić do wydzielenia się dużej energii w tym miejscu i trwałe uszkodzenie
taśmy nadprzewodnikowej. Wadliwe połączenie taśmy HTS z miedzianym
przepustem prądowym może być przyczyną awarii całego urządzenia.
Występowanie strat na połączeniach lutowanych w urządzeniu nadprzewodnikowym
powoduje również konieczność zastosowania wydajniejszego układu chłodzenia.
Rys. 6. Przygotowanie elementów, miedzianych końcówek i końców uzwojeń
nadprzewodnikowego ogranicznika prądu zwarciowego do lutowania
Źródło: Opracowanie własne
147
Rys. 7. Lutowanie końcówek dwóch uzwojeń nadprzewodnikowego ogranicznika prądu
zwarciowego typu rezystancyjnego
Źródło: Opracowanie własne
Przedstawiony na rysunku 7 nadprzewodnikowy ogranicznik prądu
zwarciowego typu rezystancyjnego z uzwojeniami przeciwsobnymi został
wykonany z taśmy nadprzewodnikowej drugiej generacji SF4050 firmy
SuperPower. W ograniczniku konieczne było wykonanie lutowanego połączenia
dwóch uzwojeń HTS miedzy sobą oraz dwóch połączeń lutowanych taśmy HTS
z miedzianymi końcówkami. Na rysunku 6 przedstawiono przygotowane
miedziane końcówki pokryte pastą lutowniczą przed procesem lutowania
z końcówkami uzwojeń nadprzewodnikowych ogranicznika. Rysunek 7
przedstawia proces lutowania uzwojeń nadprzewodnikowego ogranicznika prądu
zwarciowego typu rezystancyjnego z wykorzystaniem stacji lutowniczej
i stopu Sn62Pb36Ag2.
W procesie łączenia taśm nadprzewodnikowych HTS drugiej generacji 2G
wykorzystywane są odpowiednie lutownice i stopy do lutowania. Taśmy
nadprzewodnikowe drugiej generacji 2G, należy łączyć przez lutowanie zgodnie
z wytycznymi i zaleceniami producenta taśm. Producenci taśm określają
maksymalną temperaturę podczas lutowania, dopuszczalny czas lutowania,
minimalną zakładkę w przypadku łączenia dwóch odcinków taśmy oraz
minimalny promień gięcia taśmy [7–10]. Niezastosowanie się do zaleceń
producentów taśm może prowadzić do degradacji taśmy nadprzewodnikowej,
zmniejszenia wartości prądu krytycznego taśmy nadprzewodnikowej w miejscu
połączenia, a nawet spowodować trwałe jej uszkodzenie.
Producent taśm firma SuperPower oferuje taśmy nadprzewodnikowe ze
stabilizatorem miedzianym i bez stabilizatora miedzianego o szerokościach
2 mm, 3 mm, 4 mm, 6 mm i 12 mm. Producent zaleca, aby maksymalna
temperatura podczas lutowania taśm nie przekraczała 240 °C, a do wykonania
148
prawidłowego połączenia o małej rezystancji zaleca zakładkę o długości od
25 mm do 200 mm [10]. Przekroczenie maksymalnej temperatury lutowania
taśmy nadprzewodnikowej podanej przez producenta najczęściej powoduje
nieodwracalne uszkodzenie cienkiej warstwy srebra pokrywającej taśmę
nadprzewodnikową. Lutowanie taśm nadprzewodnikowych musi być
wykonywane z pełną kontrolą temperatury. Podczas lutowania należy używać
możliwie najniższej temperatury lutowania i możliwie najkrótszego czasu do
wykonania prawidłowego połączenia lutowanego. Ze względu na punktowe
podgrzewanie taśmy nadprzewodnikowej podczas lutowania oraz brak
precyzyjnej kontroli temperatury nie zalecane jest lutowanie taśmy
nadprzewodnikowej przy użyciu standardowej lutownicy transformatorowej czy
gazowej.
Rys. 8. Stacja lutująca taśm nadprzewodnikowych
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
Na rysunku 8 przedstawiono zaprojektowaną i wykonaną w Pracowni
Technologii Nadprzewodnikowych Instytutu Elektrotechniki stację lutującą,
służącą do wykonywania połączeń lutowanych taśm nadprzewodnikowych
pierwszej i drugiej generacji, umożliwia również wykonywanie połączeń
lutowanych taśmy nadprzewodnikowej z miedzianymi doprowadzeniami
prądowymi. Stacja lutująca składa się z lutownicy oraz stacji bazowej
z regulatorem temperatury. Lutownica składa się z dwóch aluminiowych bloków
grzewczych z umieszczonymi wewnątrz grzałkami ceramicznymi o mocy
100 W. Pomiar temperatury bloków grzewczych wykonywany jest czujnikiem
149
temperatury PT–100, który umieszczony jest w górnym bloku grzewczym. Dolny
blok grzewczy ma wykonany rowek o szerokości 12,5 mm, umożliwiający
precyzyjne równoległe ułożenie lutowanych taśm nadprzewodnikowych.
Lutownica wyposażona jest w wentylator chłodzący, który przyspiesza proces
chłodzenia bloków grzewczych po każdorazowym wykonaniu połączenia
lutowanego. Praca lutownicy jest sterowana przez regulator temperatury oraz
układ przekaźników umieszczony w stacji bazowej [7–8]. Lutownica umożliwia
lutowanie taśm nadprzewodnikowych o szerokości do 12 mm z zakładką do
70 mm.
4. Przygotowanie lutowanych próbek taśmy HTS 2G
do pomiarów rezystancji taśmy
Taśmy nadprzewodnikowe drugiej generacji ze względu na niesymetryczną
budowę wewnętrzną (warstwa podłoża o dużej rezystywności z jednej strony,
a nadprzewodnik z drugiej strony) mogą być zlutowane ze sobą na kilka różnych
sposobów. Najczęstszym sposobem lutowania jest połączenie lutowane na
zakładkę. Na rysunku 9a–9c przedstawiano 3 możliwe sposoby wykonania
takiego połączenia różniące się ustawieniem przylegających do siebie warstw.
W połączeniu typu a – taśmy nadprzewodnikowe lutowane są warstwami
nadprzewodnika do siebie, w połączniu typu b – taśmy są lutowane warstwami
podłoża do siebie, natomiast w połączeniu typu c warstwa nadprzewodnika jednej
taśmy HTS jest zlutowana z warstwą podłoża drugiej taśmy HTS.
W połączeniu lutowanym typu d dwie taśmy nadprzewodnikowe zostały
są zlutowane ze sobą z wykorzystaniem dwóch mostków z blachy miedzianej
o grubości 0,18 mm.
Najniższą wartość rezystancji połączenia lutowanego ma połączenie typu a,
połączenie tego typu wymaga jednak odwrócenia jednej z taśm
nadprzewodnikowych, tak aby warstwy nadprzewodnika zwrócone były ku sobie,
co w praktycznych urządzeniach nie zawsze jest możliwe.
Rys. 9. Konfiguracje łączenia taśm nadprzewodnikowych HTS 2G SF12050
Źródło: Opracowanie własne
150
Na rysunku 9 zostały zaprezentowane odcinki taśmy nadprzewodnikowej
SF12050 przygotowane do lutowania z naniesioną pastą lutowniczą. Do
lutowania taśm nadprzewodnikowych na zakładkę wykorzystano dwa rodzaje
stopów do lutowania o składzie Sn62Pb36Ag2 (rysunek 10a)
i Sn96,5Ag3Cu0,5 (rysunek 10b). Przebieg procesu lutowania dla taśm SF12050
składa się z trzech faz (rysunek 10c). W pierwszej fazie bloki grzewcze
podgrzewane są (około trzech minut) do temperatury topienia stopu
Sn62Pb36Ag2 do 179 °C, przez kolejne 45 sekund temperatura bloków
grzewczych rośnie do 185 °C, a następnie grzanie jest wyłączone, a bloki
grzewcze są chłodzone wymuszonym przepływem powietrza. W identyczny
sposób przeprowadzono lutowanie taśm nadprzewodnikowych przy użyciu stopu
Sn96,5Ag3Cu0,5. Temperatura topnienia wynosiła 217 °C, a temperatura bloków
grzewczych wzrastała do 219 °C. Temperatura topienia użytych stopów
lutowniczych jest mniejsza od maksymalnej temperatury lutowania podawanej
przez producenta taśmy.
Rys. 10. Lutowanie taśmy HTS 2G SF12050: a) stopem Sn62Pb36Ag2,
b) stopem Sn96,5Ag3Cu0,5, c) przebieg temperatury podczas procesu lutowania
taśm nadprzewodnikowych
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
151
Rysunek 11 przedstawia próbki do badań – taśmy nadprzewodnikowe
połączone na cztery różne sposoby (rysunek 11a–11d), poszczególne połączenia
zostały wykonane zgodnie z konfiguracjami przedstawionymi na rysunku 9.
Pomiary rezystancji próbek zostały wykonane w temperaturze pokojowej
293 K i w temperaturze wrzenia ciekłego azotu 77,4 K. Zmierzona wartość
rezystancji próbek 11a–11d została porównania z wartością rezystancji taśmy
nadprzewodnikowej bez połączeń lutowanych – rysunek 11e.
Rys. 11. (a-d) Połączenia lutowane dwóch odcinków taśm HTS 2G SF12050, (e) taśma HTS
2G SF12050 bez połączenia, dla których wykonano badania eksperymentalne
Źródło: Opracowanie własne przy wykorzystaniu zasobów materiałowych Instytutu
Elektrotechniki
5. Pomiar rezystancji połączeń taśm nadprzewodnikowych
HTS 2G
W pracy zaprezentowano pomiary rezystancji dla czterech różnych połączeń
taśm nadprzewodnikowych oraz taśmy bez połączenia lutowanego. Połączenia
taśm nadprzewodnikowych wykonano dwoma stopami Sn62Pb36Ag2 oraz
Sn96,5Ag3Cu0,5 dla dwóch różnych długości zakładki, które wynosiły 50 mm
i 70 mm. Badania rezystancji połączeń taśm HTS przeprowadzono w dwóch
temperaturach: pokojowej 293 K oraz temperaturze wrzenia ciekłego azotu
77,4 K przy zastosowaniu układu pomiarowego przedstawionego na rysunku 12.
152
Rys. 12. Schemat pomiarowy
Źródło: Opracowanie własne
Rysunek 13 przedstawia sposób wykonywania pomiaru rezystancji połącznia
taśmy nadprzewodnikowej drugiej generacji SF12050 w temperaturze pokojowej
293 K. Pomiar wykonano omomierzem do pomiaru małych rezystancji Megger
DLRO10X z wykorzystaniem specjalnie wykonanego uchwytu zawierającego
wyprowadzenia prądowe I1, I2 i napięciowe V1, V2. Odległość pomiędzy
wyprowadzeniami napięciowymi wynosiła 200 mm.
Rys. 13. Pomiar rezystancji połączeń taśm nadprzewodnikowych
w temperaturze pokojowej 293 K
Źródło: Opracowanie własne
153
Omomierz małych rezystancji Megger DLRO10X umożliwia automatyczne
wykonanie pomiaru rezystancji metodą czteroprzewodową w zakresie od 0,1 μΩ
do 2000 Ω. Omomierz wykonuje dwa następujące po sobie pomiary
z automatycznym odwróceniem polaryzacji wewnętrznego źródła prądowego,
w celu wyeliminowania wpływu zjawiska Seebecka na końcowy wynik pomiaru
rezystancji.
Na wykresach 1 i 2 przedstawiono zestawione wyniki pomiarów rezystancji
połączeń taśm HTS 2G dla zakładki o długości 70 mm.
Wykres 1. Rezystancja połączeń taśm HTS 2G przy zakładce 70 mm
w temperaturze pokojowej 293 K
Źródło: Opracowanie własne
Wartości rezystancji połączeń taśm HTS 2G w temperaturze pokojowej
293 K są mniejsze dla połączeń wykonanych stopem Sn62Pb36Ag2. Najniższą
wartość rezystancji 71,81 mΩ uzyskano dla połączenia typu d,
czyli połączenia lutowanego dwóch taśm nadprzewodnikowych dwoma mostkami
wykonanymi z blachy miedzianej. Taki wynik jest spowodowany dużą wartością
rezystancji taśmy nadprzewodnikowej w temperaturze pokojowej – wykres 1e.
154
Wykres 2. Rezystancja połączeń taśm HTS 2G przy zakładce 70 mm
w temperaturze wrzenia ciekłego azotu 77,4 K
Źródło: Opracowanie własne
Wyniki pomiarów rezystancji próbek przeprowadzonych w temperaturze
wrzenia ciekłego azotu 77,4 K, dla zakładki o długości 70 mm, podobnie jak
w temperaturze pokojowej, niższe wartości rezystancji uzyskano dla połączeń
lutowanych wykonanych z wykorzystaniem stopu Sn62Pb36Ag2. Najniższą
wartość rezystancji uzyskano dla połączenia na zakładkę typu a
w której taśmy nadprzewodnikowe zlutowane są warstwami nadprzewodnika do
siebie. Rezystancja taśmy nadprzewodnikowej bez połączenia lutowanego
(wykres 2e) była niemierzalnie mała.
Wykres 3. Rezystancja połączeń taśm HTS 2G wykonanych stopem Sn62Pb36Ag2
w temperaturze pokojowej 293 K
Źródło: Opracowanie własne
155
Wykres 4. Rezystancja połączeń taśm HTS 2G wykonanych stopem Sn62Pb36Ag2
w temperaturze 77,4 K
Źródło: Opracowanie własne
Na wykresach 3 i 4 porównano wartości rezystancji połączeń taśm HTS 2G
dla dwóch długości zakładek 50 mm i 70 mm. Do połączenia taśm wykorzystano
pastę lutującą Sn62Pb36Ag2.
Z badań połączeń lutowanych wynika, że wartości rezystancji połączeń taśm
HTS 2G w temperaturze pokojowej 293 K i temperaturze wrzenia ciekłego azotu
77,4 K są mniejsze dla zakładki o długości 70 mm. Najkorzystniejszym
połączeniem okazała się konfiguracja d – połączenie dwóch taśm
z wykorzystaniem dwóch mostków z blachy miedzianej. Połączenie osiągnęło
wartość 71,81 mΩ. W przypadku pomiarów rezystancji połączeń taśm HTS 2G
przeprowadzonych w temperaturze wrzenia ciekłego azotu 77,4 K,
przy zastosowaniu stopu Sn62Pb36Ag2, mniejsze wartości rezystancji ma
połączenie z zakładką 70 mm. Najkorzystniejszym połączeniem okazała się
konfiguracja na zakładkę a – taśmy są połączone warstwami nadprzewodnika
osiągając wartość 0,1 µΩ. Rezystancja połączeń dla konfiguracji e – odcinek
taśmy nadprzewodnikowej, w temperaturze wrzenia ciekłego azotu 77,4 K
wyniosła 0 Ω.
6. Wnioski
Połączenia taśm nadprzewodnikowych HTS 2G występują w każdym
urządzeniu nadprzewodnikowym, dlatego niezbędne jest opracowanie poprawnej
metody wykonywania połączeń lutowanych o niskiej rezystancji.
Po wykonaniu połączeń lutowanych należy sprawdzić rezystancję połączenia taśm.
W pracy zaprezentowano wyniki przeprowadzonych pomiarów rezystancji
połączeń lutowanych dla czterech różnych sposobów wykonania połączenia,
156
dla zakładek o długości 50 mm i 70 mm, zbadano również wpływ zastosowanego
stopu (Sn62Pb36Ag2 i Sn96,5Ag3Cu0,5) na rezystancję połączenia taśm.
Pomiary rezystancji połączeń przeprowadzono w dwóch temperaturach:
pokojowej 293 K i wrzenia ciekłego azotu 77,4 K.
Z badań połączeń lutowanych taśm nadprzewodnikowych wynika,
że połączenia nie wpływają znacząco na wartość prądu krytycznego Ic, ponieważ
wartość rezystancji połączeń lutowanych jest stosunkowo mała. Uzyskane
wartości rezystancji połączeń lutowanych są wystarczająco małe do praktycznego
wykorzystania w nadprzewodnikowych ogranicznikach prądu zwarciowego.
Najlepszym rozwiązaniem spośród badanych jest połączenie na zakładkę typu
a w którym taśmy nadprzewodnikowe są skierowane warstwą nadprzewodnika do
siebie, długość zakładki wynosiła 70 mm, a połączenie wykonano stopem
Sn62Pb36Ag2. Rezystancja dla tego połączenia wynosiła 0,1 µΩ.
Literatura
1. Cyrot M., Pavuna D., Wstęp do nadprzewodnictwa. Nadprzewodniki
wysokotemperaturowe, Warszawa, PWN, 1996.
2. Janowski T., Stryczewska H. D., Kozak S., Malinowski H., Wojtasiewicz G.,
Surdacki P., Kondratowicz-Kucewicz B., Kozak J., Nadprzewodnikowe ograniczniki
prądu, LIBER, Lublin, 2002.
3. Czerwiński D., Dynamika zmian cieplnych w cienkowarstwowych taśmach HTS
w stanach przejściowych, Zeszyty Naukowe Politechniki Łódzkiej 1169, Elektryka, 2013.
4. Majka M., Kozak S., Zastosowanie taśm I i II generacji do budowy
nadprzewodnikowych ograniczników prądu, Przegląd Elektrotechniczny, 5(85),
183–185, 2009.
5. Kozak J., Majka M., Janowski T., Kozak S., Wojtasiewicz G., Kondratowicz-
Kucewicz B., Tests and performance analysis of coreless inductive HTS fault current
limiters, IEEE Transactions on Applied Superconductivity 3(21), 1303–1306, 2011.
6. Kozak J., Majka M., Kwoka R., Badania taśm nadprzewodnikowych
(2G HTS) bez stabilizatora, Przegląd Elektrotechniczny 93 (3), 185–188, 2017.
7. Kozak J., Majka M., Technologia łączenia taśm HTS 2G w uzwojeniach
nadprzewodnikowych urządzeń elektrycznych, Przegląd Elektrotechniczny 90(3),
157–160, 2014.
8. Kozak J., Głowica grzejna lutownicy taśm, zwłaszcza taśm nadprzewodnikowych,
Zgłoszenie patentowe P.400536, 28.08.2012.
9. Baldan C.A., Oliveira U.R., Shigue C.Y., Filho E.R., Evaluation of Electrical
Properties of Lap Joints for BSCCO and YBCO Tapes, IEEE Trans. Appl.
Supercond., 19 (3), 2831–2834, 2009.
10. Materiały informacyjne firmy SuperPower®2G HTS Wire Specifications,
www.superpower-inc.com, 2017.
11. Materiały informacyjne firmy American Superconductor. www.amsc.com, 2017.