Zagadnienia Dyplom2013 Publ

137
Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013 Strona | 1 SPIS TREŚCI PRZEDMIOTY PODSTAWOWE 1. Budowa komórki (prof. Halina Podbielska) ................................................................................................................... 6 2. Budowa układu krążenia (prof. Halina Podbielska) ....................................................................................................... 9 2.1 Układ krążenia (krwionośny) .................................................................................................................................. 9 2.2 Naczynia krwionośne ............................................................................................................................................ 10 2.2.1 Tętnice........................................................................................................................................................... 10 2.2.2 Żyły ............................................................................................................................................................... 10 2.2.3 Naczynia włosowate ..................................................................................................................................... 11 2.2.4 Krew .............................................................................................................................................................. 11 3. Układ kostny człowieka: budowa, kształt, rodzaje kości (prof. Halina Podbielska) .................................................... 11 3.1 Budowa kości ........................................................................................................................................................ 12 3.2 Rodzaje kości ........................................................................................................................................................ 12 4. Źródła sygnałów elektrycznych w organizmie człowieka (dr B. Juroszek) .................................................................. 13 5. Definicja zdrowia (prof. H. Podbielska) ....................................................................................................................... 13 6. Choroby cywilizacyjne (prof. Halina Podbielska) ........................................................................................................ 14 7. Podstawy budowy materii, wiązania chemiczne i oddziaływania międzycząsteczkowe – znaczenie w układach biologicznych (prof. K. Kubica) ........................................................................................................................................... 17 7.1 BUDOWA MATERII ........................................................................................................................................... 17 7.2 WIĄZANIA .......................................................................................................................................................... 18 7.2.1 Wiązanie jonowe ........................................................................................................................................... 18 7.2.2 Wiązanie atomowe niespolaryzowane .......................................................................................................... 18 7.2.3 Wiązanie atomowe spolaryzowane ............................................................................................................... 18 7.2.4 Wiązanie koordynacyjne (donorowo-akceptorowe) ..................................................................................... 19 7.3 Oddziaływania międzycząsteczkowe .................................................................................................................... 19 7.4 Znaczenie w układach biologicznych ................................................................................................................... 19 8. Błony biologiczne, modelowe błony lipidowe, badania doświadczalne i teoretyczne (prof. K. Kubica) ..................... 20 9. Wpływ czynników środowiskowych na organizmy żywe (mechanicznych – ultradźwięki, intradźwięki, wibracje, wpływ przyspieszeń, zmian ciśnienia, temperatury i wilgotności, pola el ektrycznego i magnetycznego, promieniowanie jonizujące i niejonizujące) (prof. K. Kubica) ........................................................................................................................ 21 9.1 ULTRADŹWIĘKI ................................................................................................................................................ 21 9.2 INFRADŹWIĘKI.................................................................................................................................................. 22 9.3 HAŁAS ................................................................................................................................................................. 22 9.4 WIBRACJE........................................................................................................................................................... 23 9.5 WPŁYW CIŚNIENIA NA ORGANIZMY ŻYWE .............................................................................................. 24 9.6 Wpływ wilgotności powietrza na stan zdrowia człowieka ................................................................................... 25

Transcript of Zagadnienia Dyplom2013 Publ

Page 1: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 1

SPIS TREŚCI PRZEDMIOTY PODSTAWOWE

1. Budowa komórki (prof. Halina Podbielska) ................................................................................................................... 6

2. Budowa układu krążenia (prof. Halina Podbielska) ....................................................................................................... 9

2.1 Układ krążenia (krwionośny) .................................................................................................................................. 9

2.2 Naczynia krwionośne ............................................................................................................................................ 10

2.2.1 Tętnice ........................................................................................................................................................... 10

2.2.2 Żyły ............................................................................................................................................................... 10

2.2.3 Naczynia włosowate ..................................................................................................................................... 11

2.2.4 Krew .............................................................................................................................................................. 11

3. Układ kostny człowieka: budowa, kształt, rodzaje kości (prof. Halina Podbielska) .................................................... 11

3.1 Budowa kości ........................................................................................................................................................ 12

3.2 Rodzaje kości ........................................................................................................................................................ 12

4. Źródła sygnałów elektrycznych w organizmie człowieka (dr B. Juroszek) .................................................................. 13

5. Definicja zdrowia (prof. H. Podbielska) ....................................................................................................................... 13

6. Choroby cywilizacyjne (prof. Halina Podbielska) ........................................................................................................ 14

7. Podstawy budowy materii, wiązania chemiczne i oddziaływania międzycząsteczkowe – znaczenie w układach

biologicznych (prof. K. Kubica) ........................................................................................................................................... 17

7.1 BUDOWA MATERII ........................................................................................................................................... 17

7.2 WIĄZANIA .......................................................................................................................................................... 18

7.2.1 Wiązanie jonowe ........................................................................................................................................... 18

7.2.2 Wiązanie atomowe niespolaryzowane .......................................................................................................... 18

7.2.3 Wiązanie atomowe spolaryzowane ............................................................................................................... 18

7.2.4 Wiązanie koordynacyjne (donorowo-akceptorowe) ..................................................................................... 19

7.3 Oddziaływania międzycząsteczkowe .................................................................................................................... 19

7.4 Znaczenie w układach biologicznych ................................................................................................................... 19

8. Błony biologiczne, modelowe błony lipidowe, badania doświadczalne i teoretyczne (prof. K. Kubica) ..................... 20

9. Wpływ czynników środowiskowych na organizmy żywe (mechanicznych – ultradźwięki, intradźwięki, wibracje,

wpływ przyspieszeń, zmian ciśnienia, temperatury i wilgotności, pola elektrycznego i magnetycznego, promieniowanie

jonizujące i niejonizujące) (prof. K. Kubica) ........................................................................................................................ 21

9.1 ULTRADŹWIĘKI ................................................................................................................................................ 21

9.2 INFRADŹWIĘKI.................................................................................................................................................. 22

9.3 HAŁAS ................................................................................................................................................................. 22

9.4 WIBRACJE ........................................................................................................................................................... 23

9.5 WPŁYW CIŚNIENIA NA ORGANIZMY ŻYWE .............................................................................................. 24

9.6 Wpływ wilgotności powietrza na stan zdrowia człowieka ................................................................................... 25

Page 2: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 2

9.7 POLA ELEKTROMAGNETYCZNEGO ............................................................................................................. 25

9.7.1 1. Efekty termiczne. ...................................................................................................................................... 25

9.7.2 2. Efekty nietermiczne. ................................................................................................................................. 25

9.8 WPŁYW POLA ELEKTRYCZNEGO ................................................................................................................. 26

9.9 WPŁYW POLA MAGNETYCZNEGO ............................................................................................................... 26

9.10 PROMIENIOWANIE JONIZUJĄCE ................................................................................................................... 30

9.10.1 Wpływ na komórki żywe .............................................................................................................................. 30

10. Komórka podstawową jednostką życia; organizacja struktur komórkowych. Komunikacja wewnątrzkomórkowa i

zewnątrzkomórkowa. (prof. K. Kubica) ............................................................................................................................... 32

10.1 ORGANIZAZCJA STRUKTUR KOMÓRKOWYCH: (chyba chodzi o tkanki) ................................................. 33

10.2 KOMUNIKACJA ZEWNĄTRZ I WEWNĄTRZKOMÓRKOWA ..................................................................... 34

11. Komórki macierzyste nadzieją współczesnej medycyny. (prof. K. Kubica) ............................................................ 34

12. Bakterie w życiu człowieka . Komórka eukariotyczna i prokariotyczna. Wykorzystanie różnic w projektowaniu

leków. Komórka gram +/-. Organizacja pracy w laboratorium mikrobiologicznym (klasyfikacja laboratoriów). Procedura

antybiotykogramu. (prof. K. Kubica) .................................................................................................................................... 35

13. Struktura białek. Makrocząsteczki i ich funkcje w żywych organizmach. Zastosowanie metod elektrochemicznych

do monitorowania funkcji organizmu. (prof. M. Komorowska) ........................................................................................... 39

13.1 Budowa białek....................................................................................................................................................... 39

13.1.1 Skład pierwiastkowy ..................................................................................................................................... 39

13.1.2 Właściwości fizyczne i chemiczne ................................................................................................................ 40

13.1.3 Podział białek ................................................................................................................................................ 40

13.1.4 Funkcja białek ............................................................................................................................................... 41

13.1.5 Trawienie białek ............................................................................................................................................ 42

13.1.6 Źródła białek ................................................................................................................................................. 42

13.2 Makrocząsteczka ................................................................................................................................................... 42

13.2.1 Podział polimerów ........................................................................................................................................ 44

13.2.2 Zastosowania polimerów .............................................................................................................................. 46

13.2.3 Przykłady polimerów .................................................................................................................................... 46

13.2.4 Funkcje w organizmach żywych ................................................................................................................... 47

13.3 Bioelektrochemia .................................................................................................................................................. 47

14. Techniki rezonansów magnetycznych i ich zastosowanie w obrazowaniu medycznym. (prof. M. Komorowska) .. 48

15. Promieniowanie elektromagnetyczne, podział, zakresy. (prof. H. Podbielska) ........................................................ 50

15.1 Właściwości promieniowania elektromagnetycznego .......................................................................................... 50

15.1.1 Fale radiowe .................................................................................................................................................. 51

15.1.2 Mikrofale ....................................................................................................................................................... 51

15.1.3 Podczerwień .................................................................................................................................................. 51

15.1.4 Światło widzialne .......................................................................................................................................... 52

Page 3: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 3

15.1.5 Ultrafiolet ...................................................................................................................................................... 52

15.1.6 Promieniowanie rentgenowskie .................................................................................................................... 52

15.1.7 Promieniowanie gamma ................................................................................................................................ 52

16. Techniki obrazowania medycznego wykorzystujące promieniowanie jonizujące. (dr M. Kopaczyńska) ................ 53

16.1 Jonizacja bezpośrednia i pośrednia ....................................................................................................................... 53

16.2 Promieniowanie jonizujące w radiologii ............................................................................................................... 53

16.3 Szkodliwość biologiczna ....................................................................................................................................... 53

16.4 Naturalne tło promieniowania jonizującego ......................................................................................................... 54

16.4.1 Hipotezy dotyczące szkodliwości małych dawek ......................................................................................... 54

17. Podstawy fizyczne oraz zastosowanie mikroskopowych technik obrazowania medycznego. (pdf)......................... 54

18. Elementy obwodów elektrycznych: elementy RLC, źródła napięć i prądów. (prof. Z. Moroń) ............................... 54

18.1 Źródła prądów i napięć stałych. ............................................................................................................................ 54

18.2 Elementy RLC ...................................................................................................................................................... 56

19. Podstawowe prawa elektrotechniki. (prof. Z. Moroń) .............................................................................................. 56

20. Sygnały elektryczne i ich właściwości. Pomiary parametrów sygnałów. (pdf) (prof. Z. Moroń) ............................ 59

21. Obwody elektryczne w warunkach zasilania napięciem sinusoidalnie zmiennym. (prof. Z. Moroń) ...................... 59

21.1 Wielkości opisujące przebiegi sinusoidalne: ........................................................................................................ 59

21.2 Synchronizm, przesunięcie fazowe ....................................................................................................................... 60

21.3 Elementy obwodu elektrycznego .......................................................................................................................... 60

21.4 Elementy idealne R, L, C w obwodach prądu sinusoidalnego .............................................................................. 62

21.4.1 IDEALNY REZYSTOR ............................................................................................................................... 62

21.4.2 IDEALNA CEWKA ..................................................................................................................................... 63

21.4.3 IDEALNY KONDENSATOR ...................................................................................................................... 64

21.5 DWÓJNIK SZEREGOWY RL ............................................................................................................................. 65

21.6 DWÓJNIK SZEREGOWY RC ............................................................................................................................ 66

21.7 DWÓJNIK RÓWNOLEGŁY RL ......................................................................................................................... 67

21.8 DWÓJNIK RÓWNOLEGŁY RC ......................................................................................................................... 68

22. Moc i energia w obwodach elektrycznych. (prof. Z. Moroń) ................................................................................... 69

23. Półprzewodnikowe elementy elektroniczne i ich zastosowania. Elementy elektryczne i ich zastosowania. (prof. Z.

Moroń) .................................................................................................................................................................................. 70

23.1 Elementy półprzewodnikowe ................................................................................................................................ 70

23.1.1 DIODY .......................................................................................................................................................... 70

23.1.2 TRANZYSTORY ......................................................................................................................................... 70

23.1.3 TERMISTOR ................................................................................................................................................ 71

23.1.4 TYRYSTOR.................................................................................................................................................. 71

23.1.5 HALLOTRON .............................................................................................................................................. 71

Page 4: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 4

24. Wzorzec medyczny (norma medyczna) i sposób jej konstrukcji (dr B. Juroszek) ................................................... 71

25. Bezpieczeństwo przeciwporażeniowe w aparaturze elektromedycznej. Skutki porażenia (dr B. Juroszek) ............ 72

25.1 Klasy ochronności: ................................................................................................................................................ 72

25.2 Typy ochronności części aplikacyjnej: ................................................................................................................. 73

25.3 Transformatory separacyjne .................................................................................................................................. 73

25.4 Wyłączniki różnicowoprądowe ............................................................................................................................. 73

26. Błędy aparaturowe i od pacjenta w przyrządach elektromedycznych. (dr J. Kolanko) .......................................... 74

27. Podstawowe parametry sygnałów deterministycznych i losowych. (dr Iskander, dr Ociepka) ................................ 74

28. Zasady próbkowania sygnałów. Kryterium Kotielnikowa-Shannona. (dr Iskander, dr Ociepka) ............................ 79

29. Zastosowanie transformaty Fouriera w analizie sygnałów. (dr Iskander, dr Ociepka) ............................................. 79

30. Źródła i rodzaje błędów oprogramowania. Sposoby unikania, wykrywania i sposoby eliminacji. (języki

programowania) (dr W. Dyrka) ............................................................................................................................................ 81

30.1 Etymologia angielskiego określenia bug .............................................................................................................. 81

30.1.1 Diagnoza i usuwanie ..................................................................................................................................... 81

30.1.2 Typy błędów ................................................................................................................................................. 82

30.1.3 Zapobieganie błędom .................................................................................................................................... 82

31. Etapy tworzenia oprogramowania. (języki programowania) (dr W. Dyrka) ............................................................ 83

31.1 Fazy procesu produkcji oprogramowania ............................................................................................................. 83

31.2 Modele cyklu życia oprogramowania ................................................................................................................... 83

1. Efekty termiczne oddziaływania światła laserowego z tkanką. (prof. H. Podbielska).................................................. 85

2. Absorpcja, luminescencja – podstawowe zjawiska oddziaływania światła z tkanką. (prof. H. Podbielska) ................ 86

3. Transiluminacja – zastosowanie w medycynie, przebieg pomiarów. (prof. H. Podbielska) ......................................... 88

4. Podstawy fizyczne działania laserów, rodzaje laserów. (dr I. Hołowacz) .................................................................... 89

4.1 PODSTAWY FIZYCZNE DZIAŁANIA LASERÓW ......................................................................................... 89

4.2 RODZAJE LASERÓW: ....................................................................................................................................... 91

5. Podstawy diagnostyki i terapii fotodynamicznej. (dr I. Hołowacz) .............................................................................. 92

6. Zastosowanie laserów w różnych działach medycyny. (dr I. Hołowacz) ..................................................................... 93

7. Zasada działania oraz zastosowanie mirkoskopu sił atomowych AFM (dr M. Kopaczyńska) ..................................... 95

8. Metody obrazowania medycznego wykorzystujące technikę kontrastowania. (dr M. Kopaczyńska) .......................... 96

9. Porównać nanoskropowe metody obrazowania z mikroskopią fluorescencyjną. (dr M. Kopaczyńska) ...................... 97

10. Porównać mikroskopię TEM z mikroskopią SEM (dr M. Kopaczyńska) ................................................................ 99

11. Podstawy fizyczne obrazowanie PET i SPECT. (dr M. Kopaczyńska) .................................................................... 99

12. Scharakteryzować hybrydowe techniki obrazowania medycznego. (dr M. Kopaczyńska) .................................... 101

13. Czujniki pomiarowe, ich przeznaczenie, klasyfikacja i właściwości. (prof. Z. Moroń) ......................................... 102

14. Pomiary położenia, przemieszczenia i parametrów ruchu. Czujniki do tych pomiarów. (prof. Z. Moroń) ............ 102

15. Czujniki naprężeń, sił i momentów oraz ciśnień. (prof. Z. Moroń) ........................................................................ 103

Page 5: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 5

16. Czujniki temperatury. (prof. Z. Moroń) .................................................................................................................. 110

17. Skale pomiarowe, wielkości fizyczne. (dr Z. Rucki) .............................................................................................. 112

17.1 SKALE ................................................................................................................................................................ 112

17.1.1 Skala nominalna .......................................................................................................................................... 113

17.1.2 Skala porządkowa ....................................................................................................................................... 113

17.1.3 Skala przedziałowa/interwałowa ................................................................................................................. 113

17.1.4 Skala stosunkowa/ilorazowa ....................................................................................................................... 113

17.2 WIELKOŚCI FIZYCZNE .................................................................................................................................. 113

18. Pomiary napięć, prądów, rezystancji i impedancji. (dr Z. Rucki) ........................................................................... 114

18.1 NATĘŻENIE PRĄDU I NAPIĘCIE .................................................................................................................. 114

18.2 Pomiar rezystancji ............................................................................................................................................... 114

18.3 Pomiar impedancji .............................................................................................................................................. 115

19. Przyrządy cyfrowe. Podstawowe parametry przetworników A/C i ich wpływ na właściwości przyrządów

cyfrowych. (dr Z. Rucki)..................................................................................................................................................... 115

20. Oscyloskop elektroniczny i jego zastosowania. (dr Z. Rucki) ................................................................................ 116

21. Pomiary ciśnienia tętniczego krwi; metody, aparatura (dr B. Juroszek) ................................................................. 117

21.1 POMIARY CIENIENIA KRWI ......................................................................................................................... 117

21.2 METODY POMIARU CIŚNIENIA TĘTNICZEGO KRWI .............................................................................. 118

21.3 Charakterystyka metody osłuchowej .................................................................................................................. 118

21.4 Metoda oscylometryczna .................................................................................................................................... 122

22. Badania układu oddechowego: metody i aparatura (dr B. Juroszek) ...................................................................... 125

22.1 CHARAKTERYSTYKA PARAMETRÓW SPIROMETRYCZNYCH ............................................................ 125

23. Charakterystyki sygnałów EKG EMG EEG i sposoby ich pomiarów. Przykładowa aparatura do tych celów. (dr B.

Juroszek) ............................................................................................................................................................................. 128

23.1 Pomiar elektryczności w organizmie człowieka ................................................................................................. 128

23.2 Elektrokardiogram (EKG) ................................................................................................................................... 128

23.3 Elektroencefalografia (EEG) ............................................................................................................................... 131

23.4 Elektromiografia (EMG) ..................................................................................................................................... 134

24. Sztuczna wentylacja: metody i aparatura. (dr B. Juroszek) .................................................................................... 136

25. Możliwości wykorzystania mikrokontrolerów do sterowania i obróbki danych w przyrządach analitycznych i

terapeutycznych. (dr G. Smołalski) (pusto) ........................................................................................................................ 137

Page 6: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 6

PRZEDMIOTY PODSTAWOWE 1. BUDOWA KOMÓRKI (PROF. HALINA PODBIELSKA) Z wykładu Podbielskiej :

Page 7: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 7

Page 8: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 8

Page 9: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 9

2. BUDOWA UKŁADU KRĄŻENIA (PROF. HALINA PODBIELSKA)

2.1 Układ krążenia (krwionośny)

Zbudowany jest z zamkniętego systemu naczyń krwionośnych, które pod wpływem rytmicznych impulsów serca

transportują nieustannie przez organizm krew. Krew jest nośnikiem substancji odżywczych, niezbędnych do

podtrzymywania czynności życiowych, oraz spełnia funkcję oczyszczającą organizm ze szkodliwych produktów

przemiany materii. Bez przerwy krąży od narządów odżywiających (układ oddechowy, pokarmowy) do tkanek ustroju i

narządów wydalniczych (nerki, skóra).

Układ krwionośny zbudowany jest z serca i naczyń krwionośnych - tętnic, żył i naczyń włosowatych.

Page 10: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 10

Serce (cor) to motor układu krążenia - jest narządem

mięśniowym wielkości zaciśniętej pięści. Mieści się

we wnętrzu klatki piersiowej (2/3 po lewej stronie)

między dwoma płucami i ma kształt nieregularnego

stożka, ułożonego w pozycji skośnej, pochylonej.

Jego podstawa jest zwrócona w górę i na prawo a

koniuszkiem skierowana w dół na lewo. Serce otacza

błoniasty worek zwany osierdziem. W jamie serca

człowieka wyróżnić można dwa przedsionki i dwie

komory. Przegroda serca dzieli je na dwie części:

tętniczą - obejmującą lewy przedsionek i lewą komorę

i żylną - obejmuje prawy przedsionek i prawą

komorę. Przedsionki i komory kurczą się i

rozkurczają na przemian - równocześnie ze skurczem

przedsionków rozkurczają się komory i odwrotnie.

Krew wyrzucana skurczami serca przechodzi do

tętnic. Coraz dalej od serca wraz z kolejnym

rozgałęzieniem, tętnice stają się cieńsze aż wreszcie

przechodzą w drobne naczynia włosowate

doprowadzające krew do komórek ciała. Naczynia te

umożliwiają również wymianę substancji

odżywczych i tlenu pomiędzy krwią a płynami

tkankowymi. Od naczyń włosowatych zaczyna się

układ żył zbierających krew z tkanek ciała i

prowadzących ją do serca. Praca serca w czasie jednej

minuty obejmuje przetoczenie około 6 litrów krwi.

Serce:

1. Prawy przedsionek

2. Lewy przedsionek

3. Żyła główna górna

4. Łuk aorty

5. Lewa tętnica płucna

6. Żyła płucna dolna

7. Zastawka mitralna

8. Zastawka aortalna

9. Komora lewa

10. Komora prawa

11. Żyła główna dolna

12. Zastawka trójdzielna

13. Zastawka pnia płucnego

2.2 NACZYNIA KRWIONOŚNE

2.2.1 TĘTNICE

Największą, główną tętnicą organizmu jest aorta. Zaopatruje ona cały organizm w krew bogatą w tlen. Aorta wychodzi ku

górze z lewej komory serca, zagina się i zstępuje w dół. Na poszczególnych poziomach dzieli się ona na tętnice.

2.2.2 ŻYŁY

Rysunek 2.1 Mały obieg krwi (płuca-serce) oraz duży obieg krwi

Page 11: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 11

Naczynia żylne początkowo drobne i bardzo liczne łączą się w coraz to większe żyły, które ostatecznie tworzą dwie żyły

główne - górną i dolną. Uchodzą one do prawego przedsionka serca. Żyła główna dolna to największa żyła ustroju.

2.2.3 NACZYNIA WŁOSOWATE

Naczynia włosowate, inaczej włośniczki, to najdrobniejsze (niewidzialne gołym okiem) naczynia krwionośne ustroju.

Włośniczki swymi rozgałęzieniami tworzą sieć. W sieci włośniczek występują naczynia włosowate tętnicze i żylne.

Wyróżnia się typy sieci naczyń włosowatych: zwykła sieć kapilarna w tkankach, sieć dziwna, układ wrotny.

2.2.4 KREW

Jest tkanką płynną o czerwonym kolorze, barwa jej zależy od barwnika krwi - hemoglobiny. Krew przepływa bez przerwy

we wnętrzu układu krążenia, dostarczając do wszystkich komórek ciała tlen, składniki odżywcze i inne elementy

potrzebne komórką do metabolizmu. Jednocześnie krew transportuje dwutlenek węgla. W organizmie znajduje się

zgromadzona krew (w wątrobie i śledzionie), która normalnie nie krąży. Włączana jest ona do krążenia tylko w

przypadkach konieczności uzupełnienia utraconej przez organizm krążącej krwi.

Odczyn krwi na ogół stały, jest lekko zasadowy.

W osoczu znajdują się różnego rodzaju ciałka, spośród których każda spełnia określoną funkcję:

Krwinki czerwone - erytrocyty - transportują tlen z płuc do komórek i dwutlenek węgla, pochodzący z

metabolizmu komórek, w odwrotnym kierunku;

Krwinki białe - leukocyty - mają zdolności żerne i poruszania się. Różne rodzaje tworzą część układu

odpornościowego i chronią organizm przed infekcjami;

Płytki krwi - trombocyty - są to kuleczki tłuszczów, lipidów lub cząsteczki barwnika, poruszające się biernie

wraz z krążącą krwią. Uczestniczą w procesie krzepnięcia krwi, zapobiegając krwotokom.

W sposób nieprzerwany tworzą się nowe elementy krwi. Każdego dnia powstaje miliony krwinek czerwonych, białych i

płytek krwi. Proces ten zwany hemopoezą, ma miejsce głównie w szpiku kostnym, począwszy od komórek

macierzystych, z których wywodzą się różne komórki krwi.

3. UKŁAD KOSTNY CZŁOWIEKA: BUDOWA, KSZTAŁT, RODZAJE KOŚCI

(PROF. HALINA PODBIELSKA)

Page 12: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 12

3.1 BUDOWA KOŚCI

Głównym składnikiem jest tkanka kostna, ale zawiera ona takżetkankę tłuszczową, krwiotwórczą, chrzęstną i

inne. Każda kość pokryta jest okostną, a powierzchnie kości przylegające do siebie w obrębie stawu pokrywa

chrząstka stawowa. Trzon kości długich, powierzchniowe (korowe) warstwy ich nasad i kości płaskich, tworzy

istota zbita, zaś nasady kości długich, a także we wnętrzu kości płaskich, różnokształtnych i krótkich - istota

gąbczasta.

3.2 RODZAJE KOŚCI

Page 13: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 13

Ze względu na kształt kości dzieli się na długie, krótkie, płaskie i różnokształtne. Wyróżnia się także kości

zawierające przestrzenie wypełnione powietrzem tzw. Kości pneumatyczne.

Pełniejszy podział kości , w oparciu o ich rozwój, budowę i czynności, dzieli je na:

Kości rurowate (powstające w wyniku kostnienia chrzęstnego), kości mające kształt rur (długich lub krótkich)

zbudowanych z istoty zbitej i gąbczastej, wypełnione są szpikiem kostnym; spełniają funkcję podporową,

krwiotwórczą i obronną

Kości gąbczaste (powstające w wyniku kostnienia chrzęstnego), zbudowane są z istoty gąbczastej pokrytej istotą

zbitą oraz trzeszczki, dzielą się na długie (np. Żebra, mostek) i krótkie (np. Kręgi), pełnią funkcję krwiotwórczą,

stanowią miejsce początku i przyczepu mięśni

Kości płaskie (powstają przez kostnienie chrzęstne lub łącznotkankowe), są zbudowane z istoty gąbczastej lub zbitej,

pełnią funkcję osłaniającą i krwiotwórczą.

Pełniejszy podział kości , w oparciu o ich rozwój, budowę i czynności, dzieli je na:

Kości rurowate (powstające w wyniku kostnienia chrzęstnego), kości mające kształt rur (długich lub krótkich)

zbudowanych z istoty zbitej i gąbczastej, wypełnione są szpikiem kostnym; spełniają funkcję podporową,

krwiotwórczą i obronną

Kości gąbczaste (powstające w wyniku kostnienia chrzęstnego), zbudowane są z istoty gąbczastej pokrytej istotą

zbitą oraz trzeszczki, dzielą się na długie (np. Żebra, mostek) i krótkie (np. Kręgi), pełnią funkcję krwiotwórczą,

stanowią miejsce początku i przyczepu mięśni

Kości płaskie (powstają przez kostnienie chrzęstne lub łącznotkankowe), są zbudowane z istoty gąbczastej lub zbitej,

pełnią funkcję osłaniającą i krwiotwórczą.

4. ŹRÓDŁA SYGNAŁÓW ELEKTRYCZNYCH W ORGANIZMIE CZŁOWIEKA

(DR B. JUROSZEK) U człowieka podstawowymi źródłami elektrycznych i elektromagnetycznych sygnałów są: aktywność mięśniowa, np.

Rytmiczne skurcze mięśnia sercowego; aktywność bioelektryczna tj. Przekazywanie elektrycznych impulsów od zmysłów

do mózgu i sygnałów od mózgu do organów wykonawczych; aktywność metaboliczna tj. Przemiana materii w

organizmie.

Podstawowe źródła sygnałów elektrycznych i elektromagnetycznych u człowieka to:

Aktywność mięśniowa (np. Skurcze mięśnia sercowego),

Aktywność bioelektryczna (przekazywanie impulsów elektrycznych od narządów czuciowych do mózgu i

sygnałów z mózgu do narządów wykonawczych),

Aktywność metaboliczna narządów i układów (przemiana materii w organizmie)

Podstawowe źródło sygnałów elektrycznych i elektromagnetycznych u mikroorganizmów

(bakterie, wirusy, grzyby, pasożyty) ze względu na brak układów: mięśniowego i nerwowego stanowi wyłącznie

aktywność metaboliczna.

5. DEFINICJA ZDROWIA (PROF. H. PODBIELSKA) W konstytucji z 1948 roku Światowa Organizacja Zdrowia (WHO) określiła zdrowie jako „stan pełnego, dobrego

samopoczucia fizycznego, psychicznego i społecznego, a nie tylko jako brak choroby lub zniedołężnienia”. W ostatnich

latach definicja ta została uzupełniona o sprawność do „prowadzenia produktywnego życia społecznego i

ekonomicznego” a także wymiar duchowy.

Zdrowie fizyczne - prawidłowe funkcjonowanie organizmu, jego układów i narządów

Zdrowie psychiczne - a w jego obrębie:

Page 14: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 14

Zdrowie emocjonalne - zdolność do rozpoznawania uczuć, wyrażania ich w odpowiedni sposób,

umiejętność radzenia sobie ze stresem, napięciem, lękiem, depresją, agresją

Zdrowie umysłowe - zdolność do logicznego, jasnego myślenia

Zdrowie społeczne - zdolność do nawiązywania, podtrzymywania i rozwijania prawidłowych relacji z

innymi ludźmi

Zdrowie duchowe - u niektórych ludzi związane z wierzeniami i praktykami religijnymi, u innych osobiste

'credo', zbiór zasad, zachowań i sposobów osiągania wewnętrznego spokoju i równowagi.

W medycynie zamiast słowa „zdrowie” używa się terminu „homeostaza”. Jest to zdolność organizmu do

efektywnej obrony przed stresorami w celu przywrócenia i utrzymania wewnętrznej równowagi. W medycynie

niekonwencjonalnej zdrowie określa się jako ogólny stan dobrego samopoczucia.

6. CHOROBY CYWILIZACYJNE (PROF. HALINA PODBIELSKA) Choroby cywilizacyjne (zwane także chorobami XXI wieku) - globalnie szerzące się, powszechnie znane choroby,

spowodowane rozwojem cywilizacji. Częstotliwość ich występowania zależy od stopnia rozwoju cywilizacyjnego

społeczeństwa. Są przyczyną ponad 80% wszystkich zgonów. Mechanizmu ich pojawienia się należy szukać w

warunkach życia jakie narzucają wysoko rozwinięte cywilizacje i stylu życia jaki wymuszają ich zdobycze oraz tempo

postępu. Do głównych bezpośrednich przyczyn występowania chorób XXI wieku można zaliczyć nieprawidłowe

żywienie, małą aktywność fizyczną oraz palenie papierosów. Pośrednie przyczyny chorób cywilizacyjnych to postępujące

uprzemysłowienie, urbanizacja, wzrost napięcia nerwowego i sytuacji stresowych, skażenie środowiska i hałas oraz

promieniowanie (głównie jonizujące). Nie ma dokładnego podziału i nie można jednoznacznie powiedzieć czy dana

choroba jest chorobą cywilizacyjną.

Do chorób cywilizacyjnych można zaliczyć:

1) Choroby sercowo – naczyniowe:

A) Nadciśnienie tętnicze - choroba układu krążenia, która charakteryzuje się stale lub okresowo podwyższonym

ciśnieniem tętniczym krwi. Zdecydowana większość (ponad 90%) przypadków nadciśnienia ma charakter pierwotny, tzn.

Bez znanej somatycznej przyczyny, którą dałoby się usunąć interwencją medyczną. Etiologia nadciśnienia tętniczego

pierwotnego nie została w pełni ustalona. Uważa się, że odgrywają w niej rolę czynniki genetyczne i środowiskowe.

Pozostałe przypadki to choroba o charakterze wtórnym, gdy dobrze jest znana przyczyna choroby, np.: choroby nerek,

choroby gruczołów dokrewnych lub choroby mózgu.Ciśnienie prawidłowe nie przekracza 129/84.Zmiana stylu życia

istotnie obniża wartości ciśnienia tętniczego u osób z ciśnieniem podwyższonym i prawdopodobnie może zapobiegać

rozwojowi choroby u osób, które mają do niej genetycznie uwarunkowane skłonności. Elementy leczenia

niefarmakologicznego to: normalizacja masy ciała, przestrzeganie odpowiedniej diety, w tym nienadużywanie alkoholu i

soli, ograniczenie spożycia tłuszczów, zwłaszcza nasyconych, zaprzestanie palenia tytoniu i zwiększenie aktywności

fizycznej

B) Stabilna choroba wieńcowa - polega na niedostatecznym ukrwieniu serca, a co za tym idzie niewystarczającym

zaopatrzeniu serca w tlen. W większości przypadków choroba wieńcowa ma podłoże miażdżycowe. Poza dojżałym

wiekiem, płcią oraz dziedzicznością do powstania choroby przyczynia się palenie papierosów, siedzący tryb życia,

podniesiony poziom cholesterolu, nadciśnienie tętnicze, cukrzyca, otyłość, alkohol. Przejawem owego schorzenia są

dławice czyli coś w rodzaju dławienia, gniecenia lub pieczenia zlokalizowanego w klatce piersiowej za mostkiem. Bólowi

towarzyszy niepokój, kołatanie serca, nudności, drętwienie rąk oraz zawroty głowy. Może występować też bezobjawowo.

Zazwyczaj ból zawałowy jest pierwszym bólem wieńcowym odczuwanym przez osobę, która do tej pory uważała się za

zdrową i sprawną fizycznie.

C) Zawał serca - martwica mięśnia sercowego spowodowana jego niedokrwieniem. Jest postacią choroby niedokrwiennej

mięśnia sercowego. Do zawału mięśnia sercowego najczęściej dochodzi na tle miażdżycy tętnic wieńcowych w przebiegu

choroby wieńcowej. Mechanizmem, który bezpośrednio prowadzi do zawału, jest pęknięcie lub krwotok do blaszki

miażdżycowej albo narastanie zakrzepu na jej powierzchni. Zawał mięśnia sercowego występuje na ogół po 40. Roku

życia, częściej u mężczyzn niż u kobiet, zwłaszcza u osób otyłych i z nadciśnieniem tętniczym. Narażone są głównie

osoby palące i nerwowe.

Page 15: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 15

D) Miażdżyca - istotą choroby jest tworzenie złogów lipidowych w wewnętrznej ścianie naczyń tętniczych, odkładanie się

tkanki łącznej i soli wapnia. W wyniku tych procesów dochodzi do zwężenia światła naczynia i nieodpowiedniego

przepływu krwi przez tętnicę, a co za tym idzie - niedokrwienia tkanek i narządów znajdujących się obwodowo od zmian

miażdżycowych. Klinicznymi objawami patologii naczyń jest m.in.: zawał mięśnia sercowego, udar mózgu lub martwica

kończyn dolnych. Do czynników przyspieszających miażdżycę należą: nadciśnienie tętnicze, palenie papierosów, wysoki

poziom cholesterolu, mała aktywność fizyczna, otyłość, a także stres. Powstawanie ogniska miażdżycowego związane jest

z bierną filtracją osocza krwi przez ścianę tętnicy. Intensywność tego procesu zależna jest od ciśnienia tętniczego i

przepuszczalności ściany tętnicy. Prawidłowy śródbłonek naczyniowy, czyli wewnętrzna warstwa ściany naczynia

stanowi barierę kontrolującą przenikanie do ściany tętnicy pewnych substancji transportowanych przez krew.

Uszkodzenie tej struktury ułatwia dostęp substancji szkodliwych, doprowadzając do zmian miażdżycowych. Wśród

czynników uszkadzających śródbłonek wymienia się tlenek węgla (składnik dymu tytoniowego) oraz wysokie ciśnienie

krwi.

2) Choroby układu oddechowego:

A) Przewlekła obturacyjna choroba płuc - zespół chorobowy charakteryzujący się postępującym i niecałkowicie

odwracalnym ograniczeniem przepływu powietrza przez drogi oddechowe. Ograniczenie to wynika z choroby małych

dróg oddechowych i zniszczenia miąższu płucnego (rozedmy) o różnym nasileniu i jest najczęściej związane z

nieprawidłową odpowiedzią zapalną ze strony układu oddechowego na szkodliwe pyły i substancje z jakimi chory ma do

czynienia w ciągu swojego życia. Najczęstszą przyczyną pochp jest narażenie na dym tytoniowy, ale inne czynniki, takie

jak substancje drażniące z powietrza oraz stany wrodzone, na przykład niedobór alfa1-antytrypsyny również mogą

doprowadzić do rozwinięcia się choroby. W USA pochp jest czwartą pod względem częstości przyczyną zgonów. Objawy

są niespecyficzne, dominuje duszność. Rozpoznanie stawia się na podstawie badania spirometrycznego. Pochp jest

chorobą nieuleczalną, a wszelkie działania lekarskie mają na celu spowolnienie procesu chorobowego i poprawę komfortu

życia pacjenta.

B) Astma oskrzelowa - przewlekła, zapalna choroba dróg oddechowych, u podłoża której leży nadreaktywność oskrzeli,

która prowadzi do nawracających napadów duszności i kaszlu, występujących szczególnie w nocy i nad ranem. U podłoża

tych napadów leży wydzielanie przez komórki układu oddechowego licznych mediatorów doprowadzających do

rozlanego, zmiennego ograniczenia przepływu powietrza w drogach oddechowych, które często ustępuje samoistnie lub

pod wpływem leczenia. Astma oskrzelowa zaliczana jest do chorób psychosomatycznych. Może być spowodowana przez

przewlekły alergiczny nieżyt nosa (katar sienny), który wymaga leczenia. Czynniki sprzyjające to palenie tytoniu,

zanieczyszczenie powietrza, dita.

3) Otyłość - patologiczne nagromadzenie tkanki tłuszczowej w organizmie, przekraczające jego fizjologiczne potrzeby i

możliwości adaptacyjne, mogące prowadzić do niekorzystnych skutków dla zdrowia - prowadzi do powstania wielu

innych chorób cywilizacyjnych. Za otyłość uważa się stan, w którym tkanka tłuszczowa stanowi więcej niż 20%

całkowitej masy ciała u mężczyzn oraz 25% u kobiet. Otyłości towarzyszy nadwaga czyli nadmierna masa ciała powyżej

masy optymalnej. Najczęstszą przyczyną jest przekarmianie ale również czynniki genetyczne, biologiczne (np.

Uszkodzenie podwzgórza), niektóre leki (zwałaszcza antydepresyjne),aktywność fizyczna, czynniki psychologiczne.

4) Cukrzyca - grupa chorób metabolicznych charakteryzująca się hiperglikemią (podwyższonym poziomem cukru we

krwi) wynikającą z defektu produkcji lub działania insuliny wydzielanej przez komórki beta trzustki. Przewlekła

hiperglikemia wpływa na uszkodzenie, zaburzenie czynności i niewydolność różnych narządów, szczególnie oczu, nerek,

nerwów, serca i naczyń krwionośnych. Najczęstszą postacią cukrzycy jest cukrzyca typu 2, polegająca na zmniejszonej

wrażliwości tkanek na insulinę (insulinooporność). Stan ten wymaga produkcji nadmiernej ilości insuliny, co w dalszym

przebiegu choroby przekracza zdolności wydzielnicze trzustki. W cukrzycy typu 2, dochodzi do uszkodzenia komórek

beta w wyspach trzustki i upośledzenia, a później zaprzestania wydzielania insuliny. Leczenie wymaga stałego podawania

insuliny. Cukrzyca typu 1 polega na pierwotnym, niedostatecznym wydzielaniu insuliny, przy zachowaniu normalnej

wrażliwości tkanek na ten hormon. Leczenie polega zazwyczaj na redukcji masy ciała, stosowaniu diety cukrzycowej,

wysiłku fizycznego oraz doustnych leków przeciwcukrzycowych, u części chorych po pewnym czasie trwania choroby

konieczna jest insulinoterapia. Podstawowym objawem cukrzycy typu 1 jest podwyższenie stężenia glukozy we krwi,

wielomocz, zwiększone pragnienie, głód, oddech o zapachu acetonu (nagromadzenie ciał ketonowych), utrata ostrości

widzenia. W przypadku cukrzycy typu 2 nie występują wszystkie te objawy.

5) Nowotwory - grupa chorób, w których komórki organizmu dzielą się w sposób niekontrolowany przez organizm, a

nowo powstałe komórki nowotworowe nie różnicują się w typowe komórki tkanki. Utrata kontroli nad podziałami jest

związana z mutacjami genów kodujących białka uczestniczące w cyklu komórkowym: protoonkogenami i

Page 16: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 16

antyonkogenami. Mutacje te powodują, że komórka wcale lub niewłaściwie reaguje na sygnały z organizmu. Powstanie

nowotworu złośliwego wymaga kilku mutacji, stąd długi, ale najczęściej bezobjawowy okres rozwoju choroby. U osób z

rodzinną skłonnością do nowotworów część tych mutacji jest dziedziczona.

6) Osteoporoza - układowa choroba szkieletu, charakteryzująca się niską masą kości, upośledzoną mikroarchitekturą

tkanki kostnej i w konsekwencji zwiększoną jej łamliwością i podatnością na złamania. W pierwszej kolejności choroba

dotyka kości nadgarstka, głowy kości udowej oraz trzonów kręgowych odcinka piersiowego i lędźwiowego kręgosłupa.

Dotyka głównie kobiet w okresie pomenopauzalnym.

7) Migrena – silny ból głowy, który trwa zwykle od 1 do 3 dni i występuje od 1 do razy 4 w miesiącu. Dotyka ludzi w

okresie największej aktywności fizycznej (20-55lat). Objawy choroby: silny, pulsujący, jednostronny ból głowy, często

rozchodzący się od skroni na całą głowę, nudności, wymioty, fotofobia, fonofobia. Czynniki wywołujące napad migreny

to m.in. Menstruacja, wysokie ciśnienie krwi, ogólne przemęczenie, niedokrwistość, stany zapalne zębów, zatok, bóle

kręgosłupa, podróże, zmiana rutyny, nieodpowiednia ilość snu, dym tytoniowy, głód, intensywny zapach, hałas, długie

oglądanie telewizji, niektóre leki (np. Doustna antykoncepcja), czynniki emocjonalne oraz dietetyczne (np. Glutaminian

sodu). Migreny nie można wyleczyć, ale można skutecznie przerywać ataki bólu, złagodzić objawy towarzyszące oraz

zmniejszyć częstość napadów.

8) Choroby przewodu pokarmowego:

A) Choroba wrzodowa żołądka i dwunastnicy - Polega na utworzeniu się ranki (wrzodu) w żołądku lub dwunastnicy

czemu towarzyszy ból, zgaga i szereg objawów niestrawności. Cechą choroby jest nasilanie się w okresie wiosennym i

jesiennym. Choroba wrzodowa może nastąpić w każdym wieku (najczęściej 30-40lat). Częściej chorują mężczyźni. W

powstawaniu choroby duże znaczenie mają mechaniczne urazy oraz wstrząsy psychiczne, zaburzenia w unerwieniu

śluzówki żołądka i właściwości trawiących soku żołądkowego. Błędy dietetyczne i nieregularne odżywianie również

sprzyjają powstawaniu choroby wrzodowej. Czasem choroba wrzodowa może (ale nie musi ) przejść w proces

nowotworowy. Najbardziej charakterystyczne są: uczucie ucisku i pełności po jedzeniu, kwaśne odbijanie, zgaga. Często

występuje zaparcie. W przebiegu choroby wrzodowej wystąpić może krwawienie.

B) Choroba refleksowa przełyku - (GERD) – schorzenie, polegające na nieprawidłowym cofaniu się kwaśnej treści

żołądkowej do przełyku, z powodu niesprawności zwieracza dolnego przełyku. W krajach rozwiniętych 20% populacji

ma objawy GERD przynajmniej 1 raz w tygodniu, natomiast 10% odczuwa je codziennie.

C) Żylaki odbytu - hemoroidy, guzki krwawnicze – poszerzone, często nabrzmiałe żyły splotu odbytniczego. Są

konsekwencją niewydolności żylnej, która może być spowodowana czynnikami genetycznymi oraz/lub stylem życia. Do

czynników sprzyjających powstawaniu żylaków zalicza się: siedzący tryb życia, zaparcia, biegunki. Objawem jest uczucie

niecałkowitego wyprużnienia, śluz, świąd, pieczenie, ból.

D) Biegunka - to objaw kliniczny polegający na znacznym zwiększeniu liczby wypróżnień w ciągu doby, lub zmianą

konsystencji stolca na płynną lub półpłynną. Biegunką określa się również stan, gdy nawet jednorazowo w stolcu pojawia

się treść patologiczna, taka jak śluz, ropa lub krew. Biegunce towarzyszy wzmożona perystaltyka jelit i często kurczowe

bóle brzucha. Przyczyny: infekcje przewodu pokarmowego, przewlekłe zapalne choroby jelit, resekcja żołądka,

wagotomia.

E) Zaparcia - utrudniona lub nieczęsta defekacja. Występuje czasem u osób zdrowych spożywających pokarmy z małą

zawartością płynów i błonnika, prowadzących siedzący tryb życia, stres, u osób w podeszłym wieku i noworodków oraz u

kobiet w zaawansowanej ciąży. Często towarzyszy zaburzeniom czynnościowym jelita grubego.

9) Choroby alergiczne - Środowisko zewnętrzne działając na ustrój wywołuje w nim pewne charakterystyczne reakcje,

zwane odczynami. Na każdy czynnik ustrój reaguje w swoisty sposób– natężenie odczynu jest w pewnej mierze

proporcjonalne do siły działania danego czynnika i jego ,,szkodliwości”. Odczyn ten jest odczynem wyrównawczym

(adaptacyjnym) – umożliwia usunięcie czynnika szkodliwego i naprawienie szkód. Tego rodzaju odczynowość nosi

nazwę odczynowości normergicznej. Jeżeli natomiast ustrój zaczyna reagować gwałtownym odczynem zapalnym na

nieszkodliwe z zasady mleko, lub silnym skurczem oskrzeli na pyłki rosnących traw, mówimy wówczas o odczynowości

nienormalnej, patologicznej, czyli o alergii. Najczęściej wyraża się to nadmiernie silnym odczynie niewspółmiernym z

siłą bodźca i jego szkodliwością. Zatem alergią nazywa się stan, w którym ustrój reaguje w sposób odmienny, niekiedy

dziwaczny, na różne czynniki, z którymi się styka. Alergia wytwarza się w ustroju stopniowo, pod wpływem

kilkakrotnego zetknięcia się z określonymi bodźcami. Mówimy że ustrój uczula się na dany czynnik. Z chwilą kiedy

wytworzy się uczulenie każde następne zetknięcie się ustroju wywołuje charakterystyczną reakcje, zwaną odczynem

alergicznym.

10) Problemy psychologiczne, dewiacje społeczne:

Page 17: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 17

A) Pracoholizm, alkoholizm, narkomania, uzależnienie od Internetu

B) Anoreksja - Jadłowstręt psychiczny – zaburzenie odżywiania się, polegające na celowej utracie wagi wywołanej i

podtrzymywanej przez osobę chorą. Obraz własnego ciała jest zaburzony.

C) bulimia - zaburzenie odżywiania charakteryzujące się napadami objadania się, po których występują zachowania

kompensacyjne. Do najczęstszych zachowań należą: wywoływanie wymiotów, głodówki, użycie diuretyków, środków

przeczyszczających, wykonywanie lewatyw, nadmierne ćwiczenia fizyczne.

D) Choroby afektywne - grupa zaburzeń, w których okresowo występują zaburzenia nastroju, emocji i aktywności, np.

Depresja - zaburzenia psychiczne z grupy chorób afektywnych, charakteryzujące się długotrwałym i nieustającym

przygnębieniem, któremu towarzyszy zaniżone poczucie własnej wartości i utrata możliwości odczuwania przyjemności.

E) Zaburzenia obsesyjno-kompulsywne - myśli obsesyjne występują najczęściej łącznie z kompulsjami (czynność

przymusowa), choć może wystąpić zaburzenie z przewagą myśli czy ruminacji natrętnych, np. Natręctwa - rodzaj

zaburzeń lękowych, wyrażający się występowaniem irracjonalnych myśli i impulsów, którym towarzyszy przekonanie o

ich niedorzeczności i chęć uwolnienia się od nich.

F) Wypalenie zawodowe - występuje, gdy praca przestaje dawać satysfakcję, pracownik przestaje się rozwijać zawodowo,

czuje się przepracowany i niezadowolony z wykonywanego zajęcia, które niegdyś sprawiało mu przyjemność. Jest to

wynik stresu występującego na skutek przepracowania. Występuje najczęściej w zawodach wymagających intensywnych

kontaktów z ludźmi, wśród psychologów, pedagogów, lekarzy, nauczycieli, pielęgniarek i innych. Osoby, które doznają

syndromu wypalenia zawodowego mogły być przedtem pracoholikami.

11) Choroby zakaźne:

A) AIDS - Zespół nabytego upośledzenia odporności wywoływany jest przez ludzki wirus upośledzenia odporności

(HIV). Powodując zaburzenia odporności doprowadza do rozwoju zakażeń oportunistycznych (trudno poddających się

leczeniu) i/lub procesów nowotworowych, a także do upośledzenia funkcji układu nerwowego. Źródłem zakażenia jest

człowiek zakażony wirusem HIV. Może on być zdrowym nosicielem lub wykazywać objawy chorobowe. Wirus HIV

występuje u osoby zakażonej we krwi, nasieniu, wydzielinie z pochwy, mleku kobiecym, ślinie, łzach.

B) Gruźlica - powszechna i potencjalnie śmiertelna choroba zakaźna, wywoływana przez prątka gruźlicy (Mycobacterium

tuberculosis). Gruźlica dotyczy najczęściej płuc (gruźlica płucna) lecz również może atakować ośrodkowy układ

nerwowy, układ limfatyczny, naczynia krwionośne, układ kostno-stawowy, moczowo-płciowy oraz skórę. Zakażenie

może pozostać bezobjawowe i pozostawać w uśpieniu, co zdarza się częściej. Jakkolwiek jedno na dziesięć zakażeń

latentnych w późniejszym czasie ulegnie aktywacji prowadząc, jeśli nie będzie leczone, do śmierci niemal połowy

chorych. Do zakażenia dochodzi więc zazwyczaj drogą kropelkową przez układ oddechowy, znacznie rzadziej innymi

drogami. Źródłem zakażenia jest prątkujący chory na płucną postać gruźlicy. Do zakażenia dochodzi najczęściej w źle

wentylowanych budynkach. Zwiększone ryzyko wystąpienia gruźlicy dotyczy: chorych na AIDS, narkomanów,

alkoholików, osób z osłabioną odpornością zależną od limfocytów T, bezdomnych i niedożywionych, imigrantów, osób

po 65 roku życia.

7. PODSTAWY BUDOWY MATERII, WIĄZANIA CHEMICZNE I

ODDZIAŁYWANIA MIĘDZYCZĄSTECZKOWE – ZNACZENIE W UKŁADACH

BIOLOGICZNYCH (PROF. K. KUBICA)

7.1 BUDOWA MATERII

Materia ma budowę ziarnistą, gdyż składa się z maleńkich cząstek, które nazwane zostały atomami. Atom jest

najmniejszą cząstką pierwiastka, zachowującą w pełni jego właściwości. Szybko okazało się, iż sam atom nie jest

niepodzielny o składa się z dodatnio naładowanego jądra i krążących wokół niego ujemnie naładowanych

elektronów. Jądro atomowe zbudowane jest z dwóch rodzajów cząstek zwanych ogólnie nukleonami. Są to dodatnio

naładowane protony, oraz elektrycznie obojętne neutrony. W jądrze atomowym skupia się niemal cała masa atomu, stąd

sumę wszystkich nukleonów znajdujących się w jądrze określa tzw. Liczba masowa. Liczba atomowa określona jest

przez ilość protonów znajdujących się w jądrze, a ponieważ atom jest elektrycznie obojętny, określa również ilość

elektronów w atomie. Liczba atomowa decyduje o położeniu danego pierwiastka w układzie okresowym. Atomy tego

samego pierwiastka mogą różnić się od siebie liczbą neutronów w jądrze atomowym. Takie atomy noszą

nazwę izotopów.

Page 18: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 18

Masy atomów oraz cząsteczek określa się przy pomocy atomowych jednostek masy, oznaczonej literą „u”. Atomy

poszczególnych pierwiastków łączą się ze sobą na skutek oddziaływania elektronów walencyjnych (najbardziej

oddalonych od jądra). W wyniku tych oddziaływań tworzą się wiązania chemiczne. Wyróżnia się dwa podstawowe

rodzaje wiązań chemicznych, kowalencyjne (zwane również wiązaniem atomowym), oraz jonowe. To, jakie wiązanie

powstanie zależy w głównym stopniu od rodzaju łączących się ze sobą pierwiastków. Liczba wiązań, jakie może

wytworzyć dany pierwiastek nazywana jest jego wartościowością.

Ponadto, masa substratów (związków po lewej stronie równania) biorących udział w konkretnej reakcji chemicznej, jest

zawsze równa masie produktów, które w wyniku tej reakcji powstały (związków zapisanych po prawej strony równania

reakcji). Powyższa zależność nosi nazwę prawa zachowania masy, które jest jednym z podstawowych praw

chemicznych. Drugim ważnym prawem jest tzw. Prawo stałości składu, które mówi, że stosunek mas pierwiastków

wchodzących w skład danego związku chemicznego, jest wielkością stałą.

7.2 WIĄZANIA

7.2.1 WIĄZANIE JONOWE

Tworzy się ono przy różnicy elektroujemności pierwiastków, wchodzących w skład związku chemicznego, równej co

najmniej 1,7. Wynika z tego, że pierwszy atom musi być silnie elektrododatni, a drugi silnie elektroujemny.

Przykład:

Utworzenie takiego wiązania polega na przejściu elektronów z powłoki walencyjnej atomu pierwiastka elektrododatniego

na powłokę walencyjną atomu pierwiastka elektroujemnego. Tworzą się, wówczas jony: dodatni i ujemny, które

przyciągają się wzajemnie.

Pierwiastkami elektrododatnimi są atomy metali 1 i 2 gr., a silnie elektroujemnymi - niemetale 16 i 17 gr. Związki o

budowie jonowej posiadają wysokie temperatury wrzenia i topnienia. W roztworach wodnych i po stopieniu przewodzą

prąd elektryczny. Związki jonowe nie tworzą cząsteczek. Kryształ jonowy zawiera naprzemiennie ułożone jony, które

wzajemnie się przyciągają.

7.2.2 WIĄZANIE ATOMOWE NIESPOLARYZOWANE

Tworzy się wówczas, gdy atomy tego samego pierwiastka posiadają jednakową elektroujemność.

Dążąc do oktetu (lub dubletu) uzupełniają ostatnia powlokę poprzez uwspólnianie elektronów. Wspólna para lub pary

elektronów należą do obu atomów. Znajduje się ona w jednakowej odległości od obu jąder łączących się atomów tak,

więc ładunek rozmieszczony jest symetrycznie.

7.2.3 WIĄZANIE ATOMOWE SPOLARYZOWANE

Tworzy się, gdy łączą się ze sobą atomy różnych pierwiastków, których różnica elektroujemności jest mniejsza niż 1,7.

Przykład:

Polega na uwspólnieniu par lub pary elektronów. Ładunek w tym wypadku nie jest rozmieszczony symetrycznie, ale

przesunięty w stronę jądra atomu pierwiastka bardziej elektroujemnego.

Page 19: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 19

Tworzy się wtedy dipol, czyli układ posiadający budowę biegunową. Cechą charakterystyczna polarnej cząsteczki

jestmoment dipolowy, będący iloczynem bezwzględnej wartości ładunku jednego z biegunów

I odległości między biegunami. Moment dipolowy jest miarą polaryzacji wiązania, czyli także miarą niesymetryczności

rozmieszczenia ładunku. Polarne cząsteczki mogą oddziaływać ze sobą na wzajem

(w przypadku wody takie zjawisko nazywa się asocjacją) lub z innymi cząsteczkami polarnymi, otaczając

Je (jeśli mamy do czynienia z cząsteczkami wody wówczas proces ten nosi nazwę hydratacji).

7.2.4 WIĄZANIE KOORDYNACYJNE (DONOROWO-AKCEPTOROWE)

Tworzy się, gdy para elektronowa pochodzi od jednego atomu. Atom dostarczający parę elektronową nazywany jest

donorem, a atom korzystający z tej pary - akceptorem.

Wiązanie koordynacyjne-utworzenie pary elektronowej. Cala para elektronowa pochodzi od atomu jednego pierwiastka.

Atom pierwiastka, który daje do wiązania tę parę nazywamy donorem, a ten, który tę parę akceptuje akceptorem. Para ta

jest przesunięta w kierunku pierwiastka bardziej elektroujemnego.

Stopień (liczba) utlenienia-liczba wskazująca na ilość elektronów oddanych, pobranych lub przesuniętych.

7.3 ODDZIAŁYWANIA MIĘDZYCZĄSTECZKOWE

Oddziaływania międzycząsteczkowe – inne niż wiązania chemiczne siły wiążące atomy i cząsteczki.

Do oddziaływań tych zalicza się (w kolejności od najsilniejszych do najsłabszych):

Oddziaływania jon-jon (elektrostatyczne) – zachodzą między dwiema różnoimiennie naładowanymi cząsteczkami; od

wiązań jonowych różni je to, że ładunek w oddziałujących ze sobą cząsteczkach nie jest skoncentrowany na jednym

atomie, lecz jest zdelokalizowany na kilku-kilkunastu atomach. Siła ich oddziaływania jest proporcjonalna do

1/r2 (gdzie r – odległość między cząsteczkami). W przypadku ośrodka zawierającego inne ładunki (np. Roztworu

elektrolitu) efekt oddziaływania jest mniejszy. (Zobacz też: para jonowa.)

Wiązania wodorowe – tworzą się, gdy atom wodoru z cząstkowym ładunkiem dodatnim jest współdzielony przez dwie

cząsteczki, które posiadają atomy z cząstkowym ładunkiem ujemnym. Wiązania wodorowe, jeśli występują w obrębie

jednej cząsteczki, są często traktowane jak słabe wiązanie chemiczne; jeśli jednak wiąże ono dwie lub więcej cząsteczek,

można je traktować jako oddziaływanie międzycząsteczkowe.

Oddziaływania trwały dipol – trwały dipol – tworzą się między cząsteczkami posiadającymi trwałe momenty dipolowe.

Cząsteczki takie posiadają w jednych miejscach nadmiar ładunku ujemnego, a w innych jego niedomiar. Oddziałują one

ze sobą tak jak jony – tyle, że oddziaływanie to jest słabsze, gdyż w grę wchodzą cząstkowe, a nie całkowite ładunki

elektryczne, a także przyciąganiu pomiędzy ładunkami różnoimiennymi towarzyszy zawsze odpychanie pomiędzy

ładunkami jednoimiennymi.

Oddziaływania van der Waalsa – są to oddziaływania między trwałym dipolem i wzbudzonym dipolem. W

cząsteczkach, które nie posiadają trwałego momentu dipolowego, może on być wzbudzany przez cząsteczki z trwałym

momentem; następnie taki wzbudzony dipol i trwały dipol oddziałują na siebie podobnie jak dwa trwałe dipole, tyle że

znacznie słabiej. W cząsteczkach bez trwałego momentu dipolowego występują natomiast stochastyczne fluktuacje

ich chmur elektronowych, powodujące powstawanie chwilowych momentów dipolowych. Cząsteczka posiadająca

chwilowy moment dipolowy może go wzbudzić w cząsteczce sąsiadującej, wskutek czego obie cząsteczki mogą się

nawzajem chwilowo przyciągać lub odpychać. Uśrednienie sił odpychających i przyciągających daje w wyniku

oddziaływanie przyciągające proporcjonalne do 1/r6. Oddziaływania van der Waalsa wynikają m.in. Z korelacji ruchów

elektronów pomiędzy oddziałującymi atomami – dlatego w metodach obliczeniowych nie uwzględniających korelacji

elektronowej sił tych praktycznie nie ma.

Należy również uwzględnić fakt, że dla małych odległości pomiędzy atomami czy cząsteczkami pojawia się

oddziaływanie odpychające pomiędzy powłokami elektronowymi, wynikające z obowiązywania zakazu Pauliego.

7.4 ZNACZENIE W UKŁADACH BIOLOGICZNYCH

Page 20: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 20

Wiele cząsteczek ma skłonność do spontanicznego łączenia się w regularne struktury, które często mają inne własności

niż wolne, wyjściowe cząsteczki. Typowym przykładem struktury nadcząsteczkowej jest helisa DNA, która składa się z

dwóch polimerycznych cząsteczek kwasów nukleinowych połączonych razem stosunkowo słabymi wiązaniami

wodorowymi.

Samoorganizacja cząsteczek polega na ich samorzutnej organizacji w bardziej złożone układy bez konieczności ingerencji

z zewnątrz. Zazwyczaj tego rodzaju procesy odbywają się za pomocą oddziaływań niekowalencyjnych. Procesy

samoorganizacji mogą także dotyczyć pojedynczych cząsteczek, które samoistnie przyjmują określona strukturę

(klasycznym przykładem jest zwijanie się białek), związki wykazujące zdolność do takiego zachowania nazywa

się foldamerami. Samoorganizacja na poziomie molekularnym jest kluczowa w tworzeniu się takich układów jak

micele, błony biologiczne oraz ciekłe kryształy. Pełni ona też istotną rolę w inżynierii kryształów.

Przewodzenie prądu- wiązania jonowe podczas rozpadu powodują możliwość przewodzenia impulsów elektrycznych.

Jony pomagają również w transporcie przez błony biologiczne – pompa sodowo potasowa.

Rozrywanie wiązań związane jest z wydzielaniem energii.

8. BŁONY BIOLOGICZNE, MODELOWE BŁONY LIPIDOWE, BADANIA

DOŚWIADCZALNE I TEORETYCZNE (PROF. K. KUBICA)

Page 21: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 21

9. WPŁYW CZYNNIKÓW ŚRODOWISKOWYCH NA ORGANIZMY ŻYWE

(MECHANICZNYCH – ULTRADŹWIĘKI, INTRADŹWIĘKI, WIBRACJE,

WPŁYW PRZYSPIESZEŃ, ZMIAN CIŚNIENIA, TEMPERATURY I

WILGOTNOŚCI, POLA ELEKTRYCZNEGO I MAGNETYCZNEGO,

PROMIENIOWANIE JONIZUJĄCE I NIEJONIZUJĄCE) (PROF. K. KUBICA)

9.1 ULTRADŹWIĘKI

Ultradźwiękami (naddźwiękami) nazywamy fale mechaniczne, sprężyste charakteryzujące się własnościami

dźwiękowymi oraz częstotliwościami od tzw. Górnej granicy słyszalności przez człowieka, która wynosi ok. 20khz, aż do

ok. 10 ghz (częstotliwości hiperdźwięków). Ultradźwięki rozchodzą się zarówno w gazach, jak cieczach i ciałach stałych.

Potocznie określa się je często jako "piski" tak wysokie, że aż niesłyszalne.

Wpływ ultradźwięków na organizmy żywe jest różny w zależności od ich natężenia - wiązka o małym na

tężeniu pobudza rozmnażanie komórek i wzrost, przy dużym natężeniu fali ultradźwiękowej organizmu

obumierają (wpływ na to ma zarówno kawitacja ja i depolimeryzacja łańcuchów białkowych). Odpowiednio

określone natężenie wiązki pozwoli zniszczyć drobnoustroje chorobotwórcze (pałeczki duru brzusznego,

streptokoki, itd., zaś z drugiej strony pozwoli na przyspieszenie procesu wzrostu roślin. Wiązka ultradźwiękowa

o odpowiedniej długości fali i częstotliwości potrafi również likwidować nasiona grzybków pleśni i drożdży.

Przemysł farmaceutyczny wykorzystuje bakteriobójcze własności ultradźwięków przy sterylizacji środków

farmaceutycznych. Własności ultradźwięków pozwalają na tworzenie trwałych emulsji i kruszenia kryształów

(np. Penicylina).

Medycyna

Oprócz diagnostyki ultradźwięki znalazły zastosowanie również w terapii, gdzie wykorzystano działanie

przeciwzapalne, znieczulające, rozkurczowe czy pobudzające krążenie. Wiązka ultradźwiękowa zmniejsza

napięcie mechaniczne tkanek przy jednoczesnym ogrzewaniu miejsca masażu.

Ultradźwięki pozwalają na leczenie bólu mięsni, stłuczeń, zapaleń stawów, odmrożeń. Przy stosowaniu tych

form terapii niezwykle ważne jest dokładne określenie parametrów wiązki, co nie jest łatwe i w związku z tym

jego stosowanie jest ograniczone.

Page 22: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 22

Ultradźwięki wykorzystywane są w rozbijaniu kamieni przy leczeniu kamicy nerkowej czy przewodu

pokarmowego i w oddechowej metodzie terapeutycznej - nebulizacji.

W medycynie do leczenia schorzeń (terapii) stosuje się ultradźwięki o częstotliwościach od 0,8 do 1,2 mhz. Jednak każde

stosowanie ultradźwięków na organizmach żywych, musi być sprawdzone pod względem nieszkodliwości dla układu

nerwowego, który jest na nie szczególnie uwrażliwiony. Dlatego też najczęściej stosuje się ultradźwięki w działaniach

przeciwbólowych, przeciwzapalnych oraz stymulacji zaburzeń neurologicznych.

9.2 INFRADŹWIĘKI

Infradźwiękami nazywamy drgania ośrodka gazowego, ciekłego lub stałego, rozchodzące się w postaci fal

mechanicznych o charakterze dźwiękowym i niskich częstotliwościach - poniżej dolnej granicy słyszalności

człowieka ok. 16mhz. Naturalnie infradźwięki powstają w momencie uderzenia pioruna, silnych wiatrów

fenowych - np. Halny oraz podczas trzęsień ziemi. Jednak ich powstawanie nie zależy jedynie od zjawisk

zachodzących w środowisku naturalnym. Powstają one również w halach fabrycznych i produkcyjnych oraz

statkach, w czasie pracy silników wysokoprężnych i wielkich wiatraków. Niska częstotliwość fal

infradźwięków wpływa na ich znaczne długości fali, a co za tym idzie możliwość łatwego rozchodzenia się na

duże odległości.

Oddziaływanie infradźwięków na ludzkie ciało jest bardzo złożone i niestety niekorzystne. Przede wszystkim

wywołują rezonansowe drgania narządów wewnętrznych, bóle głowy, nudności, bezsenność, zaburzenia w

oddychaniu i trawieniu, a także nerwice, drażliwość i znaczne obniżenie nastroju. Obserwuje się również

niekorzystny wpływ na pracę błędnika, a co za tym idzie, zawroty głowy, trudności w utrzymaniu równowagi

oraz zaburzenia ostrości widzenia. W połączeniu ze spożyciem alkoholu znacznie osłabiają szybkość reakcji.

Odczuwanie bólu pod wpływem oddziaływania infradźwięków wzrasta wraz z obniżaniem ich częstotliwości.

Tak, więc szkodliwość infradźwięków dla organizmów żywych w znacznym stopniu zależy od zakresu

poziomu ich natężenia:

< 120 db - krótkotrwałe oddziaływanie infradźwięków o tym zakresie nie jest odczuwane i nie wywołuj

skutków ubocznych. Nie określono jeszcze, czy długotrwały wpływ takich infradźwięków jest bardzo

szkodliwy.

120 - 140 db. - takie oddziaływanie może powodować zmęczenie oraz początkowe zakłócenia pracy organizmu.

140 - 160 db - nawet krótkotrwałe (ok. 2 min) oddziaływanie infradźwięków jest bardzo szkodliwe, zaburza

równowagę, powoduje nudności lub wymioty. Gdy dłużej jesteśmy narażeni na tego typu infradźwięki,

możemy doświadczyć trwałych uszczerbków na zdrowiu.

> 170 db - oddziaływanie tak mocnych infradźwięków przetestowano w warunkach laboratoryjnych na

zwierzętach. Stwierdzono, że pod wpływem infradźwięków na tym poziomie następuje przekrwienie płuc i

śmierć organizmu.

9.3 HAŁAS

Hałas jest wynikiem nakładania się różnych dźwięków, które ulegają zmieszaniu w sposób pozbawiony ładu.

Hałasem nazywamy w mowie potocznej każdy przeszkadzający nam dźwięk. Jest on w warunkach

normalnych praktycznie nie do unieknięcia. Przyczynia się niewątpliwie do powstawania i rozwoju u ludzi

chorób o podłożu nerwicowym. Wpływ hałasu na organizm ludzki jest różny, lecz przede wszystkim atakuje

układ nerwowy. Jest on tym bardziej niebezpieczny, że jego skutki rzadko ujawniają się od razu - częściej

kumulują się w czasie. Jednak czasem może on być powodem natychmiastowej śmierci.

Hałas jest czynnikiem oddziaływującym ujemnie na samopoczucie psychiczne a przez swoje oddziaływanie na

Page 23: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 23

układ nerwowy - na zdrowie fizyczne człowieka. Może on być jedną z przyczyn pogorszenia jakości i

wydajności pracy. Hałas oddziaływuje ujemnie na organ słuchu i ośrodkowy układ nerwowy powodując

pojawienie się ostrego lub przewlekłego urazu akustycznego, któremu towarzyszy wiele reakcji obronnych, jak

np. Zmiany akcji serca, rytmu oddychania, ciśnienia tętniczego krwi, temperatury ciała itp. Niektórzy lekarze

rozróżniają tzw. Zespół pohałasowy obejmujący: bóle i zawroty głowy, osłabienie, zwiększoną pobudliwość

nerwową, zaburzenie snu, zwiększoną potliwość, uszkodzenie słuchu. Wpływa również na zmniejszenie

zrozumiałości mowy, zaburza wzrok i rozprasza uwagę. Udowodniono, że hałas jest przyczyną przedwczesnego

starzenia i w 30 przypadkach na 100 skraca życie mieszkańców dużych miast o 8-10 lat. Z punktu widzenia

szkodliwości dla zdrowia hałasy można podzielić na:

Hałasy o poziomie poniżej 35 db nie są szkodliwe dla zdrowia, ale mogą być denerwujące. Do hałasów tych

zalicza się np. Szum wody, brzęk przekładanych naczyń lub narzędzi. Hałasy te mogą przeszkadzać w pracy

wymagającej skupienia np. Projektowaniu, pisaniu itp.

Hałasy o poziomie od 35 do 70 db wywierają ujemny wpływ na układ nerwowy człowieka. Pociąga to za sobą

zmęczenie i spadek wydajności pracy. Może on obniżyć zrozumiałość mowy i utrudnić zasypianie i

wypoczynek.

Hałasy o poziomie od 70 db do 85 db trwające stale, mogą powodować zmniejszenie wydajności pracy, trwałe

osłabienie słuchu, bóle głowy i ujemny wpływ na ustrój nerwowy człowieka.

Hałasy o poziomie od 85 do 130 db powodują liczne uszkodzenia słuchu i różne schorzenia, jak zaburzenia

układu krążenia, nerwowego, równowagi i inne oraz uniemożliwiają zrozumiałość mowy nawet z odległości 0,5

metra.

Hałasy o poziomie od 130 db do 150 db pobudzają do drgań niektóre wewnętrzne organy ludzkiego ciała,

powodując ich trwałe schorzenie, a niekiedy zupełne zniszczenie. Ludzie pracujący w takim hałasie mają z

reguły poważnie osłabiony, a najczęściej uszkodzony słuch.

Hałasy o poziomie powyżej 150 db już po 5 minutach całkowicie paraliżują działanie organizmu, powodują

mdłości, zaburzenia równowagi, uniemożliwiają wykonywanie skoordynowanych ruchów kończyn, zmieniają

proporcje zawartości składników we krwi, wytwarzają u człowieka stany lękowe i depresyjne, powodują inne

objawy chorób psychicznych. Wśród ludzi zatrudnionych w hałasie o tym poziomie (np. W hamowniach

silników odrzutowych) aż 80 % zapada na nieuleczalne choroby.

9.4 WIBRACJE

Wibracją określamy przekazywanie drgań mechanicznych z ciała stałego na poszczególne tkanki ciała człowieka lub na

cały organizm. Wibracja i wstrząsy są bodźcami fizycznymi przekazywanymi bezpośrednio z materiału drgającego, z

pominięciem środowiska powietrznego. Towarzyszący wibracji dźwięk powstaje na wskutek przekazania części energii

drgających cząsteczek materiału poprzez powietrze do narządu słuchu człowieka. Przykładem działania wibracji mogą

być odczucia odbierane podczas dotknięcia drgającej struny instrumentu muzycznego. Energia drgań przekazywana jest

tkankom, wywołując podrażnienie zakończeń nerwowych odbierających odkształcenia mechaniczne. Im drgania są

intensywniejsze, tym uczucie związane z ich odbiorem staje się mniej przyjemne.

Pomiary wykazały, że drgania mechaniczne o niskich częstotliwościach powodują pojawienie się rotacyjnych ruchów

głowy. Na skutek tych ruchów zostaje zakłócony układ równowagi, czego konsekwencją jest wystąpienie objawów

choroby lokomocyjnej. Kierowcy często skarżą się na bóle mięśniowe karku i potylicy głowy. Ma to związek z napięciem

mięśni grzbietu i szyi, które powinny przeciwdziałać nadmiernym ruchom głowy spowodowanym wibracją.

Człowiek żyjący w uprzemysłowionych miastach narażony jest na działanie wibracji nie tylko w miejscu pracy

zawodowej. Jest to związane z oddziaływaniem środowiska pozaprodukcyjnego w środkach transportu, w mieszkaniu,

którego podłoga podlega drganiom, np. Podczas przejazdu ciężkiego sprzętu drogowego czy kolejowego. Źródłem

wibracji są różnego rodzaju urządzenia, montowane w budynkach (kotłownie, windy, hydrofory itp.).Działanie wibracji, o

poziomie przekraczającym próg wrażliwości, wywołuje wiele doznań aż do pojawienia się bólu. Najsilniejsze odczucia

wibracji występują przy częstotliwościach do 35 Hz, szczególnie dla zakresu 20 Hz. Przy takich częstotliwościach drgań

Page 24: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 24

występuje rezonans narządowy i silne podrażnienie błędnika, co jest przyczyną najbardziej przykrych doznań.

Istotnym objawem powstającym w następstwie rezonansu narządowego (prowadzi do wypaczenia czynności wielu

organów, co przejawia się ich mniejszą sprawnością lub wystąpieniem nieprawidłowych odruchów połączonych z bólem)

jest także upośledzenie mowy. Jest ono spowodowane rezonansowym drganiem szczęki, zmianami napięcia mięśnia

krtani oraz drganiami słupa powietrza w jamie nosowo-gardłowej. Na to zjawisko ma wpływ także rezonans narządów

klatki piersiowej. Drgania tych narządów (w zakresie 1-4 Hz) o dużej intensywności utrudniają także oddychanie oraz

mogą spowodować ból w okolicy serca.

Wibracja niekorzystnie działa na wzrok, powoduje zwłaszcza pogorszenie jego ostrości. Można to stwierdzić przy dwóch

zakresach częstotliwości: przy 20-40 Hz oraz 60-90 Hz. Pogorszeniu ostrości towarzyszy również zwężenie pola widzenia

i słabsze rozróżnianie barw.

Bardzo przykre następstwa wywołuje wibracja narządów jamy brzusznej, ponieważ ze względu na swobodne zawieszenie

takich narządów jak żołądek, trzustka, śledziona czy wątroba, mogą one ulegać dużym pomieszczeniom.Również

podrażnienie narządu równowagi niesie za sobą nieprzyjemne skutki - są to objawy typowe dla choroby morskiej.

Charakteryzują się one bólem i zawrotami głowy, szumem w uszach, dusznością oraz bólem żołądka i nudnością.

Ponieważ drgania wibracyje są praktycznie nie do uniknięcia należy w celu ochrony przed negatywnymi wpływami jej

czynników stosować produkty ograniczające jej działanie. Klimat akustyczny poprawiają we francuskich miastach

drzewa, których w polskich miastach jest coraz mniej. Dwa rzędy siedmiometrowych topoli są w stanie wytłumić 20 db, a

gęsty żywopłot - dodatkowe 8-11 db. Mniej skuteczne, od eliminowania drgań u źródeł ich powstawania oraz

ograniczania ich rozprzestrzenianiu, jest stosowanie indywidualnych ochron przeciwwibracyjnych. Jednak często są one

jedynym środkiem profilaktycznym. Do podstawowych ochron przeciwwibracyjnych należą:

- rękawice przeciwwibracyjne,

- pasy przeciwwibracyjne,

- poduszki, rękawy i klęczniki przeciwwibracyjne,

- obuwie przeciwwibracyjne.

9.5 WPŁYW CIŚNIENIA NA ORGANIZMY ŻYWE

Atmosfera istniejąca na naszej planecie powoduje istnienie ciśnienia, które to działa na powierzchnię naszej

planety i na wszystkie obiekty i organizmy znajdujące się na niej. Ciśnienie to jest nazywane ciśnieniem

atmosferycznym i jest ciężarem jaki wywiera słup powietrza na jednostkę powierzchni. Wielkość ciśnienia

atmosferycznego nie jest stała i zmienia się wraz z pogodą, z szerokością geograficzną i z wysokością. Im

wyżej znajdujemy się nad poziomem morza tym mniejsze ciśnienie odczuwamy (na każde 10, 5 metra

wysokości ciśnienia atmosferyczne spada o ok. 1,3 hpa). Dlatego też największe ciśnienie panuje tuż przy

powierzchni Ziemi, a najmniejsze na bardzo dużych wysokościach. Obecnie ciśnienie podaje się najczęściej w

hektopaskalach - hpa (hpa = 100 Pa), jednak dawniej stosowaną jednostką były tzw. Milimetry słupka rtęci -

mm Hg. Jednostka ta jest ściśle związana z dawnym przyrządem do pomiaru ciśnienia, w którym to wartość

ciśnienia odczytywało się na podstawie wysokości słupka rtęci znajdującej się w specjalnej rurce. Słupek rtęci o

przekroju 1 cm2, który miał wysokość 760 mm, równoważył ciśnienie jakie panowało w temperaturze 0

0C w

miejscu położonym na poziomie morza, na 45 stopniu szerokości geograficznej. Obie jednostki można

stosunkowo łatwo przeliczyć, bowiem 1000 hpa odpowiada 750 mm Hg. Stąd łatwo można policzyć, że

ciśnienie normalne na poziomie morza, które wynosi 760 mm Hg, odpowiada ciśnieniu 1013,25 hpa.

W naszym kraju ciśnienie atmosferyczne ulega nieustannym wahaniom, związanym z wędrówką układów

niskiego ciśnienia ze wschodu na zachód. W wyniku tych wahań ciśnienie atmosferyczne może w krótkim

czasie zmienić się nawet o 15 hpa.

W wyniku obniżonego ciśnienia w stosunku do ciśnienia normalnego, organizm ludzki może różnie reagować.

To w jaki sposób organizm reaguje na takie zmiany zależy przede wszystkim od:

Szybkości z jaką zachodzi obniżenie się ciśnienia

Page 25: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 25

Wysokości na jaką wznosi się człowiek

Czasu przebywania w środowisku o obniżonym ciśnieniu

Organizm ludzki także reaguje za podwyższanie się ciśnienia. Taka sytuacja spotyka najczęściej ludzi

nurkujących, czy pracujących w kesonach. W miarę jak zwiększa się ciśnienie działające na organizm,

zwiększa się także rozpuszczalność gazów w płynach ustrojowych i tkankach, a zwłaszcza w tkance

tłuszczowej.

Oprócz ciśnienia atmosferycznego, które oddziałuje na obiekty i organizmy znajdujące się na powierzchni

Ziemi, istnieje także ciśnienie hydrostatyczne oddziałujące na obiekty i organizmy znajdujące się pod

powierzchnią wody. Jego wielkość zależy przede wszystkim od wysokości słupa cieczy. Krótko mówiąc im

większa głębokość, tym większy słup cieczy, a co za tym idzie tym większe ciśnienie w tym miejscu panuje.

Ciśnienie w przypadku wody zmienia się wraz z głębokością w ten sposób, że na każdy 1 cm głębokości,

wzrasta ono, aż o 100 Pa, czyli 1hpa. Wielkość ciśnienia hydrostatycznego zależy także od rodzaju cieczy, a

dokładniej od jej gęstości. Im jest ona większa tym większe jest również panujące ciśnienie.

9.6 WPŁYW WILGOTNOŚCI POWIETRZA NA STAN ZDROWIA CZŁOWIEKA

Wilgotność powietrza - zawartość pary wodnej w powietrzu.

Maksymalna wilgotność, czyli maksymalna ilość pary wodnej w określonej ilości powietrza silnie zależy od temperatury

powietrza. Im wyższa temperatura powietrza, tym więcej pary wodnej może się w nim znajdować.

Przekroczenie maksymalnej wilgotności (np. W wyniku obniżenia temperatury powietrza) powoduje skraplanie się pary

wodnej. Dlatego właśnie powstaje wieczorna (nocna) rosa. Nagrzane w dzień powietrze może zawierać w sobie dużo pary

wodnej, gdy przychodzi noc, powietrze ochładza się i spada przez to maksymalna ilość pary wodnej, która może być w

nim zawarta. Nadmiar pary wodnej skrapla się, tworząc na powierzchni ziemi kropelki rosy.

Optymalna wilgotność powietrza to 40-60%Jeżeli spada poniżej 40% zaczynamy odczówac dyskomfort i łatwiej

zapadamy na różne infekcje.Przy podwyższonej wilgotności powietrza i podwyższonej temperaturze możemy mieć

problemy z oddychaniem.

9.7 POLA ELEKTROMAGNETYCZNEGO

9.7.1 1. EFEKTY TERMICZNE.

Jest to jeden z najlepiej zbadanych efektów oddziaływania promieniowania w.cz. Na ustrój. W czasie ekspozycji na

promieniowanie w.cz. Część energii zostaje pochłonięta i zamieniona na ciepło. Obserwuje się 3 fazy: 1)

początkowy, szybki wzrost temperatury o 1-2 C, 2) utrzymanie się temperatury przez pewien czas na tym samym

poziomie, 3) ponowny, szybki wzrost temperatury, czasami prowadzący do koagulacji tkanek. Zjawisko to znalazło

zastosowanie w terapii. Do rozgrzewania głębiej leżących okolic organizmu używa się diatermii krótkofalowej (np.

W celu wywołania przekrwienia). Jest to metoda, która wykorzystując pole elektromagnetyczne o częstotliwości

ok. 27 mhz ( właśnie, stąd okresowe zakłócenia na paśmie CB ) oddziaływuje na tkanki wytwarzając w nich ciepło.

Głębokość tego oddziaływania jest zależna od częstotliwości oraz od kształtu elektrod. Diatermia krótkofalowa

działa szczególnie na kości i wątrobę.

9.7.2 2. EFEKTY NIETERMICZNE.

Jednym z efektów są zmiany morfologiczne w tkankach i narządach.

Największą wrażliwość pod tym względem wykazują tkanki obwodowego i ośrodkowego układu nerwowego. Pod

wpływem pola mogą powstać zmiany w połączeniach międzyneuronowych komórek kory mózgowej, stwierdza się

również zmiany w strukturze samych komórek nerwowych. Pole elektromagnetyczne stanowi również zagrożenie dla

prawidłowej czynności układu sercowo-naczyniowego. U ludzi narażonych występuje m.in.: zwolnienie rytmu serca,

zaburzenia rytmu serca, obniżenie ciśnienia tętniczego. Również udowodnione jest mutagenne działanie pola

elektromagnetycznego. Potwierdzone jest to licznymi doświadczeniami z organizmami niższego rzędu oraz z komórkami

Page 26: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 26

z tkanek ludzkich. Ogólnie uważa się, że szkodliwy wpływ promieniowania w.cz. Na ustrój jest udowodniony, a jego

szkodliwość objawia się najczęściej w postaci: bólów głowy, zaburzeń snu, ogólnego osłabienia i zmęczenia, zaburzeń

pamięci, uczucia duszności, bólów w okolicy serca, uczucia kołatania serca, zawrotów głowy lub obniżenia potencji

płciowej. Jak widać do stracenia jest dużo. Warto więc wiedzieć jak oszacować dobową ilość godzin przebywania w

strefie pola szkodliwego. Dla zakresu częstotliwości 0.1 - 30 mhz należy podzielić liczbę 80 przez zmierzoną wartość

natężenia pola (w woltach na metr ). Do wykonania pomiaru natężenia pola potrzebny jest specjalistyczny skalowany

przyrząd.

9.8 WPŁYW POLA ELEKTRYCZNEGO

Pole elektryczne jest to pole wywołane przez ładunki elektryczne i charakteryzuje się tym, że na nieruchome ciała

naładowane lub cząstki elementarne umieszczone w nim działa siła. N Naturalne pole elektryczne występuje, w

warunkach dobrej pogody, pomiędzy jonosferą (warstwą atmosfery na wysokości 60 do 80 km zawierającą zjonizowane

powietrze), a ziemią i ma natężenie od 100 do 500 V/m (woltów na metr). Jest to również pole o wartości

jednobiegunowej (o częstotliwości zero) z nieregularnymi drganiami wokół wartości średniej. Pole to nie wnika do ciała

człowieka, natomiast człowiek swym ciałem zakłóca je, powodując, że np. Na czubku głowy natężenie tego pola może

być znacznie wyższe. W Wśród sztucznych źródeł pola elektrycznego są m.in. Radio, telefon, komputer, telewizor itp.

Także my sami wytwarzamy pole elektryczne. Na przykładzie błon komórkowych przedstawię zjawiska elektryczne

związane z wytwarzaniem pola elektrycznego w naszych organizmach.

W warunkach spoczynku żywa komórka jest elektrycznie nieczynna. Stan ten związany jest z równowagą ładunków

elektrycznych tworzących dipole. Ujemny ładunek wnętrza komórki zrównoważony jest w tym stanie ładunkiem

dodatnim znajdującym się po zewnętrznej stronie błony komórkowej. Jest to stan polaryzacji komórki.

* W jaki sposób intensywne pole elektryczne działa na człowieka?

Charles Graham, który przeszedł test wrażliwości na pole elektryczne w Midwest Research Institute w Kansas City,

Missouri powiedział, że: „Przebywanie w zasięgu intensywnego pola elektrycznego jest fantastycznym doświadczeniem.

Nic nie widzisz ani nie słyszysz, ale nagle włosy na twoim karku stają dęba. Gdy pole wzrasta, to odczucie

rozprzestrzenia się po całym ciele. Odczuwasz pulsowanie - to jest odczucie mrowienia, pełzania, jakby pluskwy łaziły po

skórze”

Stałe pole elektryczne może oddziaływać na człowieka poprzez wstrząsy elektryczne o różnej sile wynikłe z rozładowania

nagromadzonego ładunku lub przez wyładowania zapłonowe w obecności substancji łatwopalnych oraz wywierać

działania ogólnoustrojowe tzn. Zaburzenia rytmów biologicznych, zakłócenia czynności bioelektrycznej mózgu i serca,

odczuwanie "mrowienia" w różnych okolicach skóry, bóle głowy, drażliwość oraz zwiększona zachorowalność na

choroby układu nerwowego.

Z przeprowadzonych badań wynika, że ważną własnością oddziaływania pola elektrycznego na ciała materialne jest

zasada, że skutek działania tego pola jest niwelowany przez nowe ułożenia ładunków i dipoli wewnątrz ciała. A więc, jeśli

pole zewnętrznych ładunków oddziałuje na przewodnik, to wywołany przez nie ruch ładunków wewnętrznych będzie

trwał dopóty, dopóki wypadkowe pole wewnątrz przewodnika nie osiągnie wartości równej zeru. Tę własność

przewodników nazywa się ekranowaniem pola elektrycznego.

9.9 WPŁYW POLA MAGNETYCZNEGO

W jaki sposób pole magnetyczne działa na organizm?

Stałe pole magnetyczne - słabe pola o indukcji rzędu 0,5 mt stwarzają niebezpieczeństwo generacji w implantach

znacznych sił translacyjnych i skręcających. Pola silniejsze mogą zaburzać pracę rozruszników serca.

Pulsujące pole magnetyczne pobudza ruchy ładunków elektrycznych, a więc także jonów w organizmie. Efekty

działania pulsującego pola magnetycznego to, zatem aktywizacja procesów biochemicznych, a więc lepszy metabolizm na

poziomie komórek, tkanek i narządów. Ponieważ działanie pola zaczyna się na poziomie molekularnym dotyka

pierwotnych przyczyn wszelkich niesprawności i chorób.

Wielka zaleta pola magnetycznego to jego przenikalność - przechodzi przez cały organizm wpływając na wszystkie

rodzaje tkanek

Powoduje wzbudzanie atomów i cząsteczek, a także duże zmiany na poziomie atomowym. Zwiększa aktywność

cząsteczek i przyspiesza metabolizm komórek. Poza tym rozszerza naczynia krwionośne, zmniejsza krzepliwość krwi

oraz zdolność płytek krwi do zlepiania się i zwiększa wychwytywanie tlenu.

Page 27: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 27

Zmienne pole magnetyczne przyspiesza gojenie się tkanki kostnej i jest szczególnie przydatne w tzw. Złamaniach

rzekomych, a także wtedy, gdy kość nie zrasta się w normalnym terminie.

Stałe pole magnetyczne wpływa bardzo korzystnie na gojenie się ran

Czy pole magnetyczne szkodzi?

W zależności od rodzaju pole magnetyczne może działać korzystnie – jest to pole o biegunie północnym - ujemne

zwiększa dopływ tlenu, zasadowość tkanek, przyspiesza metabolizm oraz umożliwia relaksację. Przeciwne działanie

wykazuje pole o biegunie południowym – dodatnie, czyli powoduje zakwaszanie komórek oraz zmniejsza wychwytanie

tlenu, a także powoduje stres.

Według badań przeprowadzonych w Polsce i Stanach Zjednoczonych pole magnetyczne 50 Hz może wpływać na

występowanie pewnych chorób, także nowotworów. Badania wykazały również, że ryzyko wystąpienia nowotworów

krwi u dzieci mieszkających w sąsiedztwie linii wysokiego napięcia oraz transformatorów jest dwa razy większe niż u

dzieci mieszkających z dala od tego typu urządzeń. Naukowcy zauważyli, że choroba ta może się ujawniać w dalszych

pokoleniach.

Z kolei u dzieci, których ojcowie mieli zawody związane z elektryczności oraz jednocześnie pracowali z

rozpuszczalnikami wykryto wzrost zachorowań na nowotwory mózgu. Również dzieci, których matki podczas ciąży

używały poduszek elektrycznych 2,5 razy częściej zapadają na te nowotwory.

Badania wykazały również częstsze zapadanie na raka mózgu i piersi u osób, które pracują przy polu 50 Hz. Naukowcy

zauważyli, że osoby które mieszkają w pobliżu lini wysokiego napięci są bardziej podatni na depresje oraz częściej

popełniają samobójstwa.

Z drugiej jednak strony znajdujemy leczniczy wpływ pola magnetycznego na organizm. Obecnie pole to znalazło szerokie

zastosowanie w medycynie konwencjonalnej jak i niekonwencjonalnej. Już od czasów antycznych uważano, że pola

magnetyczne mają działanie lecznicze. Początki magnetoterapii sięgają czasów egipskich (wcześniej niż akupunktura).

Kleopatra używała magnesów, aby przedłużyć swoją młodość. W Chinach ze skał wydobywano substancję magnetyczną

zwaną kamieniem zdrowotnym. W Grecji wyrabiano z rudy magnesy, które określano kamieniem życia. Następne

wzmianki na ten temat pojawiły się w czasach średniowiecza i odrodzenia. Paracelsus bardzo często używał magnesów do

leczenia niektórych schorzeń. Przypisywał tym magnesom dobroczynny wpływ na psychikę i twierdził, że łagodzą

trudności z zasypianiem. Mesmer wykorzystywał pole magnetyczne do różnych terapii. Przedstawię teraz kilka

przykładów pozytywnego wykorzystania pola magnetycznego.

Zmienne pola magnetyczne znalazły zastosowanie w terapii, w specjalizacji medycyny fizykalnej. Istnieją dwa działy

medyczne wykorzystujące to pole: magnetoterapia oraz magnetostymulacja rozróżniamy je na podstawie parametrów

fizycznych wykorzystywanych pól.

Magnetoterapia wykorzystuje pole magnetyczne o częstotliwości mniejszej od 100 Hz i indukcję magnetyczną rzędu 0,1

mt, do 20 mt, indukcje te są o 2-3 rzędy większe od indukcji magnetycznej pola ziemskiego, która wynosi 30 do 70mt.

Kształty pól stosowanych w magnetoterapii są sinusoidalne, trójkątne oraz prostokątne

Magnetostymulacja wykorzystuje pole magnetyczne o częstotliwości od 2000 do 3000 Hz. Wartości indukcji

magnetycznej wynoszą od 1 pt do 100 mt

Magnetoterapia jak i magnetostymulacja ma działanie:

▪ Przyspiesza proces utylizacji tlenu, a

▪ Powoduje wzrost procesów oddychania tkankowego.

▪ Naczyniorozszerzające i naczyniotwórcze

▪ Nasila proces regeneracji tkanek miękkich

▪ Przyspieszenie procesu tworzenia zrostu kostnego w stawach rzekomych.

▪ Przeciwzapalne

▪ Przeciwobrzękowe

▪ Przeciwbólowe

Stosowanie zmiennych pól magnetycznych może posłużyć do zmiany używania dotychczasowych środków

przeciwbólowych takich jak paracetamol, ibuprofen, czy aspiryna, których używają osoby przewlekle chore.

Page 28: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 28

Zastosowanie pól magnetycznych spowoduje oczyszczenie organizmu z toksyn jak i pewną regenerację tkanek

zniszczonych ciągłym stosowaniem medykamentów. Również stosuje się te pola do regeneracji tkanek uszkodzonych

wskutek urazów mechanicznych, termicznych itp. Spowodowało to wykorzystanie działania tych pól w ortopedii,

medycynie sportowej. Lp Dzięki rozwojowi technologii obecnie pola te można stosować niemalże punktowo, a nie jak

kiedyś ciało pacjenta podlegało całkowitemu działaniu. Zastosowanie:

stany pourazowe - złamania, zwichnięcia stawów, naderwania ścięgien, więzadeł, torebki stawowej, krwiaki

stawy rzekome, zwłaszcza kości piszczelowej, choroba zwyrodnieniowa stawów, osteoporoza

Schorzenia skóry: oparzenia, owrzodzenia podudzi, odleżyny, zmiany troficzne, zwłaszcza podudzi

Schorzenia neurologiczne: migrena, stany po udarach mózgowych, naczynioruchowe bóle głowy

Efekty uboczne występujące podczas stosowanie zmiennych pól magnetycznych

• uczucie ciepła,

• możliwość wystąpienia zaburzeń snu, zwłaszcza u osób starszych,

• możliwość wystąpienia rozdrażnienia,

• możliwość wystąpienia zaburzeń koncentracji.

Pole magnetyczne znalazło również zastosowanie w akupunkturze. Jest to stałe pole, w postaci magnesów, które przykleja

się na punkty akupunkturowe. Oprócz pola magnetycznego pobudzamy punkt akupunkturowy. W efekcie, czego możemy

zmniejszyć ból u osób, które nie przywykły do nakłuwania igłami oraz zmniejszyć ilość zabiegów. W akupunkturze

stosuje się dwa rodzaje magnesów punktowe i powierzchniowe. Magnesy punktowe mają zazwyczaj okrągły kształt, a

pole magnetyczne oddziałuje tylko na punkt akupunkturowy. Natomiast magnes powierzchniowy obejmuje o wiele

większą powierzchnię i stymuluje nie tylko ten punkt, ale także i inne obszary.

Jak widać z powyższych informacji pole magnetyczne ma różnoraki wpływ na nasze zdrowie. Dlatego powinniśmy

zachowywać ostrożność, gdy chcemy z nich skorzystać. Jednocześnie powinniśmy uważać, aby nie narażać innych osób

na niebezpieczeństwo wynikające z emitowania przez różne urządzenia tego pola. Poniżej znajduje się wykaz

nowoczesnych metod wykorzystujących pole magnetyczne i elektryczne w leczeni chorób.

TAAKA CIEKAWOSTKA ;)

Czy rozmawiając przez telefon coś nam grozi?

W czasie, gdy codziennie przybywa milion nowych osób korzystających z telefonu komórkowego pytanie to nie wydaje

się bezpodstawne. Już w latach 80-tych, gdy telefony zaczęły się rozprzestrzeniać zaczęto badania. Dowiedzo, że istnieje

zły wpływ na osobę korzystającą z telefonu, ale tylko podczas rozmowy. Gdy rozmówca odkłada telefon wszystko wraca

do normy. Kolejne badania w latach 90-tych, a był to pięcioletni program prowadzony przez WHO zaprzeczyły

poprzednim wynikom. Jednak nie poprzestano na nich. Wciąż trwają spory, co do wpływu telefonii komórkowej na nasze

zdrowie, i jak dotąd nie powiedziano ostatniego słowa.

Telefon komórkowy jest źródłem silnego pola elektromagnetycznego, pracują na częstotliwościach od 900Mhz do nawet

1800mhz. Podczas rozmowy fale elektromagnetyczne podobne do promieniowanie mikrofalowego powodują nagrzanie

naszej głowy. Jednocześnie w mózgu zmienia się zawartość melatoniny – hormonu wydzielanego przez szyszynkę,

odpowiedzialnego m.in. Za sen i czuwanie, a także wzrasta przepuszczalność błon komórek nerwowych dla jonów

wapnia. Po zakończeniu rozmowy efekty te ustępują. W wyniku badań przeprowadzonych w Wielkiej Brytanii

udowodniono, że nadmierne przegrzanie tkanek powoduje wzrost wydzielania substancji rakotwórczych, które w

normalnych warunkach wydzielają się znacznie wolniej. Również badania te wykazały, że przerzuty nowotworowe mają

tendencję do nasilania się pod wpływem promieniowania elektromagnetycznego emitowanego przez telefony

komórkowe.

Osoby posiadające rozrusznik serca powinny unikać przebywania w silnych polach elektromagnetycznych. Szczególnie

niebezpieczne mogą się okazać telefony komórkowe, których sygnały mają składowe częstotliwościowe mogące

stymulować wadliwą pracę serca. Rozrusznik wytrzymuje, co prawda duże natężenia (rzędu 200 V/m), lecz przewód

łączący go z sercem ma kilkadziesiąt cm i działa jak antena odbiorcza, w której mogą indukować się przebiegi

zakłócające pracę serca. Silne pole magnetyczne może doprowadzić do zmiany programu pracy rozrusznika. Telefony

komórkowe mogą zakłócać pracę rozruszników, jeśli znajdują się w odległości mniejszej niż 20 cm. Komórek nie

powinno się nosić na wysokości serca, a w czasie rozmowy przykładać je do ucha po przeciwnej stronie wszczepionego

Page 29: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 29

stymulatora. Silnych pól elektromagnetycznych powinny też unikać osoby z wszczepionymi metalowymi protezami np.

Kości, gdyż powstałe w metalu prądy wirowe mogą doprowadzić do lokalnego wzrostu temperatury tkanek i poparzeń.

Aby racjonalnie korzystać z telefon komórkowego należ pamiętać o kilku sprawach:

▪ Należy unikać prowadzenia rozmów przez telefon wewnątrz pomieszczeń lub w (rozmowa kierowcy przez telefon

komórkowy w jadącym samochodzie może być przyczyną wypadku i jest zabroniona w niektórych krajach, w tym

również w Polsce);

▪ Wnętrze samochodu zachowuje się jak wnęka rezonansowa i może powodować wzrost natężenia pola,

▪ Znane są przypadki odpalenia poduszki powietrznej, wadliwego działania systemu ABS na skutek pracy telefonu

komórkowego czy ustania pracy układu zapłonowego w polu pochodzącym z pobliskiego nadajnika radiofonicznego

▪ Antena telefonu komórkowego powinna być maksymalnie wysunięta, gdyż ogranicza to pochłanianie energii przez

głowę i zwiększa skuteczność promieniowania.

▪ Telefon należy przekładać, co pewien czas z jednej strony głowy na drugą.

▪ Nadajnik telefonu komórkowego emituje większą moc podczas mówienia niż podczas słuchania.

▪ Nie zaleca się noszenia telefonów na pasku przy ciele, gdyż może to spowodować po dłuższym czasie kłopoty z pracą

organów wewnętrznych.

▪ Niektórzy zalecają, aby dzieci nie używały w ogóle telefonów komórkowych.

▪ Również należy pamiętać, że telefon może powodować zakłócenia w działaniu innych urządzeń, dlatego przebywając w

szpitalu należy go wyłączać

Co to jest smog elektromagnetyczny?

Jest to mieszanina pól elektromagnetycznych, inaczej mówiąc jest to nakładanie się na siebie tych pól) o różnych

częstotliwościach i mocach.

Środowisko, w którym żyjemy w ciągu ostatnich dziesięcioleci uległo szerokim zmianom. W związku, z czym wciąż

wzrasta liczba generatorów smogu elektromagnetycznego. Każde pracujące urządzenie wytwarza elektryczne wytwarza

pole, nawet, gdy się je wyłączy. Według naukowców szkodliwość smogu elektromagnetycznego dorównuje sumie

wszystkich pozostałych czynników powodujących degradację środowiska i nas samych, a zatem toksyn, chemizacji

naszego życia, hałasu i stresu. Twierdzą też oni, iż w ostatnim półwieczu to właśnie smog elektromagnetyczny odpowiada

za większość tzw. Chorób cywilizacyjnych, za wzrost liczby chorób nowotworowych czy też spadek wydolności

immunologicznej. Jest to tym większe zagrożenie, że nie czujemy przenikających nas ciągle fal elektromagnetycznych,

widzimy tylko ich późne efekty.

Komórki Centralnego Układu Nerwowego są bardzo wrażliwe na fale elektromagnetyczne, które np.: u dzieci mogą

powodować wzrost agresywności oraz kłopoty z zapamiętywaniem.

Pole elektromagnetyczne może wywoływać:

• zaburzenia snu,

• bóle głowy,

• brak możliwości skupienia,

• pogorszenie wzroku,

• zmiana ciśnienia krwi,

• zmęczenie nieadekwatne do wysiłku (objaw często występujący u dzieci i młodzieży),

• zmiany obrazu krwi (zachwianie stosunku białych i czerwonych ciałek krwi),

• zmiany poziomu hormonów,

• rozregulowanie cyklu menstruacyjnego,

• możliwość częstszych poronień.

Podsumowanie

W związku z tym, iż nie jesteśmy w stanie ograniczyć działania na nasz organizm pola elektrycznego, magnetycznego,

elektromagnetycznego powinniśmy w jakiś sposób starać się go unikać , jeśli natężenie jest zbyt wysokie. Dlatego ważne

jest przestrzeganie kilku zasad:

ograniczenie oglądanie telewizji, pracy przy komputerze, w odległości równej ośmiokrotnej przekątnej ekranu

Monitory komputerowe i odbiorniki TV należy ustawiać w taki sposób, aby z tyłu obudowy nie znajdowali się ludzie

(fotele, łóżka za ścianą z telewizorem, stanowiska pracy).

Należy ograniczyć rozmowy z radiotelefonów i łączność służbową przez telefony komórkowe i radiotelefony należy

Page 30: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 30

ograniczyć do niezbędnego minimum, a jeżeli istnieje możliwość skorzystania z telefonu stacjonarnego

Należy częściej korzystać z zestawu głośnomówiącgo w samochodzie

Unikać przebywania w miejscu pracy urządzenia np. Wychodzić, gdy jest włączona mikrofalówka

Starać się nie korzystać z kilku urządzeń jednocześnie

Zawsze musimy pamiętać, że zdrowie mamy tylko jedno i to od nas zależy jak o nie będziemy dbać, bo nikt inny za nas

tego nie zrobi.

9.10 PROMIENIOWANIE JONIZUJĄCE

U podstaw szkodliwego biologicznego działania promieniowania na organizmy leżą procesy jonizacji molekół

organizmu wywoływane przez promieniowanie. W wyniku tych procesów w tkankach tworzą się pary jonów

stanowiących wysokie aktywne chemicznie rodniki oraz następuje uszkodzenie struktury dużych cząstek przez ich

rozrywanie lub zlepianie. Prowadzi to do zakłócenia przemian biochemicznych, warunkujących prawidłowe

funkcjonowanie organizmu i do zmian strukturalnych komórek. Niektóre zakłócenia mogą być skorygowane dzięki

autoregulacyjnym właściwościom organizmu, jeśli ich rozmiary nie są zbyt wielkie. Inne zmiany, nieodwracalne,

prowadza do zwyrodnienia lub obumarcia komórek. Czułość tkanki ludzkiej na promieniowanie jonizujące zmienia się w

szerokich granicach. Najczulsze są organy krwiotwórcze i tkanki rozrodcze, najmniej czułymi są mózg i mięśnie. Jeśli

ułożyć tkanki według zmniejszającej się czułości, to otrzymamy kolejno następujący szereg: tkanka limfatyczna-

nabłonek jąder, szpik kostny, nabłonek żołądkowo- jelitowy, jajniki, skóra, tkanka łączna, kości, wątroba, trzustka, nerki,

nerwy, mózg i mięśnie.

Uszkodzenia popromienne, ze względu na rodzaj ich następstw dzielimy na uszkodzenia somatyczne tj. Wpływające na

procesy odpowiedzialne za utrzymanie organizmu przy życiu oraz genetyczne tj. Naruszające zdolność organizmu do

prawidłowego przekazywania cech swemu potomstwu.

Typowym skutkiem poważnych uszkodzeń somatycznych jest ostra choroba popromienna. Składają się na nią m.in.

Mdłości, bóle i zawroty głowy, ogólne osłabienia, zmiany we krwi, a następnie biegunki, czasami krwawe z powodu

owrzodzeń jelit, skłonności do krwawych wybroczyn w tkankach, niedokrwistość, wrzodziejące zapalenie gardła,

obniżenie odporności organizmu i wypadanie włosów. W zależności od stopnia uszkodzeń choroba popromienna może

zakończyć się śmiercią lub przejść w fazę przewlekłą ze stopniowym wyniszczeniem organizmu zakończonym najczęściej

białaczką lub anemią aplastyczną i ostatecznie śmiercią. W wypadku mniejszych uszkodzeń jest szansa na powrót do

zdrowia. Możemy pomóc organizmowi poprzez przeszczep szpiku kostnego.

Jednakże nawet po bardzo słabych objawach choroby popromiennej mogą po wielu latach wystąpić tzw. Skutki

opóźnione. Są to:

- przedwczesne starzenie

- skrócenie życia

- niedokrwistość

- białaczka

- nowotwory

- zaćma

Uszkodzenia genetyczne polegają na zmianie struktury chromosomów wchodzących w skład komórek rozrodczych. Ich

następstwem są mutację przejawiające się w zmianie dziedziczonych przez potomstwo cech ustroju. Uszkodzenia

chromosomów, a właściwie zmiany w składających się na nie genach, są kopiowane przez następne generację komórek.

Zmieniony nieprawidłowy kod genetyczny może być tak samo stabilny i czynny jak jego poprawny odpowiednik.

Powoduje to różnego rodzaju wady dziedziczne potomstwa w kolejnych pokoleniach.

9.10.1 WPŁYW NA KOMÓRKI ŻYWE

Wpływ promieniowania jonizującego na organizmy żywe jest w naturalny sposób związany z oddziaływaniem tego

promieniowania na komórki. Ma on charakter statystyczny: ten sam rodzaj promieniowania i taka sama dawka w komórce

Page 31: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 31

za każdym razem wywołać inną reakcję lub też brak jakiejkolwiek reakcji. Jednakże im więcej promieniowania dotrze do

komórki, tym prawdopodobieństwo pojawienia się efektu promieniowania wzrasta (hipoteza liniowa).

Jeśli promieniowanie dotrze do cząsteczek istotnych z punktu widzenia funkcji życiowych, jak np. Cząsteczki DNA,

uszkodzenie komórki będzie z reguły większe niż w przypadku, gdy będzie oddziaływało z mniej istotnymi cząsteczkami,

jak np. Cząsteczki wody. Najbardziej podatne na wpływ promieniowania są te komórki, które się szybko rozmnażają.

Komórki mają pewną zdolność regeneracji uszkodzeń, którą nabyły poprzez wieki obcowania z tłem naturalnego

promieniowania. Jednakże, jeśli komórka podzieli się zanim zdoła zregenerować swe uszkodzenia popromienne, nowe

komórki mogą nie być identycznymi kopiami komórki wyjściowej.

Dzięki możliwości regeneracji uszkodzonych komórek, nie możemy stwierdzić wpływu dawek porównywalnych z tłem

na pojedynczego osobnika. Wpływ ten możemy ewentualnie stwierdzić dla całych ekspozycji.

W kontakcie żywej komórki z promieniowaniem jonizującym możemy mieć do czynienia z czterema różnymi efektami:

1. Zniszczenie komórki jest tak duże, że nie będzie ona w stanie pełnić swych dotychczasowych unkcji i umrze.

2. Komórka, choć żywa, traci swą zdolność do reprodukcji.

3. Kod DNA zostanie uszkodzony w ten sposób, że powstające kopie komórek będą się różnić od komórki pierwotnej.

4. Promieniowanie może nie mieć wpływu na komórkę.

Efekty zdrowotne po napromieniowaniu u człowieka.

Dawka (w Sv) Efekty

0,05-0,2 Możliwe efekty opóźnione i zaburzenia chromosomalne

0,25-1,0 Zmiany we krwi

Ponad 0,5 Możliwa chwilowa niepłodność u mężczyzn

1-2 Wymioty, biegunka, mniejsza odporność, zahamowanie rozrostu kości

2-3 Silna choroba popromienna, 25% zgony

Ponad 3 Całkowita niepłodność u kobiet

3-4 Zniszczenie szpiku i miąższu kostnego, 50% szansa na przeżycie

4-10 Ostra choroba i śmierć u 80% napromieniowanych

Z tabelki wnioskujemy, iż małe dawki promieniowania nie są w stanie poważnie zagrozić naszemu zdrowiu. Spowodować

one mogą jedynie drobne niegroźne zaburzenia. Dopiero dawki promieniowania powyżej 2Sv mogą spowodować

poważne anomalie zdrowotne łącznie z możliwością śmierci.

Ochrona przed promieniowaniem

Podstawowe czynniki decydujące o tym ile promieniowania do nasz dotrze to:

- czas

- odległość od źródła

- osłona

CZAS:

Dawka, jaką człowiek otrzyma zależy od czasu przebywania w pobliżu źródła promieniowania jonizującego.

ODLEGŁOŚĆ:

Dawka otrzymywana przez człowieka zależy od jego odległości od źródła promieniowania Im odległość ta jest większa

tym dawka mniejsza.

OSŁONA:

Jednym ze sposobów osłabienia dawki jest umieszczanie pomiędzy źródłem promieniowania a osobą narażoną

dodatkowego materiału, zwanego osłoną. Każda osłona zmniejsza zarówno energię jak i natężenie padającego

promieniowania jonizującego. Ponieważ oddziaływanie cząstek alfa, beta, gamma czy neutronów silnie zależy od liczby

atomowej Z atomów ośrodka, tak dobieramy osłony, aby mieć dostateczną ilość atomów znacząco podatnych na

jonizację. Jeśli osłona jest, więc wystarczająco gruba, cała energia zostanie zużyta na jonizację osłony i do człowieka za

Page 32: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 32

osłoną promieniowanie już nie dotrze. Najczęstszymi osłonami są: stal, beton, ołów, gleba. Dla każdego materiału można

zmierzyć grubość, która powoduje, że przechodzi przezeń tylko połowa promieniowania g .

Biorąc na osłonę materiał dwa razy grubszy niż ta warstwa połówkowa zmniejszymy promieniowanie czterokrotnie,

trzykrotnie grubszy materiał zmniejszy promieniowanie ośmiokrotnie, itd.

Zdolność osłonowa materiału zależy od rodzaju promieniowania. Cząstki alfa (pochodzące ze znanych rozpadów

promieniotwórczych) dają się zatrzymać już przez kartkę papieru lub zewnętrzną warstwę naskórka naszej skóry. Cząstki

beta (pochodzące ze znanych rozpadów promieniotwórczych) są bardziej przenikliwe. Mogą one przeniknąć przez około

3 cm warstwę wody czy ciała ludzkiego, ale zatrzymać je można już przy pomocy 1 mm blachy aluminiowej. Najbardziej

przenikliwe są cząstki gamma. Wymagają użycia materiałów o dużej gęstości np.: ołów, beton.

10. KOMÓRKA PODSTAWOWĄ JEDNOSTKĄ ŻYCIA; ORGANIZACJA

STRUKTUR KOMÓRKOWYCH. KOMUNIKACJA WEWNĄTRZKOMÓRKOWA

I ZEWNĄTRZKOMÓRKOWA. (PROF. K. KUBICA)

Rysunek 10.1 Komórka zwierzęca - budowa.

Rysunek 10.2. Budowa komórki roślinnej

Teoria komórkowa głosi, że komórka jest podstawową jednostką zarówno strukturalną, jak i najmniejszą reprezentatywną

cząstką funkcjonalną wykazującą wszystkie charakterystyczne właściwości istot żywych.

Każda komórka zawiera jądro, jest otoczona błoną plazmatyczną oraz wypełniona jest cytoplazmą. Jądro jest ważnym

ośrodkiem kontrolnym: zawiera ono czynniki dziedziczne, czyli geny, sprawujące kontrolę nad cechami komórki i

organizmu oraz kieruje pośrednio lub bezpośrednio wieloma czynnościami komórki. Od otaczającej jej cytoplazmy

oddzielone jest przez błonę jądrową złożoną z dwóch błon elementarnych. W jądrze znajduje się jąderko (może

występować więcej niż jedno). Jąderka zanikają, kiedy komórka przygotowuje się do podziału, a potem pojawiają się

ponownie.

W komórkach zwierząt i pewnych roślin niższych w sąsiedztwie jądra występują parzyste małe, ciemno barwiące się,

cylindryczne ciałka – centriole. Odgrywają one ważną rolę w podczas podziału komórki w rozdzielaniu chromosomów i

rozchodzeniu się ich do przeciwległych biegunów oraz organizowaniu wrzeciona podziałowego.

Zawartość komórki znajdującej się na zewnątrz błony jądrowej i otoczoną plazmatyczną błoną komórkową nazywamy

cytoplazmą. Złożona jest ona z półpłynnej substancji – matriks, w której zawarte są błony i obszary ograniczone błonami.

Page 33: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 33

Błony te tworzą mnóstwo rurkowatych pasemek, określanych jako retikulum endoplazmatyczne, które wypełnia

większość cytoplazmy. Pozostałą przestrzeń wypełniają mitochondria, struktury Golgiego, centriole, plastydy i inne.

Mitochondria są to organelle o wymiarach 0,2-

komórce wynosi od kilku do tysiąca lub więcej. Mitochondria mogą się przemieszczać, zmieniać wielkość i kształt, łączyć

się ze sobą tworząc większe struktury oraz rozpadać się na krótsze fragmenty. Ich główną funkcją jest dostarczanie

biologicznie użytecznej energii.

W komórkach większości roślin wyróżnia się plastydy, małe ciałka biorące udział w syntezie i magazynowaniu

substancji pokarmowych. Spośród plastydów najważniejszą rolę odgrywają chloroplasty, zawierające zielony barwnik

chlorofil, który nadaje roślinom zielone zabarwienie i spełnia podstawową funkcję w fotosyntezie pochłaniając energię

promieniowania słonecznego. W komórce znajduje się na ogół od 20 do 100 chloroplastów.

Aparaty Golgiego są powszechnym składnikiem komórek eukariotycznych. Ich specyficzną cechą jest to, iż posiadają

zdolność do redukcji azotanu (V) srebra (I). Organella te nie występują w komórkach prokariotycznych. Ich liczba w

komórce jest różna. U glonów jest ich zaledwie kilka, natomiast u okrytonasiennych może dochodzić do kilkuset. Aparat

Golgiego to struktury błoniaste - cysterny, ułożone jedna na drugiej. Struktura ta występuje w pobliżu jądra

komórkowego. W aparacie Golgiego następuje synteza i wydzielanie wielocukrowców, śluzów i innych związków. Jest

to także miejsce gdzie zachodzi przebudowa i różnicowanie się błon przeznaczonych do wbudowania w plazmalemmę.

Substancje te są przenoszone przez małe pęcherzyki transportujące, odrywające się od centralnie położonych cystern.

10.1 ORGANIZAZCJA STRUKTUR KOMÓRKOWYCH: (CHYBA CHODZI O TKANKI)

Grupę lub warstwę komórek wyspecjalizowanych w podobny sposób i pełniących wspólnie pewną specyficzną funkcję

nazywamy tkanką. W skład tkanek mogą wchodzić nie tylko żywe komórki, lecz i substancje niekomórkowe. Wyróżnia

się 6 typów tkanek:

Tkanka nabłonkowa, zwana tkanką graniczną lub nabłonkiem, wyróżnia się nabłonek wielowarstwowy i

jednowarstwowy. Komórki tkanki nabłonkowej stanowią główną masę nabłonka, a ilość substancji międzykomórkowej

między nimi jest minimalna. Ściśle przylegają do leżącej poniżej błony podstawnej lub otaczającej substancji

pozakomórkowej. Komórki nabłonka połączone są specjalnymi złączami - desmosomami, a czasem granica między nimi

(czyli błona komórkowa) całkiem zanika i powstaje tzw. Syncycjum (inaczej zespólnia lub syncytium). Komórki

przylegają do siebie ściśle dzięki mechanizmom łączącym cytoszkielety sąsiadujących komórek. Połączenia między nimi

stanowią: połączenia zamykające, zwierające oraz połączenia typu nexus blue. Nabłonek pełni przede wszystkim funkcję

ochronną, ale w związku z faktem, że jego komórki wytwarzają całą gamę dodatkowych tworów komórkowych, jak

mikrokosmki, rzęski, wici, włoski itp., pełni też wiele innych funkcji, między innymi bierze udział we wchłanianiu

pokarmu, chroni przed inwazją mikroorganizmów, bierze udział w wymianie gazów i wydalaniu.

Tkanka łączna, komórki tkanki łącznej wytwarzają dużą ilość substancji międzykomórkowej, która wypełnia

przestrzenie między nimi i składa się z istoty podstawowej oraz włókien. Tkanka łączna ma za zadanie: spajać różne typy

innych tkanek, zapewniać podporę narządom i ochraniać wrażliwe części organizmu. Tkanka łączna właściwa dzieli się

na: łączną zbitą, łączną zarodkową, łączną tłuszczową, łączną galaretowatą, łączną siateczkowatą, łączną wiotką.

Wyróżnia się również tkankę łączną oporową, chrzęstną (włóknistą, sprężystą i szklistą) oraz tłuszczową (komórki tej

tkanki gromadzą tłuszcz, który może być wykorzystywany przez organizm jako źródło energii potrzebnych do

normalnego funkcjonowania. Tkanka ta występuje pod skórą kręgowców, a także wokół serca i nerek. Jej głównym

zadaniem jest zatrzymywanie ciepła w organizmie)

Tkanka mięśniowa Składa się z włókien mięśniowych, zbudowanych z miocytów (zespołów komórek

mięśniowych), posiadających zdolność do aktywnego kurczenia się. Rodzaje tkanki mięśniowej: poprzecznie

prążkowana szkieletowa, poprzecznie prążkowana serca oraz gładka. Wykonanie skurczu następuje dzięki

występowaniu w nich miofibryli, czyli włókienek kurczliwych zbudowanych z łańcuchów polipeptydowych.

Efektywność ruchu w mięśniach jest możliwa dzięki ścisłemu ułożeniu włókien mięśniowych, pomiędzy

którymi nie występuje żadna inna tkanka. Mechanizm działania miofybryli jest aktualnie przedmiotem dyskusji

naukowej i istnieją na ten temat dwie rozbieżne teorie. Tkanka mięśniowa nie ma własnej substancji

międzykomórkowej, a elementy mięśniowe połączone są ze sobą za pomocą tkanki łącznej wiotkiej. Pomimo

Page 34: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 34

obecności w komórkach mięśniowych jądra komórkowego oraz pewnej zdolności do podziału, ubytki w tkance

mięśniowej tylko w niewielkim stopniu są uzupełniane w wyniku podziału nieuszkodzonych komórek.

Najczęściej zostają one zastąpione tkanką łączną tworzącą w tym miejscu bliznę. Tkanki mięśniowe,

poprzecznie prążkowana serca i gładka unerwione są przez układ współczulny i działają niezależnie od woli

człowieka. Natomiast mięśnie poprzecznie prążkowane, unerwione somatycznie, kurczą się zgodnie z wolą

człowieka.

Krew – opisana w punkcie 6.

Tkanka nerwowa - zadaniem tkanki nerwowej jest odbieranie, przekazywanie, a następnie właściwe

reagowanie na bodźce pochodzące ze środowiska zewnętrznego. Wykonywanie tych funkcji jest możliwe

dzięki odpowiedniej budowie tej tkanki. Tkankę nerwową tworzą komórki nerwowe, zw. Neuronami oraz

komórki glejowe, tzw. Glej. Komórki nerwowe to podstawowe jednostki strukturalno-funkcjonalne. Ciało

neuronu (perikarion) zawiera w sobie wszystkie organelle, jakie występują w typowych komórkach

zwierzęcych, lecz dodatkowo - z uwagi na utrzymywanie wysokiej aktywności biosyntetycznej - zaopatrzone są

w tzw. Ciałka Nissla (szorstka siateczka endoplazmatyczna gęsto upakowana rybosomami). Od innych komórek

neurony odróżnia obecność odchodzących od ciała komórkowego wypustek. Dendryty są zazwyczaj liczniejsze,

krótsze, ale bogato rozgałęzione, otrzymują one większość informacji, jakie dochodzą do komórki. Tymczasem

akson to pojedyncza, dłuższa wypustka, słabo rozgałęziona, która przewodzi bodźce od ciała do zakończenia

komórki. Aksony otoczone są osłonkami, utworzonymi przez komórki gleju: komórki Schwanna (obwodowy

układ nerwowy) i oligodendrocyty (centralny układ nerwowy). Dzięki tym osłonkom mielinowym zapewniona

jest ochrona mechaniczna oraz izolacja elektryczna aksonu.

Tkanka rozrodcza – składa się z komórek służących do rozmnażania się, mianowicie z komórek jajowych oraz komórek

plemnikowych. Komórki jajowe mają zwykle kształt kulisty lub owalny i są nieruchliwe. Plemniki są znacznie mniejsze

od komórek jakowych; utraciły one większość cytoplazmy i wykształciły wić zwaną ogonkiem, dzięki której mogą się

poruszać.

10.2 KOMUNIKACJA ZEWNĄTRZ I WEWNĄTRZKOMÓRKOWA

Http://www.ib.uph.edu.pl/bk_blony.htm // wszystko o transporcie między komórkami,

11. KOMÓRKI MACIERZYSTE NADZIEJĄ WSPÓŁCZESNEJ MEDYCYNY.

(PROF. K. KUBICA) Komórki macierzyste (inaczej komórki pnia) to komórki, które:

Są zdolne do potencjalnie nieograniczonej liczby podziałów, czyli są... Nieśmiertelne,

Mają zdolność do przekształcania się w inne typy komórek.

Komórki macierzyste dzieli się na podgrupy na podstawie licznych kryteriów, takich jak pochodzenie komórek

embrionalnych czy też ich zdolność różnicowania się w dowolne rodzaje komórek. Komórki macierzyste szpiku i krwi

pępowinowej są już dobrze znane i znalazły zastosowanie w terapii wielu chorób krwi, takich jak chociażby nowotwory i

niedobory odporności.

Niedawno odkryto natomiast komórki macierzyste w płynie owodniowym, który otacza i chroni płód w łonie matki.

Komórki te bardzo szybko się dzielą, a poddane odpowiednim stymulacjom (np. Hormonalnym) posiadają zdolność

różnicowania się w poszczególne rodzaje komórek.

Komórki macierzyste z płynu owodniowego (Amniotic Fluid-derived Stem cells, AFS) mogą być pobierane w trakcie

przeprowadzania testów prenatalnych albo z łożyska - już po porodzie. Komórki te, podobnie jak aktualnie pobierane z

krwi pępowinowej, mogłyby być przechowywane przez całe życie dziecka w ciekłym azocie, w odpowiednio

przygotowanych pomieszczeniach, zarejestrowanych jako banki komórek macierzystych. Dzięki swoim właściwościom

mogłyby zostać użyte do odtworzenia uszkodzonych tkanek w późniejszym życiu dziecka - bez ryzyka odrzucenia ich

Page 35: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 35

przez układ odpornościowy. Przy odpowiedniej stymulacji można by wyhodować z nich dowolny narząd lub strukturę

(np. Naczynie tętnicze), a dzięki zgodności z układem odpornościowym dziecka mógłby on zostać przeszczepiony nawet

bez konieczności przyjmowania leków zapobiegających odrzuceniu.

Komórki macierzyste mają zdolność podwojenia swojej liczby w ciągu 36 godzin. Tak olbrzymie tempo umożliwia także

ich szybką hodowlę. Może to stanowić przełomowy sposób na zabezpieczenie zdrowia dziecka i jego najbliższej rodziny,

bo te cenne komórki już nigdy później nie będą produkowane przez organizm. I - co szczególnie ważne - w chwili

narodzin dziecka mogą zostać pobrane w sposób nieinwazyjny.

12. BAKTERIE W ŻYCIU CZŁOWIEKA . KOMÓRKA EUKARIOTYCZNA I

PROKARIOTYCZNA. WYKORZYSTANIE RÓŻNIC W PROJEKTOWANIU

LEKÓW. KOMÓRKA GRAM +/-. ORGANIZACJA PRACY W

LABORATORIUM MIKROBIOLOGICZNYM (KLASYFIKACJA

LABORATORIÓW). PROCEDURA ANTYBIOTYKOGRAMU. (PROF. K.

KUBICA) Komórka – podstawowa jednostka strukturalna, w której zachodzą wszystkie procesy chemiczne. Najmniejsza cząstka

materii żywe; twór zdolny do samodzielnego istnienia lub wchodzi w skład złożonych organizmów; może posiadać

mikrostruktury; struktura zdolna do samo powielania; posiada materiał genetyczny; struktura realizowana w procesie

życia.

Komórka eukariotyczna i prokariotyczna:

Kom. Eukariotyczna posiada jądro komórkowe, natomiast prokariotyczna go nie posiada, ale ma nukleoid, bądź w

przypadku bakterii genofor.

Porównanie komórki prokariotycznej i eukariotycznej

Kategoria komórki Komórka prokariotyczna Komórka eukariotyczna

Występowanie Bakterie właściwe, archebakterie Protista, grzyby, rośliny, zwierzęta

Poziom organizacji Jednokomórkowe Jedno- i wielokomórkowe

Wymiary komórki (średnio) 1–10 µm 10–100 µm

Page 36: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 36

Wybrane organelle: jądro komórkowe

siateczka śródplazmatyczna

mitochondria plastydy aparat Golgiego

pęcherzyki wakuole centriole

rybosomy rzęski

Brak brak brak brak brak obecne

obecne (wakuole gazowe w

komórkach niektórych bakterii) brak

obecne rzęski bakteryjne

Obecne obecna obecne obecne (w

komórkach roślin i niektórych Protista)

obecny obecne obecne (w komórkach

roślin, grzybów i Protista) obecne

obecne rzęski eukariotyczne

Cytoszkielet Brak Obecny (włókienka, mikrotubule)

Genom Kolista (w większości komórek) lub

liniowa cząsteczka DNA – nukleoid Liniowe cząsteczki DNA (chromatyna)

Wymiary DNA: długość masa

cząsteczkowa (kda)

(4 × 106 : 200) 68 nm = 1,36 mm 4 ×

103 × 600 kda = 2,4 × 10

6 kda

(5,3 × 109 : 200) 68 nm = 1802 mm 5,3

× 106 × 600 kda = 3 × 10

9 kda

Chromosom: liczba Kolista, rzadko liniowa cząsteczka

DNA 1

Skondensowana, mitotyczna lub

mejotyczna postać chromatyny liczne

(podwójne w komórce

diploidalnej, pojedyncze w

haploidalnej); jeden w mitochondrium,

jeden lub więcej w plastydach

Ściana komórkowa Obecna (peptydoglikan)

Obecna w komórkach roślin (celuloza),

niektórych komórkach Protista

(celuloza) i komórkach grzybów

(chityna)

Podziały (mitoza, mejoza) Brak Obecne

Metabolizm Tlenowy i beztlenowy Tlenowy, rzadko beztlenowy

Bakterie gramdodatnie oraz gramujemne:

Gramdodatnie

Bakterie, które absorbują i zatrzymują fiolet krystaliczny podczas procesu wybarwiania. Ich ściany są bardzo grube i

składają się głównie z peptydoglikanu (mureiny). Przykłady pospolitych bakterii gramdodatnich:

Bakterie mlekowe – mogą fermentować cukier zawarty w mleku

Paciorkowce – przeprowadzające fermentację

Gronkowce – bakterie tlenowe

Klostridia – beztlenowe, które przeprowadzają fermentację

Promieniowce – organizmy prokariotyczne przypominające grzyby

Gramujemne

Nie zatrzymują barwnika. Ich ściany składają się z dwu warstw, cienkiej ściany z peptydoglikanu oraz grubej błony

zewnętrznej zbudowanej z lipoproteiny i lipo polisacharydu. Przykłady pospolitych bakterii gram ujemnych:

Bakterie wiążące azot – tlenowe bakterie, wiążące azot cząsteczkowy

Bakterie jelitowe – duża grupa zróżnicowanych, względnie tlenowych, heterotrofów

Krętki – spiralny kształt, giętkie ściany komórkowe, poruszają się przy pomocy włókien osiowych

Sinice – fotosyntetyzujące autotrofy

Page 37: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 37

Riketsje – bezwzględne wewnątrzkomórkowe pasożyty, niektóre powodują choroby u ludzi

Chlamydie – bezwzględne wewnątrzkomórkowe pasożyty

Bakterie śluzowe – jednokomórkowe pałeczki

Różnice w składzie ściany komórkowej bakterii gramdodatnich i gramujemnych mają duże znaczenie. Antybiotyk

penicylina zakłóca proces syntezy peptydoglikanu, prowadząc do powstania osłabionej ściany komórkowej, która nie jest

w stanie zapewnić komórce skutecznej ochrony. Penicylina działą najskuteczniej na bakterie gramdodatnie.

Mikrobiolodzy na podstawie różnic w budowie ściany komórkowej wyróżniają trzy główne grupy eubakterii. Są to

bakterie pozbawione ściany(np. Mikoplazmy), bakterie gramujemne i gramdodatnie.

ZALECENIA KRAJOWEGO SPECJALISTY W DZIEDZINIE MIKROBIOLOGII w sprawie organizacji i zasad

działania laboratoryjnej diagnostyki mikrobiologicznej

Laboratoria mikrobiologiczne mają za zadanie prowadzenie diagnostyki mikrobiologicznej dla chorych szpitalnych i

leczonych poza szpitalem. Laboratoria mikrobiologiczne diagnozują zakażenia (choroby infekcyjne) wywołane

drobnoustrojami takimi jak: bakterie, wirusy, grzyby i pierwotniaki. Ponadto biorą one udział w opracowywaniu i

rozwiązywaniu problemów epidemiologicznych oraz terapeutycznych, w tym związanych z zakażeniami szpitalnymi.

W badaniach mikrobiologicznych czynnik zakaźny powinien być wyizolowany i zidentyfikowany, lub jego obecność

oznaczona pośrednio poprzez wykrycie u chorego antygenów drobnoustroju albo przeciwciał przeciwko wywołującemu

zakażeniu patogenowi.

Typy laboratoriów:

Podstawowe

Przyszpitalne dla szpitala mniej niż 400-łóżkowego i chorych leczonych ambulatoryjnie w przychodniach

przyszpitalnych,

Przyszpitalne obejmujące 2-3 mniejsze szpitale,

Podstawowe dla chorych leczonych pozaszpitalnie.

Istnienie małych pracowni z natury swej (mała liczba badań) przeinwestowanych w sprzęt i ludzi jest nieekonomiczne, a

także nie gwarantuje wysokiej jakości badań, stąd tworzenie laboratoriów przy małych jednostkach powinno być

uzależnione od możliwości korzystania z usług w dużych ośrodkach. W zależności od usytuowania szpitala, posiadanych

przez szpital pomieszczeń, można rozważać możliwość organizowania większych jednostek obsługujących np. Kilka

szpitali, korzystniejszych z punktu widzenia ekonomicznego oraz standaryzacji i wiarygodności badań. W takich

sytuacjach konieczny jest dobrze zorganizowany transport próbek materiału i system przekazywania wyników.

Szerokoprofilowe

Przy dużym zespole szpitalnym około 500-łóżkowym np. Specjalistycznym,

Przy zespole szpitali klinicznych,

Laboratorium wojewódzkie przy szpitalu wojewódzkim.

Laboratoria lub pracownie referencyjne

Znajdujące się w obrębie laboratoriów wieloprofilowych,

Akademiach medycznych, instytutach PAN

W jednostkach badawczo-rozwojowych

Laboratoria o wąskim profilu specjalistycznym

Diagnostyki gruźlicy usytuowane przy szpitalach przeciwgruźliczych i zespołach sanatoryjnych

Diagnostyki grzybic skóry umiejscowione przy klinikach dermatologicznych, przychodniach specjalistycznych

Diagnostyki chorób przenoszonych drogę płciową

Zasady organizacji pracy w laboratoriach:

Laboratoria mikrobiologiczne powinny być samodzielne, kierowane przez specjalistę mikrobiologa. Zgodnie z

obowiązującymi przepisami (rozporządzenie Ministra Zdrowia i Opieki Społecznej w sprawie wymagań, jakim powinny

odpowiadać osoby na stanowiskach kierowniczych w zakładach opieki zdrowotnej Dz. U. Nr 30 poz. 131 z 1992 r.),

Page 38: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 38

kierownikiem laboratorium lub pracowni musi być pracownik z wyższym wykształceniem, posiadający II stopień

specjalizacji z mikrobiologii, w wyjątkowym przypadku może to być specjalista I°.

Laboratoria są obowiązane do bieżącego szkolenia pracowników, wykorzystując w tym celu konferencje i kursy

regionalne oraz centralne, zebrania naukowe i staże specjalistyczne w laboratoriach krajowych i zagranicznych.

Obciążenie pracą:

Liczba personelu powinna zależeć od liczby próbek, rodzajów badań i metod badawczych, jednakże celem utrzymania

ciągłości pracy laboratorium nie mniej niż dwie osoby z wyższym wykształceniem i dwóch techników.

Ważnym elementem oceny obciążenia pracownika jest posiadana aparatura usprawniająca pracę oraz możliwości

wykorzystania gotowych testów i podłoży. Według dotychczasowych doświadczeń, przy obecnie stosowanych technikach

wydaje się, że optymalną liczbą prób przypadającą miesięcznie na jednego pracownika jest 200. Jeden materiał do

badania bakteriologicznego np. Ropa - oznacza 1 próbę. Każdy wykonany antybiogram należy uznawać za oddzielne

badanie (próbę). Inaczej muszą być przeliczane badania serologiczne i w przypadku tych badań miesięczna liczba

przypadająca na jednego pracownika wynosić może 400 do 500 prób.

Jeszcze inaczej mają być traktowane badania wysokospecjalistyczne: jak izolacja i identyfikacja Mycoplasma,

Legionella, Chlamydia, wirusów w pracowniach wirusologicznych, w tym przypadku miesięczna liczba badań nie

powinna przekroczyć 100.

Praca laboratorium mikrobiologicznego, szczególnie typu B, powinna się odbywać w systemie ciągłym, także w dni

wolne od pracy. Dla ekonomik oraz standaryzacji pobierania i przesyłania materiału do badań, jak i metod badawczych

należy tak zorganizować pracę, aby większość badań wykonywać w czasie zasadniczych godzin pracy.

Dostarczane do laboratoriów szpitalnych materiały do badań pobierane są przez lekarzy lub pielęgniarki według

zaleceń opracowywanych przez laboratorium, zgodnych z metodami przyjętymi dla pobierania i przesyłania próbek

do badań mikrobiologicznych.

Pracownie wykonujące badania dla chorych leczonych ambulatoryjnie otrzymują pobrane próbki, jak przypadku

chorych hospitalizowanych, ale na podłożach transportowych. Mogą również zorganizować pokój pobierania

materiałów pod warunkiem, że osoba pobierająca jest uprawniona do takiego działania.

Laboratoria, szczególnie te, które są usytuowane poza szpitalem oraz wykonujące badania dla chorych leczonych

ambulatoryjnie muszą mieć dobrze zorganizowany system dostarczania próbek i przekazywania wyników.

Laboratoria usytuowane przy szpitalach powinny pełnić obok diagnostyki mikrobiologicznej ważne funkcje w

zakresie zwalczania zakażeń szpitalnych.

Każde laboratorium diagnostyki mikrobiologicznej musi posiadać opracowane procedury diagnostyczne dotyczące:

Pobierania materiałów od chorych i ze środowiska

Przesyłania próbek do laboratorium

Opracowywania próbek, identyfikacji szczepów i wykonywania antybiogramów. Procedury dotyczą wszystkich

wykonywanych w pracowniach badań.

W laboratorium obowiązuje prowadzenie szczegółowej dokumentacji badań dostępnej dla organów kontrolujących,

jak i retrospektywnych dochodzeń epidemiologicznych oraz innych potrzeb.

Laboratorium obowiązane jest do opracowania przy współudziale zainteresowanych lekarzy, regulaminu

współpracy zawierającego informacje dotyczące:

Godzin pracy laboratorium

Zakresu wykonywania badań

Sposobu oznaczania próbek (każda próbka powinna być opatrzona etykietą zawierającą dane o pacjencie oraz

naklejką "Uwaga - materiał zakaźny")

Wypełniania formularzy zlecających badania i zakresu informacji o chorym

Adresów, telefonów i godzin przyjęć materiałów do badań laboratoriów wykonujących inne badania niż

laboratorium macierzyste

Wydawania wyników badań (rodzaj formularzy, informacji i komentarzy)

W laboratoriach muszą być przestrzegane przepisy bhp.

Page 39: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 39

Antybiogram (Antybiotykogram) jest częścią badania posiewu bakteriologicznego. Po wyhodowaniu w badanym

materiale bakterii chorobotwórczych określana jest ich wrażliwość na leki -antybiotyki.

13. STRUKTURA BIAŁEK. MAKROCZĄSTECZKI I ICH FUNKCJE W ŻYWYCH

ORGANIZMACH. ZASTOSOWANIE METOD ELEKTROCHEMICZNYCH DO

MONITOROWANIA FUNKCJI ORGANIZMU. (PROF. M. KOMOROWSKA) Białka – wielkocząsteczkowe (masa cząsteczkowa od ok. 10 000 do kilku mln Daltonów) biopolimery, a właściwie

biologiczne polikondensaty, zbudowane z reszt aminokwasów połączonych ze sobą wiązaniami peptydowymi -CONH-.

Występują we wszystkich żywych organizmach oraz wirusach. Synteza białek odbywa się przy udziale specjalnych

organelli komórkowych zwanych rybosomami.

Zazwyczaj liczba reszt aminokwasowych pojedynczego łańcucha polipeptydowego jest większa niż 100, a cała cząsteczka

może być zbudowana z wielu łańcuchów polipeptydowych (podjednostek).

Głównymi pierwiastkami wchodzącymi w skład białek są C, O, H, N, S, także P oraz niekiedy kationy metali Mn2+

, Zn2+

,

Mg2+

, Fe2+

, Cu2+

, Co2+

i inne.

Skład ten nie pokrywa się ze składem aminokwasów. Wynika to stąd, że większość białek (są to tzw. Białka złożone lub

proteidy) ma dołączone do reszt aminokwasowych różne inne cząsteczki. Regułą jest przyłączanie cukrów, a ponadto

kowalencyjnie lub za pomocą wiązań wodorowych dołączane może być wiele różnych związków organicznych

pełniących funkcje koenzymów oraz jony metali.

13.1 BUDOWA BIAŁEK

Zsyntetyzowany w komórce łańcuch białkowy przypomina unoszącą się swobodnie w roztworze "nitkę", która może

przyjąć dowolny kształt (w biofizyce nazywa się to kłębkiem statystycznym), ale ulega procesowi tzw. Zwijania białka

(ang. Protein folding) tworząc mniej lub bardziej sztywną strukturę przestrzenną, zwaną strukturą lub konformacja białka

"natywną". Tylko cząsteczki, które uległy zwinięciu do takiej struktury, mogą pełnić właściwą danemu białku rolę

biochemiczną.

Ze względu na skalę przestrzenną pełną strukturę białka można opisać na czterech poziomach:

Struktura pierwszorzędowa białka (sekwencja aminokwasów, struktura pierwotna białka) – kolejność

aminokwasów w łańcuchu polipeptydowym

Struktura drugorzędowa białka – przestrzenne ułożenie fragmentów łańcuchów polipeptydowych. Do struktur

drugorzędowych zaliczana jest:

o Helisa alfa (ang. Α helix)

o Harmonijka beta (ang. Β sheet)

o Beta zakręt (pętle omega) (ang. Β hairpin)

Struktura trzeciorzędowa białka – wzajemne położenie elementów struktury drugorzędowej.

Struktura czwartorzędowa białka – wzajemne położenie łańcuchów polipeptydowych oraz ewentualnie struktur

niebiałkowych (grupa prostetyczna):

o Cukrów w glikoproteidach

o Lipidów w lipoproteidach

o Kwasów nukleinowych w nukleoproteidach

o Barwników w chromoproteidach

o Resztę kwasu fosforowego w fosfoproteidach.

13.1.1 SKŁAD PIERWIASTKOWY

Page 40: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 40

Najczęściej skład pierwiastkowy białek przedstawiany jest następująco:

Węgiel - 50%-55%

Tlen - 19%-24%

Azot - 15%-18%

Wodór - 6%-8%

Siarka - 0,3%-3%

Fosfor - 0%-0,5%

13.1.2 WŁAŚCIWOŚCI FIZYCZNE I CHEMICZNE

Białka nie posiadają charakterystycznej dla siebie temperatury topnienia. Przy ogrzewaniu w roztworze, a tym bardziej w

stanie stałym, ulegają, powyżej pewnej temperatury, nieodwracalnej denaturacji (ścinanie się włókien białka) – zmianie

struktury, która czyni białko nieaktywnym biologicznie (codziennym przykładem takiej denaturacji jest smażenie lub

gotowanie jajka). Jest to spowodowane nieodwracalną utratą trzeciorzędowej lub czwartorzędowej budowy białka. Z tej

przyczyny dla otrzymania suchej, ale niezdenaturowanej próbki danego białka, stosuje się metodę liofilizacji, czyli

odparowywania wody lub innych rozpuszczalników z zamrożonej próbki pod zmniejszonym ciśnieniem. Denaturacja

białek może również zachodzić pod wpływem soli metali ciężkich, mocnych kwasów i zasad, niskocząsteczkowych

alkoholi, aldehydów oraz napromieniowania. Wyjątek stanowią proste białka, które mogą ulegać także procesowi

odwrotnemu, tzw. Renaturacji – po usunięciu czynnika, który tę denaturację wywołał. Niewielka część białek ulega

trwałej denaturacji pod wpływem zwiększonego stężenia soli w roztworze, jednak proces wysalania jest w większości

przypadków w pełni odwracalny, dzięki czemu umożliwia izolowanie lub rozdzielanie białek.

Białka są na ogół rozpuszczalne w wodzie. Do białek nierozpuszczalnych w wodzie należą tzw. Białka fibrylarne,

występujące w skórze, ścięgnach, włosach (kolagen, keratyna) lub mięśniach (miozyna). Niektóre z białek mogą

rozpuszczać się w rozcieńczonych kwasach lub zasadach, jeszcze inne w rozpuszczalnikach organicznych. Na

rozpuszczalność białek ma wpływ stężenie soli nieorganicznych w roztworze, przy czym małe stężenie soli wpływa

dodatnio na rozpuszczalność białek. Jednak przy większym stężeniu następuje uszkodzenie otoczki solwatacyjnej, co

powoduje wypadanie białek z roztworu. Proces ten nie narusza struktury białka, więc jest odwracalny i nosi nazwę

wysalania białek.

Białka posiadają zdolność wiązania cząsteczek wody. Efekt ten nazywamy hydratacją. Nawet po otrzymaniu próbki

suchego białka zawiera ona związane cząsteczki wody.

Białka, ze względu na obecność zasadowych grup NH2 oraz kwasowych COOH mają charakter obojnaczy – w zależności

od ph roztworu będą zachowywały się jak kwasy (w roztworze zasadowym) lub jak zasady (w roztworze kwaśnym).

Dzięki temu białka mogą pełnić rolę bufora stabilizującego ph, np. Krwi. Różnica ph nie może być jednak znaczna, gdyż

białko może ulec denaturacji. Wypadkowy ładunek białka zależy od ilości aminokwasów kwaśnych i zasadowych w

cząsteczce. Wartość ph, w której ładunki dodatnie i ujemne aminokwasów równoważą się nazywany jest punktem

izoelektrycznym białka.

Białka odgrywają zasadniczą rolę we wszystkich procesach biologicznych. Biorą udział w katalizowaniu wielu przemian

w układach biologicznych (enzymy są białkami), uczestniczą w transporcie wielu małych cząsteczek i jonów (np. 1

cząsteczka hemoglobiny przenosząca 4 cząsteczki tlenu), służą jako przeciwciała oraz biorą udział w przekazywaniu

impulsów nerwowych jako białka receptorowe. Białka pełnią także funkcję mechaniczno-strukturalną. Wszystkie białka

zbudowane są z aminokwasów. Niektóre białka zawierają nietypowe, rzadko spotykane aminokwasy, które uzupełniają

ich podstawowy zestaw. Wiele aminokwasów (zazwyczaj ponad 100) połączonych ze sobą wiązaniami peptydowymi

tworzy łańcuch polipeptydowy, w którym można wyróżnić dwa odmienne końce. Na jednym końcu łańcucha znajduje się

niezablokowana grupa aminowa (tzw. N-koniec), na drugim niezablokowana grupa karboksylowa (C-koniec).

13.1.3 PODZIAŁ BIAŁEK

Istnieje wiele kryteriów podziału białek.

Ze względu na budowę i skład, dzielimy białka na proste i złożone.

Page 41: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 41

Białka proste (proteiny) zbudowane są wyłącznie z aminokwasów. Dzielimy je na następujące grupy:

1. Protaminy – są silnie zasadowe, charakteryzują się dużą zawartością argininy oraz brakiem aminokwasów

zawierających siarkę. Są dobrze rozpuszczalne w wodzie. Najbardziej znanymi protaminami są: klupeina,

salmina, cyprynina, ezocyna, gallina.

2. Histony – podobnie jak protaminy są silnie zasadowe i dobrze rozpuszczają się w wodzie; składniki jąder

komórkowych (w połączeniu z kwasem deoksyrybonukleinowym), czyli są obecne także w erytroblastach. W ich

skład wchodzi duża ilość takich aminokwasów jak lizyna i arginina.

3. Albuminy – białka obojętne, spełniające szereg ważnych funkcji biologicznych: są enzymami, hormonami i

innymi biologicznie czynnymi związkami. Dobrze rozpuszczają się w wodzie i rozcieńczonych roztworach soli,

łatwo ulegają koagulacji. Znajdują się w tkance mięśniowej, osoczu krwi i mleku.

4. Globuliny -w ich skład wchodzą wszystkie aminokwasy białkowe, z tym że kwas asparaginowy i kwas

glutaminowy w większych ilościach; w odróżnieniu od albumin są źle rozpuszczalne w wodzie, natomiast dobrze

w rozcieńczonych roztworach soli; posiadają podobne właściwości do nich. Występują w dużych ilościach w

płynach ustrojowych i tkance mięśniowej.

5. Prolaminy – są to typowe białka roślinne, występują w nasionach. Charakterystyczną właściwością jest zdolność

rozpuszczania się w 70% etanolu.

6. Gluteliny – podobnie jak prolaminy – to typowe białka roślinne; posiadają zdolność rozpuszczania się w

rozcieńczonych kwasach i zasadach.

7. Skleroproteiny – białka charakteryzujące się dużą zawartością cysteiny i aminokwasów zasadowych oraz

kolagenu i elastyny, a także proliny i hydroksyproliny, nierozpuszczalne w wodzie i rozcieńczonych roztworach

soli. Są to typowe białka o budowie włóknistej, dzięki temu pełnią funkcje podporowe. Do tej grupy białek należy

keratyna.

Białka złożone (dawniej - proteidy):

1. Chromoproteiny – złożone z białek prostych i grupy prostetycznej – barwnika. Należą tu hemoproteidy

(hemoglobina, mioglobina, cytochromy, katalaza, peroksydaza) zawierające układ hemowy oraz flawoproteiny.

2. Fosfoproteiny – zawierają około 1% fosforu w postaci reszt kwasu fosforowego. Do tych białek należą: kazeina

mleka, witelina żółtka jaj, ichtulina ikry ryb.

3. Nukleoproteiny – składają się z białek zasadowych i kwasów nukleinowych. Rybonukleoproteimy są

zlokalizowane przede wszystkim w cytoplazmie: w rybosomach, mikrosomach i mitochondriach, w niewielkich

ilościach także w jądrach komórkowych, a poza jądrem tylko w mitochondriach. Wirusy są zbudowane prawie

wyłącznie z nukleoproteidów.

4. Lipidoproteiny – połączenia białek z tłuszczami prostymi lub złożonymi, np. Sterydami, kwasami tłuszczowymi.

Lipoproteidy są nośnikami cholesterolu (LDL, HDL, VLDL). Wchodzą na przykład w skład błony komórkowej.

5. Glikoproteiny – ich grupę prostetyczną stanowią cukry, należą tu m.in. Mukopolisacharydy (ślina).

Glikoproteidy występują też w substancji ocznej i płynie torebek stawowych.

6. Metaloproteiny – zawierają jako grupę prostetyczną atomy metalu (miedź, cynk, żelazo, wapń, magnez,

molibden, kobalt). Atomy metalu stanowią grupę czynną wielu enzymów.

Białka dzielimy również ze względu na właściwości odżywcze – wyróżnia się białka doborowe i niedoborowe.

BIAŁKA DOBOROWE (Pełnowartościowe) – te które w swoim składzie zawierają wszystkie aminokwasy

egzogenne. Do takich białek zaliczamy np. Albuminę, białko jaja kurzego, białko mleka i mięsa.

BIAŁKA NIEDOBOROWE (Niepełnowartościowe) – te w których brakuje choćby jednego aminokwasu

egzogennego. Przykładem takiego białka jest kolagen, żelatyna.

13.1.4 FUNKCJA BIAŁEK

Page 42: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 42

Białka mają następujące funkcje:

Kataliza enzymatyczna – od uwadniania dwutlenku węgla do replikacji chromosomów

Transport – hemoglobina, transferyna

Magazynowanie – ferrytyna

Kontrola przenikalności błon – regulacja stężenia metabolitów w komórce

Ruch uporządkowany – skurcz mięśnia, ruch – np. Aktyna, miozyna

Wytwarzanie i przekazywanie impulsów nerwowych

Bufory

Kontrola wzrostu i różnicowania

Immunologiczna – np. Immunoglobuliny

Budulcowa, strukturalna – np. &-keratyna, elastyna, kolagen

Przyleganie komórek (np. Kadheryny)

Regulatorowa (regulacja hormonalna i regulacja przebiegu procesów genetycznych) – reguluje przebieg procesów

biochemicznych – np. Hormon wzrostu, insulina, czynniki transkrypcyjne i inne.

13.1.5 TRAWIENIE BIAŁEK

Trawienie białek zaczyna się dopiero w żołądku, gdzie komórki główne komórek gruczołowych żołądka wydzielają

nieczynny enzym pepsynogen. Komórki okładzinowe wydzielają kwas solny, w obecności którego pepsynogen

przekształca się w postać czynną – pepsynę. W jelicie cienkim działają trypsyna i chymotrypsyna, które rozkładają

cząsteczki polipeptydów do tripeptydów i dipeptydów. Te z kolei rozkładane są przez peptydazy ściany jelita cienkiego

do aminokwasów, które zostają wchłaniane do krwi za pomocą odpowiednich przenośników znajdujących się w rąbku

szczoteczkowym i żyłą wrotną wędrują do wątroby. Stamtąd większość aminokwasów dalej dostaje się z krwią do

komórek ciała. Nadwyżka pozbawiana jest reszt aminowych, przez co powstaje amoniak i ketokwasy. Amoniak

przekształcany jest w mniej toksyczny mocznik, który z krwią odtransportowywany jest do nerek. Natomiast ketokwasy

mogą zostać wykorzystane do syntezy cukrów i niektórych aminokwasów, zużyte na cele energetyczne bądź

przekształcone w tłuszcze zapasowe.

13.1.6 ŹRÓDŁA BIAŁEK

Dobrymi źródłami białek są: mięso, jaja, orzechy, zboża, rośliny strączkowe oraz nabiał, jak mleko czy ser (na przykład

parmezan zawiera aż ok. 40% białka).

13.2 MAKROCZĄSTECZKA

Makrocząsteczka, makromolekuła, wielka cząsteczka, cząsteczka zbudowana z wielkiej liczby (zwykle powyżej

kilku tysięcy, czasem milionów) atomów;

Makrocząsteczki powstają w wyniku połączenia małych cząsteczek zwanych monomerami; najczęściej mają postać nici

(stosunek długości makrocząsteczki do jej średnicy wynosi ponad 10 000); naturalne, np. Makrocząsteczka DNA, i

otrzymywane syntetycznie; skupiska makrocząsteczek, zwane polimerami, stają się ciągliwe, elastyczne, kowalne, mają

wytrzymałość mechaniczną i inne właściwości fizyczne nieznane wśród małych cząsteczek związków organicznych.

Page 43: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 43

Page 44: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 44

Polimery (gr. Polymeres - wieloczęściowy, zbudowany z wielu części) – substancje chemiczne o bardzo dużej masie

cząsteczkowej, które składają się z wielokrotnie powtórzonych jednostek zwanych merami.

Przez "bardzo dużą masę cząsteczkową" rozumie się zwykle taką sytuację, gdy odjęcie lub przyłączenie jednego meru nie

zmienia w zasadniczym stopniu ogólnych własności chemicznych i fizycznych związku chemicznego. Odróżnia to

polimery od oligomerów, które mają jeszcze na tyle małą masę cząsteczkową, że dodanie do nich lub odjęcie jednego

meru skutkuje zauważalną zmianą np. Ich temperatury topnienia.

Polimery naturalne są jednym z podstawowych budulców organizmów żywych. Polimery syntetyczne są podstawowym

budulcem tworzyw sztucznych, a także wielu innych powszechnie wykorzystywanych produktów chemicznych takich

jak: farby, lakiery, oleje przemysłowe, środki smarujące, kleje itp. Polimery syntetyczne otrzymuje się w wyniku

łańcuchowych lub sekwencyjnych reakcji polimeryzacji ze związków posiadających minimum dwie grupy funkcyjne

zwanych monomerami.

13.2.1 PODZIAŁ POLIMERÓW

Wyróżnia się następujące podziały polimerów:

Ze względu na ich pochodzenie

Ze względu na topologię cząsteczek, czyli ich ogólny kształt przestrzenny

Ze względu na jednorodność budowy

Podział ze względu na pochodzenie

Polimery syntetyczne - są to polimery pochodzące w 100% z syntezy chemicznej zaczynającej się od prostych

monomerów

Polimery naturalne - są to polimery wytwarzane w 100% przez organizmy żywe; są to m.in. Celuloza, białka,

kwasy nukleinowe.

Polimery modyfikowane - są to polimery naturalne, które jednak zostały sztucznie zmodyfikowane chemicznie,

zwykle w celu zmiany ich własności użytkowych np.: octan celulozy, białko modyfikowane, skrobia

modyfikowana.

Podział ze względu na topologię

Struktury topologiczne polimerów ukazują architekturę oraz sposoby łączenia się ze sobą poszczególnych merów.

Topologiczne parametry strukturalne cząsteczek: - skład chemiczny - konstytucja makrocząsteczek (rodzaje par atomów,

rodzaje wiązań) - rozmieszczenie centrów konfiguracyjnych. Topologia związana ściśle ze strukturą:

Polimer liniowy - są to polimery, w których łańcuchy główne są proste i nie mają żadnych rozgałęzień np:

wysokociśnieniowy polietylen lub teflon.

Page 45: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 45

Polimer rozgałęziony - są to polimery, w których łańcuchy główne są rozgałęzione - wyróżnia się tutaj:

o Polimer bocznołańcuchowy - w którym, krótkie, boczne łańcuchy są regularnie bądź nieregularnie

rozmieszczone wzdłuż głównego łańcucha;

o Polimer rozgałęziony wielokrotnie po angielsku hyperbranched, w którym występuje wiele

wielkokrotnych rozgałęzień, tak że nie da się już wyróżnić głównego łańcucha;

o Polimer gwiazdowy - w którym z jednego centralnego punktu wybiega kilka do kilkunastu "ramion"

będących zwykłymi liniowymi łańcuchami;

Polimer drabinkowy - są to polimery, w których występują dwa równoległe łańcuchy główne połączone okresowo

krótkimi bocznymi łańcuchami, wyróżnia się formę całkowitą oraz częściową (bok tworzący szkielet jest od

miejscami poprzerywany).

Polimer usieciowany - są to polimery, które tworzą przestrzenną ciągłą sieć, tak że nie da się już w nich wyróżnić

pojedynczych cząsteczek. Dzieli się je na wysokiej i niskiej gęstości usieciowania.

Polimer cykliczny - stosunkowo rzadko spotykany, w którym zamiast liniowych cząsteczek występują ogromne

cząsteczki cykliczne.

Polimer katetanowy - przypominający połączone ogniwa łańcucha; cykliczne fragmenty przenikają się tworząc

długi łańcuch polimerowy.

Polimer rateksanowy - tzw. Struktura szaszłykowa, czyli na łańcuch polimerowy "nawleczone" zostały krótkie

cykliczne cząsteczki.

Polimer dendrymeryczny - czyli z jednego łańcucha rozchodzą się następne, a z nich kolejne - powstaje

dendrymeryczna struktura przypominająca drzewo.

Dodatkowo rozpatruje się topologię polimerów ze względu na ograniczenia w przestrzeni, czyli jednowymiarowe -

płaskie, dwuwymiarowe - czyli szczepione z płaskiej powierzchni) oraz trójwymiarowe - szczepione na sferze.

Podział ze względu na jednorodność budowy chemicznej

Podział ten opiera się na tym, czy w łańcuchu polimeru występuje jeden merów, czy też jest zbudowany z bloków

pochodzących od dwóch lub więcej monomerów. Polimery zbudowane z wielu bloków pochodzących od kilku

monomerów nazywa się kopolimerami, zaś te które są otrzymywane z jednego monomeru homopolimerami.

Kopolimery dzieli się z kolei na:

Kopolimer statystyczny - są to polimery, w których występują krótkie losowo przemieszane bloki pochodzące od

poszczególnych merów

Kopolimer gradientowy - są to polimery, w których wstępują krótkie losowo przemieszane bloki, jednak na

jednym z końców cząsteczki można znaleźć więcej bloków jednego rodzaju a na drugim drugiego rodzaju

Kopolimer naprzemienny - są to polimery, w których ściśle naprzemiennie występują krótkie bloki pochodzące

od poszczególnych merów

Kopolimer blokowy - są to polimery, w których występują długie bloki pochodzące z poszczególnych merów -

zazwyczaj tylko 2 lub 3

Polimer szczepiony - są polimery, w których do głównego łańcucha są przyłączone bloki pochodzące od innego

monomeru w formie bocznych odgałęzień.

Podział ze względu na budowę

Poliolefina - są to polimery zawierające tylko węgiel i wodór, w których występują długie łańcuchy węglowe -C-

C-C-. Do najbardziej znanych przykładów zaliczają się polietylen, polipropylen i polistyren

Polimer winylowy - są to polimery otrzymywane w wyniku rozerwania wiązań C=C występujących w

monomerach, na skutek czego powstają długie łańcuchy węglowe. Formalnie rzecz biorąc większość poliolefin

Page 46: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 46

również należy do polimerów winylowych, ale zazwyczaj rozumie się pod tą nazwą takie polimery jak

poliakrylan, polimetakrylan, polichlorek winylu itp., a więc zawierające oprócz węgla i wodoru także inne atomy.

Polieter - są to polimery, w których w głównych łańcuchach występują wiązania eterowe, najbardziej znanym

przedstawicielem jest poli(tlenek etylenu)

Poliamidy - są to polimery w których występuje wiązanie amidowe (-NH-C(O)-)

Poliuretany - są to polimery, w których występuje wiązanie uretanowe (-NH-C(O)-O-)

Poliestry - są to polimery, w których w głównych łańcuchach występuje wiązanie estrowe (-C(O)-O-)

Poliwęglany - są to polimery, w których występuje wiązanie węglanowe (-O-C(O)-O-)

Polimer nieorganiczny - są to polimery, w których w głównych łańcuchach nie występują atomy węgla, takie jak

polisiloksan, polifosfazen, polisiarczek i wiele innych.

Polipeptydy, poli(węglowodany), kwasy nukleinowe - to wszystko są biopolimery.

Podział ze względu na taktyczność

Polimer izotaktyczny - grupy boczne wyłącznie po jednej stronie łańcucha

Polimer syndiotaktyczny - grupy boczne naprzemiennie po obu stronach łańcucha

Polimer ataktyczny - losowe położenie grup bocznych

13.2.2 ZASTOSOWANIA POLIMERÓW

Tworzywa sztuczne

Farby i lakiery

Kleje i podobne środki powierzchniowo czynne

Polimery ciekłokrystaliczne

Membrany i inne materiały o zdolnościach rozdzielczych

Mikrosfery polimerowe

Stałe paliwa rakietowe

13.2.3 PRZYKŁADY POLIMERÓW

Polietylen (PE) – folie, jest odporny chemicznie, biały lub przezroczysty, tłusty w dotyku

Polipropylen (PP) – bardziej wytrzymały i odporny chemicznie, o wyższej temperaturze topnienia niż polietylen,

ale trudniejszy w obróbce; łatwo się go barwi na żywe kolory; przykładowe zastosowania: wykładziny, rury,

pojemniki, zabawki

Polistyren (PS) - tworzywo konstrukcyjne, kruche ale wytrzymałe na zgniatanie

Poliakrylonitryl (PAN) - popularna "anilana" - podstawowy składnik tzw. Sztucznego jedwabiu

Poli(tereftalan etylenu) - (PET) - tworzywo przezroczyste, z którego produkuje się większość plastikowych

butelek, oraz jest też stosowane jak sztuczne włókno (patrz polartec)

Poli(tlenek etylenu) (PEO) - "sztuczna stal" - tworzywo konstrukcyjne o bardzo dużej wytrzymałości na

rozciąganie i skręcanie

Poli(chlorek winylu) (PCW, PVC) – wykazuje dużą odporność na działanie stężonych kwasów i zasad, produkuje

się z niego panele podłogowe, rurki i węże, często występuje jako składnik klejów i lakierów

Nylon – mocny i rozciągliwy, wykorzystywany do produkcji lin i sztucznych włókien

Kauczuk syntetyczny – cała grupa polimerów o własnościach elastycznych

Page 47: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 47

Politetrafluoroetylen (PTFE) – charakteryzuje się dużym napięciem powierzchniowym oraz jest wyjątkowo

odporny chemicznie, ma też dość wysoką odporność termiczną, ale jest bardzo kosztowny i trudny w obróbce

Poli(metakrylan metylu) (PMM) (szkło organiczne) – tworzywo o dużej przezroczystości, w zakresie światła

widzialnego i UV

Polisiloksan - cała gama tworzyw, od kauczuków i żeli stosowanych w medycynie po tworzywa konstrukcyjne,

farby i smary

13.2.4 FUNKCJE W ORGANIZMACH ŻYWYCH

Kwas deoksyrybonukleinowy, DNA- Pełni rolę nośnika informacji genetycznej organizmów żywych

Kwasy rybonukleinowe, RNA- RNA jest zazwyczaj jednoniciowy; postać dwuniciowa, analogiczna do

dwuniciowego DNA, występuje głównie jako materiał genetyczny niektórych wirusów i wiroidów (porównaj też

Retrowirusy). Jednak w wypadku cząsteczek jednoniciowych, szczególnie pełniących funkcje enzymatyczne, lub

współdziałających w tych funkcjach (np. Rrna, trna) tworzenie fragmentów dwuniciowych przez parowanie

różnych odcinków tej samej nici decyduje o strukturze całej cząsteczki

Lipidy-Główne biologiczne funkcje lipidów to magazynowanie energii, tworzenie błon biologicznych i udział w

przesyłaniu sygnałów

Polisacharydy- Stanowią one ważną grupę polimerów naturalnych wykorzystywanych w organizmach żywych

jako materiał budulcowy i zapasowy

13.3 BIOELEKTROCHEMIA

Bioelektrochemia, elektrochemia biologiczna - dziedzina nauki z pogranicza chemii i biologii badająca biologiczne

procesy przebiegające z przeniesieniem ładunku (procesy redoks, transport jonowy) oraz wykorzystująca metody

elektrochemiczne do poznawania lub odtwarzania innych zjawisk i procesów w układach biologicznych.

Do pierwszej grupy zagadnień należą:

Badania procesów enzymatycznych,

Przenoszenie elektronów i protonów w organizmach żywych,

Transport ładunku przez membrany biologiczne,

Przekazywanie impulsów nerwowych,

Przetwarzanie i magazynowanie energii;

Zrozumienie biologicznych funkcji elektroaktywnych cząsteczek, np. Metaloprotein, wymoga poznania ich

ptencjałów redoks oraz okreslenia dostepnych stopni utlenienia jonu centralnego.

Drugą grupę obejmują elektrochemiczne badania tzw. Układów biomimetycznych - syntetycznych i półsyntetycznych

związków chemicznych naśladujących układy funkcjonujące w organizmach żywych. Stosowane w bioelektrochemii

techniki elektrochemiczne to:

Bioelektrochemia spełnia zadania poznawcze jako nauka o charakterze podstawowym; rezultaty jej badań są

wykorzystywane m.in. Do opracowywania nowych katalizatorów, sensorów elektrochemicznych, biosensorów, układów

mikroelektronicznych, np. Wykorzystujących enzymy lub warstwy i dwuwarstwy lipidowe. Głównymi kierunkami

rozwoju bioelektrochemii są:

Procesy redukcji i utleniania składników układów biologicznych;

Page 48: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 48

Elektrochemia biomembran i ich modeli;

Elektrochemiczne biosensory;

Biomolekularne elementy elektroniczne oraz zastosowania technik elektrochemicznych w biologii i medycynie.

Największe postępy osiągnięto w zrozumieniu mechanizmu przeniesienia elektronu w metaloproteinach i ich mutantach

dzięki badaniom bionieorganicznym modeli centrów aktywnych białek; wyniki tych badań pozwoliły przygotowanie i

zastosowanie katalizatorów do redukcji tlenu, związków azotu, także poznanie czynników kontrolujących procesy

transporty elektronów i protonów przez biomembrany. Obecnie dzięki miniaturyzacji urządzeń elektrochemicznych,

głównie elektrod (mikroelektroda), można śledzić przebieg procesów wewnątrz komórek i połączeniach

międzykomórkowych, np. Synapsach, lub transport jonów przez błony pojedynczej komórki (tzw. Metoda patch-clamp);

rozwinęły się techniki badań w czasach mikro- i nanosekundowych i czułe metody oznaczania składników istotnych dla

funkcjonowania układów biologicznych, obecnych w organizmach w tzw. Śladowych stężeniach.

Metody elektrochemiczne stosowane są w diagnostyce i terapii medycznej, oznaczaniu i poszukiwaniu nowych leków;

badania procesów korozyjnych maja na celu wybór optymalnych materiałów, np. Na implanty (biomateriały).

14. TECHNIKI REZONANSÓW MAGNETYCZNYCH I ICH ZASTOSOWANIE W

OBRAZOWANIU MEDYCZNYM. (PROF. M. KOMOROWSKA)

MR- Obrazowanie magnetyczno-rezonansowe (MR) opiera się na zjawisku jądrowego rezonansu magnetycznego.

Zjawisko to może zajść w próbce zawierającej jądra o różnym od zera spinie umieszczonej w silnym stałym polu

magnetycznym. W takich warunkach próbka ulega częściowej polaryzacji opisywanej wektorem magnetyzacji. Jeśli tak

spolaryzowana próbka zostanie poddana działaniu innego pola magnetycznego, które rotuje w płaszczyźnie prostopadłej

do pola głównego, dla pewnej dokładnie określonej częstości tej rotacji zaobserwować można oddziaływanie między

polem a magnetyzacją próbki. Efektem tego oddziaływania jest obrót magnetyzacji próbki wokół rotującego wektora

indukcji magnetycznej, co w efekcie pozwala wyprowadzić magnetyzację z położenia równowagi, w którym początkowo

się znajduje. Wyprowadzona z położenia równowagi magnetyzacja precesuje wokół kierunku pola głównego a ruch ten

może być obserwowany. Zanikający sygnał nazywany sygnałem swobodnej precesji ma częstość rezonansową, która dana

jest bardzo prostą zależnością - jest proporcjonalna do pola w jakim znajduje się próbka. Jeśli różne części próbki

znajdują się w różnych polach, nie można mówić o jednej częstości odbieranego sygnału, mamy do czynienia z wieloma

częstościami a najczęściej z ciągłym jej widmem. Jeśli mapa w jakim znajduje się próbka jest znana, informacja

przestrzenna może zostać odkodowana a zebrane widma mogą zostać zamienione na obraz próbki. Modulowanie pola

głównego i jednoczesny pomiar sygnału rezonansu magnetycznego są podstawą metody obrazowania MR. Odkodowanie

obrazu nazywane jest rekonstrukcją. Jądrem rezonansowym najczęściej wykorzystywanym w obrazowaniu MR jest

proton — jądro atomu wodoru mające spin połówkowy i występujące powszechnie w obiektach biologicznych w

cząsteczkach wody.

Obrazowanie MR wykorzystywane jest w badaniach praktycznie całego ciała.

Page 49: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 49

Obrazowanie MR może być przeprowadzone w różnych sekwencjach. Pozornie nieznaczne zmiany w ustawieniu

podstawowych parametrów obrazowania mogą doprowadzić do uzyskania nieco odmiennych danych, mających różne

możliwości diagnostyczne.

MRA- techniki rezonansu magnetycznego służące do nieinwazyjnego obrazowania naczyń krwionośnych. Podstawowymi

technikami MRI używanymi w wizualizacji naczyń krwionośnych są angiografia czasu przepływu (TOF) i angiografia

kontrastu fazy (PC).

Angiografia czasu przepływu

W tej metodzie, poprzez odpowiedni dobór sekwencji pomiarowej i czasów relaksacji, możliwe jest wzmocnienie sygnału

pochodzącego od przepływającej krwi. Jednocześnie osłabiana jest intensywność sygnału od tkanek nie będących w

ruchu.

Angiografia kontrastu fazy

Wykorzystuje się fakt, że protony tkanek znajdujących się w ruchu charakteryzują się przesunięciem fazowym. W tej

technice otrzymuje się mapy przepływu krwi. Intensywność obrazu zależy od prędkości przepływu.

MRS- wyspecjalizowana technika związana z obrazowaniem rezonansu magnetycznego (MRI)[1][2]

, umożliwiająca

uzyskanie informacji o składzie biochemicznym w wybranych lokalizacjach organizmu w sposób nieinwazyjny (bez

konieczności wykonywania biopsji), podczas gdy MRI dostarcza jedynie danych o budowie (strukturze) badanego

narządu. Aparat MRS może być dostrojony do odbierania sygnałów rezonansowych określonych jąder atomów, np. 1H,

31P,

23Na i

19F. Na uzyskanym widmie rezonansu magnetycznego można zidentyfikować sygnały wybranych związków

chemicznych. Do najczęściej analizowanych cząsteczek należą: cholina, kreatyna, inozytol, glukoza, N-

acetyloasparaginian, alanina i kwas mlekowy.

DW MRI- mierzy dyfuzję molekuł wody w tkance. Wyróżnia się tutaj następujące techniki: obrazowanie tensora dyfuzji

(ang. DTI – diffusion tensor imaging), które może być zaadaptowane do obrazowania zmian w połączeniach istoty białej,

oraz obrazowanie zależne od dyfuzji (ang. DWI – diffusion-weighted imaging), które wykazuje się dużą skutecznością w

obrazowaniu udarów mózgu.

Perfusion MRI- badania perfuzyjne TK (ptk) i MR (pmr), umożliwiające ocenę dynamiki przepływu krwi w naczyniach

włosowatych (perfuzję) określonego obszaru mózgowia i dostarczające informacji o stanie mikrokrążenia mózgowego.

Ptk i pmr mózgowia są wykorzystywane głównie w diagnostyce ostrych i przewlekłych zmian niedokrwiennych, a

ostatnio także innych schorzeń ośrodkowego układu nerwowego (o.u.n.), m.in. Guzów wewnątrzczaszkowych. Badania

ptk i pmr mózgu to jedyne metody obrazowania pozwalające na ocenę in vivo procesów angiogenezy nowotworowej.

Umożliwiają nieinwazyjne określanie złośliwości i biologii guzów, rozległości procesu nowotworowego w obrębie

mózgowia oraz różnicowanie in vivo między wznową a martwicą popromienną, a także między pierwotnymi guzami

glejowymi a przerzutami do o.u.n. Uważa się, że badania perfuzyjne mogą być bardzo pomocne w wyborze najlepszego

miejsca do biopsji celowanej i radioterapii miejscowej guzów heterogennych oraz w monitorowaniu leczenia i

wykrywaniu bardzo wczesnych wznów nowotworów o.u.n.

Fmri - wyspecjalizowana odmiana obrazowania rezonansu magnetycznego. Za pomocą tej metody mierzona jest

hemodynamiczna odpowiedź ośrodkowego układu nerwowego. Istotą badania jest skoordynowany z bodźcem pomiar

efektu BOLD (blood-oxygen-level-dependent contrast), który powstaje wskutek wzrostu przepływu i utlenowania

aktywnej okolicy mózgu. Od początku lat dziewięćdziesiątych fmri stał się dominującą metodą obrazowania mózgu ze

względu na niską inwazyjność, brak promieniowania jonizującego i stosunkowo szeroki dostęp.

Podstawowymi obszarami zastosowań fmri są w medycynie: psychiatria, neurologia i neurochirurgia, a także

neuropsychologia kliniczna.

Badania fmri są wykorzystywane ponadto w badaniach podstawowych, np. W eksperymentalnej psychologii i

neurobiologii. Fmri jest jedyną techniką obiektywnie obrazującą poziom aktywności psychicznej, a w szczgólności - w

medycynie - zmienność tej aktywności wynikającą ze stanu klinicznego pacjenta (np. Poprawę lub pogorszenie w trakcie

leczenia).

Page 50: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 50

Cholangiopankreatografia rezonansu magnetycznego - MRCP (ang. Magnetic resonance cholangiopancreatography),

zwane także cholangio-NMR, jest stosunkowo niedawno wprowadzonym nieinwazyjnym badaniem obrazującym drogi

żółciowe. Jest to badanie metodą rezonansu magnetycznego, pacjent nie jest narażony na promieniowanie rentgenowskie,

nie wymaga także podania kontrastu.

Z uwagi na większe bezpieczeństwo i podobną precyzję badania jest coraz częściej stosowana w przypadkach, kiedy u

chorego trzeba wykonać jedynie obrazowanie dróg żółciowych bez endoskopowego zabiegu na drogach. Za pomocą

MRCP można zobrazować anomalie anatomiczne dróg żółciowych, kamienie wewnątrz dróg, badanie dokładnie

dokumentuje obecność, przyczynę i stopień ich niedrożności. Jest pomocne w przypadkach chorych, który przeszli

zabieg, w którym usunięto fragmenty drogi żółciowej wspólnej i dokonano zespoleń, w przypadku podejrzenia torbieli,

uchyłków, czyli tam, gdzie występują przeciwwskazania do wykonania EWCP. W przeciwieństwie do EWCP,

cholangionmr umożliwia zobrazowanie dróg poza przeszkodą zamykająca ich światło (np. Kamieniem żółciowym).

Urografia MR, wprowadzona do praktyki klinicznej w latach 90-tych XX w., stanowi alternatywę dla urografii

konwencjonalnej w obrazowaniu dróg moczowych. Należy ona (obok cholangiografii MR, mielografii MR,

labiryntografii MR, sialografii MR i histerosalpingografii MR) do grupy badań zwanych hydrografiami MR, obrazujących

nieruchome i wolno przemieszczające się płyny

Mielografia MR - W przeszłości mielografia była często wykonywanym badaniem rentgenowskim. Jednakże od czasu

wprowadzenia do użytku tomografii komputerowej a następnie rezonansu magnetycznego w ośrodkach posiadających

aparaturę do wymienionych badań ilość przeprowadzanych mielografii znacznie spadła. Mielografia służy ocenie zmian

chorobowych w obrębie kanału kręgowego, rdzenia kręgowego, płynu rdzeniowo-mózgowego.

15. PROMIENIOWANIE ELEKTROMAGNETYCZNE, PODZIAŁ, ZAKRESY.

(PROF. H. PODBIELSKA) Rozchodzące się w przestrzeni zaburzenie w postaci pola elektromagnetycznego. W fali rozchodzącej się w próżni lub

jednorodnym nieograniczonym ośrodku fala elektromagnetyczna jest falą poprzeczną, w której składowa elektryczna i

magnetyczna są prostopadłe do siebie, a obie są prostopadłe do kierunku rozchodzenia się fali. Oba pola indukują się

wzajemnie – zmieniające się pole elektryczne wytwarza zmieniające się pole magnetyczne, a z kolei zmieniające się pole

magnetyczne wytwarza zmienne pole elektryczne.

Właściwości fal elektromagnetycznych mocno zależą od długości fali. Promieniowaniem elektromagnetycznym o różnej

długości fali, są fale radiowe, mikrofale, podczerwień, światło, ultrafiolet, promieniowanie

rentgenowskie i promieniowanie gamma.

W opisie kwantowym promieniowanie elektromagnetyczne jest traktowane jako strumień nie posiadających masy cząstek

elementarnych zwanych fotonami, których energia zależy od długości fali.

15.1 WŁAŚCIWOŚCI PROMIENIOWANIA ELEKTROMAGNETYCZNEGO

Promieniowanie elektromagnetyczne demonstruje swe właściwości falowe zachowując się jak każda fala,

ulegając interferencji, dyfrakcji, spełnia prawo odbicia i załamania. W wyniku superpozycji fal elektromagnetycznych

może powstać fala stojąca.

Jednak niektóre właściwości promieniowania elektromagnetycznego (szczególnie jego oddziaływanie z materią) zależą od

długości fali (częstotliwości promieniowania) i dlatego dokonano podziału promieniowania elektromagnetycznego na

zakresy ze względu na jego częstotliwość. Granice poszczególnych zakresów są umowne i nieostre. Należy je traktować

szacunkowo, promieniowanie o tej samej długości może być nazywane falą radiową lub mikrofalą - w zależności od

kontekstu. Granice promieniowania gamma i promieniowania rentgenowskiego często rozróżnia się z kolei ze względu na

źródło tego promieniowania. Najdokładniej określone są granice dla światła widzialnego, gdyż są one zdeterminowane

fizjologią ludzkiego oka.

Page 51: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 51

Szacunkowe zakresy pasm fal elektromagnetycznych od fal najdłuższych do najkrótszych

Pasmo Częstotliwość fali Długość fali Energia pojedynczego kwantu

promieniowania (fotonu)

Fale radiowe Do 300 mhz Powyżej 1 m Poniżej 1.24 μev

Mikrofale Od 300 mhz do 300 ghz Od 1 m do 1 mm Od 1.24 μev do 1.24 mev

Podczerwień Od 300 ghz do 400 thz Od 1mm do 780 nm Od 1.24 mev do 1.6 ev

Światło widzialne Od 400 thz do 789 thz Od 780 nm do 380

nm Od 1.6 ev do 3.4 ev

Ultrafiolet Od 789 thz do 30 phz 380 nm do 10 nm Od 3.4 ev do 124 ev

Promieniowanie

rentgenowskie Od 30 phz do 60 ehz 10 nm do 5 pm Od 124 ev do 250 kev

Promieniowanie gamma Powyżej 60 ehz Poniżej 5 pm Powyżej 250 kev

15.1.1 FALE RADIOWE

Fale radiowe znajdują bardzo szerokie zastosowanie w telekomunikacji, radiofonii, telewizji, radioastronomii i wielu

innych dziedzinach nauki i techniki.

W technice podstawowym źródłem fal radiowych są anteny zasilane prądem przemiennym odpowiedniej częstotliwości.

Wiele urządzeń generuje też zakłócenia będące falami radiowymi, wymienić tu można na przykład: zasilacze

impulsowe, falowniki i regulatory tyrystorowe, piece indukcyjne, spawarki, zapłon iskrowy silników samochodowych,

iskrzące styki urządzeń elektrycznych.

Naturalne źródła fal radiowych to między innymi wyładowania atmosferyczne, zorze polarne, radiogalaktyki.

W atmosferze propagacja fal radiowych jest dosyć skomplikowana, zachodzą różnorodne odbicia i ugięcia fali w

niektórych warstwach atmosfery. Przebieg tych zjawisk zależy od zarówno od długości fali, jak i własności powietrza

zależnych od pory dnia, pogody, położenia geograficznego.

15.1.2 MIKROFALE

W zależności od metody wytwarzania niekiedy mikrofale są zaliczane do fal radiowych[2]

, albo do podczerwieni[3]

.

Podstawowe zastosowania mikrofal to łączność (na przykład telefonia komórkowa, radiolinie, bezprzewodowe sieci

komputerowe) oraz technika radarowa. Fale zakresu mikrofalowego są również wykorzystywane w radioastronomii, a

odkrycie mikrofalowego promieniowania tła miało ważne znaczenie dla rozwoju i weryfikacji modeli kosmologicznych.

Wiele dielektryków mocno absorbuje mikrofale, co powoduje ich rozgrzewanie i jest wykorzystywane w kuchenkach

mikrofalowych, przemysłowych urządzeniach grzejnych i w medycynie.

W elektronice mikrofalowej rozmiary elementów i urządzeń są porównywalne z długością fali przenoszonego sygnału.

Powoduje to, że przy analizie obwodów nie można stosować elementów o stałych skupionych. Do prowadzenia mikrofal

używane są falowody. Do wzmacniania i generacji sygnałów mikrofalowych służą masery, specjalne lampy

mikrofalowe oraz mikrofalowe elementy półprzewodnikowe.

15.1.3 PODCZERWIEŃ

Page 52: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 52

Promieniowanie podczerwone jest nazywane również cieplnym, szczególnie gdy jego źródłem są nagrzane ciała. Każde

ciało otemperaturze większej od zera bezwzględnego emituje takie promieniowanie, a ciała o temperaturze pokojowej

najwięcej promieniowania emitują w zakresie długości fali rzędu 10 μm. Przedmioty o wyższej temperaturze emitują

promieniowanie o większym natężeniu i mniejszej długości, co pozwala na zdalny pomiar ich temperatury i obserwację za

pomocą urządzeń rejestrujących wysyłane promieniowanie.

Technika rejestracji promieniowania podczerwonego emitowanego przez obiekty o temperaturach spotykanych w

codziennych warunkach to Termowizja. Umożliwia ona zobrazowanie obiektów w ciemności oraz pomiar temperatury w

poszczególnych punktach ich powierzchni. Jest wykorzystywana między innymi w zastosowaniach naukowych,

pożarniczych, medycznych, wojskowych, w diagnostyce urządzeń mechanicznych i obwodów elektrycznych, oraz do

oceny izolacji termicznej budynków.

W paśmie promieniowania podczerwonego są prowadzone obserwacje astronomiczne i meteorologiczne. Jest ono

używane w technice grzewczej. Promieniowanie podczerwone również jest stosowane do przekazu informacji - do

transmisji danych w światłowodach i układach zdalnego sterowania.

Spektroskopia w podczerwieni umożliwia identyfikację organicznych związków chemicznych i badanie ich struktury.

15.1.4 ŚWIATŁO WIDZIALNE

Światło widzialne to ta część widma promieniowania elektromagnetycznego na którą reaguje zmysł wzroku człowieka.

Różne zwierzęta mogą widzieć w nieco różnych zakresach.

Światło widzialne jest tylko w niewielkim stopniu absorbowane przez atmosferę ziemską i przez wodę. Ma to duże

znaczenie dla organizmów żywych, zarówno wodnych, jak i lądowych.

Światło ma bardzo duże znaczenie w nauce i wiele zastosowań w technice. Dziedziny nauki i techniki zajmujące się

światłem noszą nazwę optyki.

15.1.5 ULTRAFIOLET

Promieniowanie ultrafioletowe, jest zaliczane do promieniowania jonizującego, czyli ma zdolność

odrywania elektronów od atomów i cząsteczek. W dużym stopniu określa to jego właściwości, szczególnie oddziaływanie

z materią i na organizmy żywe.

Słońce emituje ultrafiolet w szerokim zakresie spektralnym, ale górne warstwy atmosfery ziemskiej (warstwa ozonowa)

pochłaniają większość promieniowania z krótkofalowej części spektrum. Obserwacje astronomiczne w ultrafiolecie

rozwinęły się dopiero po wyniesieniu ponad atmosferę przyrządów astronomicznych.

W technice ultrafiolet stosowany jest powszechnie. Powoduje świecenie (fluorescencję) wielu substancji chemicznych.

W świetlówkachultrafiolet wytworzony na skutek wyładowania jarzeniowego pobudza luminofor do świecenia w zakresie

widzialnym. Zjawisko to wykorzystuje się również do zabezpieczania banknotów i w analizie chemicznej (Spektroskopia

UV). Ultrafiolet o małej długości fali jest wykorzystywany do sterylizacji (wyjaławiania) pomieszczeń.

Niektóre owady, na przykład pszczoły, widzą w bliskiej światłu widzialnemu części widma promieniowania

ultrafioletowego, również rośliny posiadają receptory ultrafioletu.

15.1.6 PROMIENIOWANIE RENTGENOWSKIE

Promieniowanie rentgenowskie jest promieniowaniem jonizującym.

Technicznie promieniowanie rentgenowskie uzyskuje się przeważnie poprzez wyhamowywanie rozpędzonych cząstek

naładowanych. Wlampach rentgenowskich są to rozpędzone za pomocą wysokiego napięcia elektrony hamowane na

metalowych anodach. Źródłem wysokoenergetycznego promieniowania rentgenowskiego są również przyspieszane

w akceleratorach cząstki naładowane. Promieniowanie rentgenowskie jest wykorzystywane do wykonywania zdjęć

rentgenowskich do celów defektoskopii i diagnostyki medycznej.

W zakresie promieniowania rentgenowskiego są również prowadzone obserwacje astronomiczne.

15.1.7 PROMIENIOWANIE GAMMA

Page 53: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 53

Promieniowania gamma jest promieniowaniem jonizującym.

Promieniowanie gamma towarzyszy reakcjom jądrowym, powstaje w wyniku anihilacji – zderzenie cząstki i antycząstki,

oraz rozpadów cząstek elementarnych. Otrzymywane w cyklotronach promieniowanie hamowania i synchrotronowe

również leży w zakresie długości fali promieniowania gamma, choć niekiedy bywa nazywane wysokoenergetycznym

promieniowaniem rentgenowskim.

Promienie gamma mogą służyć do sterylizacji żywności i sprzętu medycznego. W medycynie używa się ich

w radioterapii oraz w diagnostyce. Zastosowanie w przemyśle obejmują badania defektoskopowe. Astronomia

promieniowania gamma zajmuje się obserwacjami w tym zakresie długości fal.

16. TECHNIKI OBRAZOWANIA MEDYCZNEGO WYKORZYSTUJĄCE

PROMIENIOWANIE JONIZUJĄCE. (DR M. KOPACZYŃSKA) Promieniowanie jonizujące - wszystkie rodzaje promieniowania, które wywołują jonizację ośrodka materialnego, tj.

Oderwanie przynajmniej jednego elektronu od atomu lub cząsteczki albo wybicie go ze struktury krystalicznej. Za

promieniowanie elektromagnetyczne jonizujące uznaje się promieniowanie, którego fotony mają energię większą od

energii fotonów światła widzialnego.

16.1 JONIZACJA BEZPOŚREDNIA I POŚREDNIA

Promieniowanie może jonizować materię dwojako:

Bezpośrednio

Pośrednio

Promieniowanie jonizujące bezpośrednio to strumień cząstek obdarzonych ładunkiem elektrycznym jonizujących głównie

przez oddziaływanie kulombowskie. Może to być m.in.

Promieniowanie alfa (α, jądra helu; ładunek elektryczny +2e)

Promieniowanie beta (β–, β

+, elektron i antyelektron, ładunek elektryczny -e, +e, odpowiednio).

Promieniowanie jonizujące pośrednio to promieniowanie składające się z obiektów nieposiadających ładunku

elektrycznego. Jonizuje ono materię poprzez oddziaływania inne niż kulombowskie, np.

Rozpraszanie komptonowskie

Efekt fotoelektryczny

Kreację par elektron - pozyton

Najważniejsze przykłady: promieniowanie neutronowe (n), promieniowanie elektromagnetyczne (promieniowanie

rentgenowskie (X), promieniowanie gamma (γ); o energiach wyższych od energii nadfioletu).

16.2 PROMIENIOWANIE JONIZUJĄCE W RADIOLOGII

Promieniowanie jonizujące, ze względu na jego destrukcyjne oddziaływanie z żywą materią, jest przedmiotem

zainteresowania radiologii – w celach

Ochrony przed nim (ochrona radiologiczna)

Leczniczych i diagnostycznych (radioterapia, medycyna nuklearna)

Substancje emitujące promieniowanie jonizujące nazywamy promieniotwórczymi.

16.3 SZKODLIWOŚĆ BIOLOGICZNA

Względną szkodliwość biologiczną danego rodzaju promieniowania jonizującego opisuje bezwymiarowa wielkość zwana

współczynnikiem wagowym promieniowania wr, przeliczająca dawkę pochłoniętą w grejach (J/kg) na dawkę równoważną

Page 54: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 54

w siwertach (ICRP 60). Dawniej do tego celu stosowany był współczynnik jakości promieniowania Q (ang. Quality

Factor, QF, ICRP 26), przy czym różnice między tymi wielkościami (wr i Q) nie polegają wyłącznie na różnych

wartościach przypisanych różnym rodzajom promieniowania.

Promieniowanie jonizujące można wykrywać jedynie metodami pośrednimi. Detektory promieniowania jonizującego

rejestrują zmianę energii promieniowania na formę mierzalną (reakcje chemiczne, światło, prąd elektryczny, ciepło).

16.4 NATURALNE TŁO PROMIENIOWANIA JONIZUJĄCEGO

Promieniowanie jonizujące jest stale obecne w środowisku człowieka, zawsze i wszędzie. Jest to spowodowane głównie

wszechobecnością radioizotopów różnych pierwiastków w przyrodzie oraz promieniowaniem kosmicznym. Naturalne

promieniowanie jonizujące środowiska jest jednym z czynników powodujących mutacje w genach organizmów żywych,

czyli jednym z czynników ewolucyjnych, którym zawdzięczamy różnorodność fauny i flory.

Statystyczna roczna dawka promieniowania naturalnego wynosi 2,4 msv (wg. UNSCEAR, 1988).

16.4.1 HIPOTEZY DOTYCZĄCE SZKODLIWOŚCI MAŁYCH DAWEK

Wpływ małych dawek promieniowania jonizującego, o wielkości naturalnego tła lub kilkakrotnie większym, na organizm

ludzki jest przedmiotem sporu naukowców. Powstały dwie hipotezy

Hormezy radiacyjnej – zakłada ona pozytywny wpływ małych dawek promieniowania na odporność na raka i

choroby genetyczne

Liniowy model bezprogowy – przyjmuje szkodliwość dowolnie małej dawki promieniowania

Koncepcję hormezy potwierdzają badania epidemiologiczne prowadzone na terenach, gdzie poziom naturalnego

promieniowania wielokrotnie przekracza średni poziom promieniowania tła. Jest ona też uzasadniona ewolucyjnie – nigdy

w swojej historii ludzie nie byli odizolowani od promieniowania jonizującego i całkowity jego brak byłby sytuacją

nienaturalną, dlatego powinniśmy być do niego ewolucyjnie przystosowani.

17. PODSTAWY FIZYCZNE ORAZ ZASTOSOWANIE MIKROSKOPOWYCH

TECHNIK OBRAZOWANIA MEDYCZNEGO. (PDF)

18. ELEMENTY OBWODÓW ELEKTRYCZNYCH: ELEMENTY RLC, ŹRÓDŁA

NAPIĘĆ I PRĄDÓW. (PROF. Z. MOROŃ)

18.1 ŹRÓDŁA PRĄDÓW I NAPIĘĆ STAŁYCH.

Źródła sygnałów stałoprądowych są stosowane w elektronice jako:

- źródła zasilające układy elektroniczne, to jest dostarczające prądów i napięć do polaryzacji elementów i przyrządów

aktywnych w strukturach układów elektronicznych (polaryzowane są tranzystory, układy scalone, przyrządy

optoelektroniczne itp.),

- źródła sygnałów odniesienia (sygnałów wzorcowych w układach elektronicznych),

- źródła zasilania awaryjnego urządzeń i systemów elektronicznych .

Dzielą się one na źródła elektrochemiczne (baterie suche, akumulatory, ogniwa paliwowe), stałoprądowe zasilacze

elektroniczne (stabilizowane i niestabilizowane zasilacze napięcia i prądu stałego). Źródłami sygnału stałoprądowego są

również, fotoogniwa (ogniwa słoneczne), jak i zjawiska termoelektryczne zachodzące na złączu dwu różnych metali

(termoelementy). Każde z wyżej wymienionych źródeł sygnałów stałoprądowych posiada, co najmniej jeden parametr

Page 55: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 55

charakterystyczny dla danej grupy źródeł. Istnieje jednak grupa parametrów wspólnych. Wyznaczenie wartości niektórych

z tych parametrów jest celem zadań realizowanych w niniejszym ćwiczeniu. Każde rzeczywiste źródło sygnału

stałoprądowego można, w celu analizy, zastąpić prostym układem zastępczym. Układ taki składa się z dwu elementów;

idealnego źródła napięcia lub prądu oraz elementu reprezentującego rezystancję (oporność) wewnętrzną źródła

rzeczywistego (rys.1). Idealne źródło napięciowe wytwarza na swych zaciskach napięcie (SEM- siłę elektromotoryczną),

którego wartość nie zależy od obciążenia, czyli wartości dostarczanego przez to źródło prądu. Idealne źródło prądu

wytwarza prąd, którego natężenie jest niezależne od dołączonego obciążenia. Napięcie na zaciskach takiego źródła jest

równe zeru przy zwarciu i rośnie proporcjonalnie do wzrostu wartości rezystancji obciążenia. Zgodnie z prawem Ohma

wynika, że idealne źródło napięcia ma rezystancję wewnętrzną równą zero, natomiast idealne źródło prądowe ma

rezystancję wewnętrzną nieskończenie dużą. Rezystancja wewnętrzna źródeł rzeczywistych wpływa w znaczący sposób

na właściwości tych źródeł. Rzeczywiste źródło napięcia jest tym lepsze im mniejsza jest jego rezystancja wewnętrzna

RW. Rezystancja ta ujawnia swoje oddziaływanie w przypadku, kiedy ze źródła napięcia pobierany jest prąd (rys.2). Prąd

IO pobierany przez obciążenie RO dołączone do zacisków wyjściowych źródła 1- 1' powoduje, że napięcie U występujące

na zaciskach tego źródła, jest mniejsze od napięcia E występującego na tych zaciskach w sytuacji kiedy ze źródła nie jest

pobierany prąd (to jest IO = 0).

Rys.1 Symbole i schematy zastępcze źródeł sygnałów stałoprądowych.

A) symbol idealnego źródła napięciowego,

B) symbol idealnego źródła prądowego,

C) symbol rzeczywistego źródła sygnału stałoprądowego

D) rzeczywiste źródło napięciowe i równoważny schemat zastępczy utworzony z szeregowego połączenia idealnego źródła

napięciowego o SEM = E i rezystancji wewnętrznej źródła RW.

Spadek napięcia na rezystancji wewnętrznej źródła wyznaczony z prostej zależności (prawo Ohma) ma wartość:

ΔU=I0∙Rw

Page 56: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 56

Rys 2. Ilustracja wpływu rezystancji wewnętrznej źródła na wartość napięcia U występującego na jego zaciskach przy pobieraniu

przez obciążenie RO prądu IO.

Opisane powyżej zjawisko zależności wartości napięcia na zaciskach rzeczywistego źródła od pobieranego przez

obciążenie prądu, umożliwia wyznaczenie jego rezystancji wewnętrznej Rw. W tym celu wystarczy zmierzyć wartości

napięć U1 i U2 na zaciskach źródła dla dwu różnych wartości obciążenia RO1 oraz RO2. Uzyskane wyniki pozwalają

ułożyć układ dwu równań (zastosować II prawo Kirchhoffa na sumę spadków napięć w zamkniętym oczku), z których

można wyznaczyć szukaną rezystancję wewnętrzną Rw. Szukaną rezystancję można także wyznaczyć z charakterystyki

prądowo - napięciowej danego źródła. W celu wyznaczenia wspomnianej charakterystyki należy złożyć układ pomiarowy

jak na rysunku 3.

Rys 3. Schemat ideowy układu pomiarowego do wyznaczania charakterystyki prądowo - napięciowej rzeczywistego źródła napięcia

18.2 ELEMENTY RLC

Obwód elektryczny jest utworzony przez połączone ze sobą elementy takie jak, oporniki cewki indukcyjne, kondensatory,

źródła napięć (akumulatory, baterie itp.). Kazdy z elementów ma wyprowadzone na zewnątrz dwie końcówki (zaciski)

umozliwiające połączenie tego elementu z innym elementem obwodu elektrycznego. Przy rysowaniu schematu obwodu

elektrycznego stosowane są symbole reprezentujące elementy występujące w rzeczywistym obwodzie. W konfiguracji

sieci, jaką tworzą połączone ze sobą elementy mozna wyróznić tak zwane gałęzie i węzły

Rysunek 18.1 Symbole graficzne reprezentujące rzeczywiste podstawowe elementy obwodu elektrycznego; (a) symbole opornika liniowego;

(b) symbole reprezentujące indukcyjność; (c) symbole reprezentujące kondensator- pojemność elektryczną

Gałęzią nazywamy zbiór połączonych ze sobą elementów z których kazdy ma co najmniej dwie końcówki, przy czym z

całego zbioru elementów na zewnątrz tego zbioru wyprowadzone są jedynie dwie końcówki. Końcówka często oznaczana

jest kropką. W najprostszym przypadku gałąź moze być utworzona przez pojedynczy element. Węzłem nazywamy

wyprowadzoną na zewnątrz końcówkę gałęzi do której dołączona jest co najmniej jedna końcówka innej gałęzi.

19. PODSTAWOWE PRAWA ELEKTROTECHNIKI. (PROF. Z. MOROŃ) Prawo Ohma. Ogólny zapis prawa Ohma W postaci różniczkowej (wektorowej) upraszcza się do postaci skalarnej W

przypadku obwodów prądu stałego. W takim przypadku możemy powiedzieć, ze spadek napięcia jaki pojawi się na

Page 57: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 57

oporniku jest proporcjonalny do wartości oporności tego opornika i proporcjonalny do natężenia prądu który przez ten

opornik przepływa.

Rysunek 19.1 Podstawowe zależności zachodzące w liniowych obwodach prądu stałego między napięciem (U), prądem (I), mocą (P) i opornością

(R); (a) „trójkąt” trzech podstawowych wielkości fizycznych w obwodzie elektrycznym prądu

stałego; (b) związki między wielkościami z rysunku 4a; (c) prawo Ohma; (d) zestawienie związków' między U, I, P, R.

Prawa Kirchhoffa dotyczą bilansu prądów W Węźle układu i bilansu napięć W zamkniętym oczku. Prawo Kirchhoffa W

postaci skalarnej i W odniesieniu do prądów jest następujące; sumą prądów wpływających do węzła jest równą sumie

prądów odpływąjących od węzła. Prawo Kirchhoffa W odniesieniu do napięć sformułowane W postaci skalarnej ma

następującą postać; sumą spadków napięć w zamkniętym oczku jest równą zeru (dotyczy to spadków napięć na

odbiornikach łącznie z napięciami na zaciskach źródeł Występuj ących W gałęziach danego zamkniętego oczka.

Rysunek 19.2 . . Ilustracja paw' Kirchhoffa; (a) prawo Kirchhoffa w odniesieniu do prądów, prądy wpływające do węzła są zapisywane w

równaniu ze znakiem plus (+) a prądy odpływające od węzła są zapisywane w równaniu ze znakiem minus (-); (b) prawo Kirchhoffa w

odniesieniu do napięć, napięcia których zwrot jest zgodny z kierunkiem prądu oczkowego są zapisywane w równaniu ze znakiem plus (+) a

napięcia których zwrot jest przeciwny do kierunku przepływu prądu oczkowego są zapisywane w' równaniu ze znakiem minus (-), taka

sama zasada obowiązuje przy źródłach które występują w' danym oczku.

Bezpośrednio z prawa Ohma i dwóch praw Kirchhoffa wynikają zalezności określające Wartości wypadkowe łączonych

ze sobą liniowych elementów biernych występujących_ W obwodach elektrycznych. Każdą konfigurację połączeń

elementów obwodu elektrycznego daje się uprościć stosując zasady szeregowego i równoległego łączenia elementów.

Page 58: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 58

Rysunek 19.3 Łączenie elementów' obwodu elektrycznego; (a) połączenie szeregowe; (b) połączenie równoległe. Analogicznie łączy się

elementy indukcyjne. Uwaga: w' przypadku łączenia kondensatorów' (pojemności elektrycznych) w' przypadku równoległego połączenia

kondensatorów, pojenmość wypadkowa jest równa sumie pojenmości łączonych równolegle. Szeregowe połączenie kondensatorów'

zachowuje analogicznie jak równoległe połączenie oporników.

Jednym z podstawowych zagadnień dotyczących obwodów elektrycznych jest wyznaczenie Wartości prądów płynących

W poszczególnych gałęziach tego obwodu. Wymaga to napisania układu równań liniowych dla analizowanego obwodu

elektrycznego i ich rozwiązania. Wśród metod rozwiązywania obwodów elektrycznych najczęściej stosowane są; metoda

prądów oczkowych i metoda napięć węzłowych. W przypadku obwodu elektrycznego nalezy wyznaczyć oczka niezalezne

dla których układa się równania niezalezne (liczba tych równań spełnia W Większości przypadków zalezność; liczba

gałęzi - liczba Węzłów +1 = liczba oczek niezaleznych. Oczkiem niezaleznym jest oczko mające co najmniej jedną gałąź

nie wchodzącą W skład innego oczka dla którego wypisuje się niezalezne równanie. Oczka niezalezne można wyznaczyć

posługując się grafem obwodu elektrycznego W następujący sposób; narysować graf obwodu; Wybrać dowolne oczko W

tym grafie, wykreślić (usunąć) jedną gałęzi tego wybranego oczka. W pozostałej części grafu wybrać kolejne oczko,

ponownie W tym wybranym oczku usunąć jedną z gałęzi. Postępować tak az wyczerpie się mozliwość znalezienia oczka

W grafie analizowanego obwodu elektrycznego. Niech obwód elektryczny ma postać jak na rysunku 7. Obwód ma, 3 - 2

+ l = 2

Rysunek 19.4 Schemat obwodu elektrycznego analizowanego W ćwiczemu; J 1, J; - prądy oczkowe, Um - spadek napięcia na n-tym

odbiorniku Wywołany przepływem m-tego prądu oczkowego (w omawianym przykładzie U31 - spadek napięciana oporniku R; przez

przepływający przez ten opornik prąd oczkowy J 1).

Page 59: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 59

Rysunek 19.5 Podstawowe kroki przy wyznaczaniu oczek niezależnych obwodu elektrycznego (a) oraz wygenerowania dla

tych oczek układu liniowych równań wyznaczonych metodą prądów oczkowych (b).

20. SYGNAŁY ELEKTRYCZNE I ICH WŁAŚCIWOŚCI. POMIARY

PARAMETRÓW SYGNAŁÓW. (PDF) (PROF. Z. MOROŃ)

21. OBWODY ELEKTRYCZNE W WARUNKACH ZASILANIA NAPIĘCIEM

SINUSOIDALNIE ZMIENNYM. (PROF. Z. MOROŃ) Prądem zmiennym nazywamy prąd, który w czasie zmienia swoją wartość liczbową.

Jeżeli prąd zmienia swoją wartość i zwrot w sposób okresowy, to taki prąd nazywamy prądem przemiennym.

Wśród wielu rodzajów prądu przemiennego największe znaczenie ma prąd sinusoidalny, czyli taki, który opisany jest

funkcją sinus.

)sin()( tIti m

Gdzie:

Im – amplituda, inaczej wartość maksymalna

) – argument funkcji sinusoidalnej

inusoidalnej

fT

22

21.1 WIELKOŚCI OPISUJĄCE PRZEBIEGI SINUSOIDALNE:

Page 60: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 60

Wartość maksymalna (amplituda) przebiegu to największa wartość chwilowa, jaką przebieg osiąga w rozpatrywanym

przedziale czasu (oznaczamy dużą literą z indeksem m)

Wartość średnia półokresowa przebiegu o okresie T to średnia arytmetyczna tego przebiegu dla połowy okresu.

2

0

2T

śr dttiT

I )( mmśr III 6370

2,

Wartość skuteczna to pierwiastek kwadratowy z wartości średniej kwadratu przebiegu obliczonej za jeden okres.

T

sk dttiT

I0

21)(

mmsk III 70702

1,

21.2 SYNCHRONIZM, PRZESUNIĘCIE FAZOWE

i - faza początkowa przebiegu prądu

u - faza początkowa przebiegu napięcia

- przesunięcie fazowe

W obwodach prądu sinusoidalnego najczęściej mamy do czynienia z prądami i napięciami o jednakowej

częstotliwości, co nazywa się synchronizmem.

Przesuniecie fazowe jest to różnica faz początkowych dwóch przebiegów sinusoidalnych będących w

synchroniźmie.

21.3 ELEMENTY OBWODU ELEKTRYCZNEGO

Elementy idealne Oporność Pojemność Indukcyjność

u

i

i

u

t

u;i

Page 61: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 61

Symbol

Przesunięcie fazowe 0o

- 90o

+ 90o

Opis metodą czasową iRu dtiC

u

t

CC 0

1 dt

diLu

Opis metodą symboliczną ij

RR eRIU

ij

CC eIC

jU

1

ij

LL eLIjU

Energia

tiuW

2

2uCW

2

2iLW

Rozproszona

Gromadzona w polu

Elektrycznym Magnetycznym

Prąd stały Płynie Rozwarcie

Ic(t)=0

Zwarcie

Ul(t)=0

Prąd zmienny Płynie Płynie Płynie

SYGNAŁ

Stały Sinusoidalny

Prawo Ohma U=I*R ZIU

Opór

R

jXRZ - impedancja

R – rezystancja, X - reaktancja

RRCC LL

Page 62: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 62

Przewodność

G = 1/R

jBGZ

Y 1 - admitancja

G – konduktancja, B - susceptancja

Z, R, X, Y, G, B - immitancje

I PK Idop wyp wypdop titi

II PK En = Uk tute kn

Połączenie

Szeregowe

n

k

kRR1

n

k

kZZ1

Połączenie

Równoległe

n

k

kGG1

n

k

kYY1

Moc P = U*I titutp

Do opisu elementów rzeczywistych oraz obwodów złożonych, które zawierają dowolne połączenie elementów biernych

można zastosować układy zastępcze przedstawione za pomocą elementów idealnych.

21.4 ELEMENTY IDEALNE R, L, C W OBWODACH PRĄDU SINUSOIDALNEGO

21.4.1 IDEALNY REZYSTOR

Page 63: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 63

Zapis czasowy

iRmR tIti sin

uRmR tUtu sin

RR iRu

RmRm IRU

RG

1

Zapis metodą symboliczną

RR IRU

ij

RR eII

ui j

R

j

RR eUeIRU

21.4.2 IDEALNA CEWKA

i

u;i

uR

t

i=u

φi

φu

IR

UR

Page 64: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 64

Zapis czasowy

imLL tIti sin

umLL tUtu sin

LmLLm IXU

LXB

L

L

11

Zapis metodą symboliczną

LLL IjXU

fLLX L 2

ij

LL eII

ui j

L

j

LLL eUeIjXU

2

iu

21.4.3 IDEALNY KONDENSATOR

dt

diLu L

L

φi

φu IL

UL

i

u;i

uL

t

i u

Page 65: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 65

Zapis czasowy

iCmC tIti sin

uCC tUtu sin

dtiC

u CC

1

CmCCm IXU

CX

BC

C 1

Zapis metodą symboliczną

CCC IjXU

ij

CC eII

ui j

C

j

CCC eUeIjXU

2

iu

21.5 DWÓJNIK SZEREGOWY RL

Napięcie na dwójniku szeregowym RL

U = UR+UL

U = I·(R+jxl)=I·Z

Wyrażenie:

Z=(R+jxl) to impedancja zespolona w postaci algebraicznej

XL

˜

i

u;i

uC

t

u i

φi

φu

IC

UC

Page 66: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 66

Z= Zej

to impedancja zespolona w postaci wykładniczej, gdzie

22

LXRZ to moduł impedancji

R

Xarctg L to kąt fazowy

Wykres wektorowy trójkąt impedancji

21.6 DWÓJNIK SZEREGOWY RC

Napięcie na dwójniku szeregowym RC

U = UR+UC

U = I·(R-jxc)=I·Z

Wyrażenie:

Z=(R-jxc) to impedancja zespolona w postaci algebraicznej

Z= Ze-j

to impedancja zespolona w postaci wykładniczej, gdzie

22

CXRZ to moduł impedancji

φ

Z

R

XL

I

U UL

UR

φ

XC

˜

Page 67: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 67

R

Xarctg C to kąt fazowy

Wykres wektorowy trójkąt impedancji

Moce pobierane przez dwójnik szeregowy:

Czynna – P = I2·R

Bierna – Q = I2·X

Pozorna – S = I2·Z

Moc pozorna „zespolona”:

S = U·I* = P + jq

21.7 DWÓJNIK RÓWNOLEGŁY RL

Prąd w dwójniku równoległym RL

I = IR+IL

I = U·(G-jbl)=U·Y

Wyrażenie:

Y=(G-jbl) to admitancja zespolona w postaci algebraicznej

φ

Z

R

XC

I

U UC

UR

φ

BL

˜

Page 68: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 68

Y= Ye-j

to admitancja zespolona w postaci wykładniczej, gdzie

22

LBGY to moduł admitancji

G

Barctg L to argument admitancji

Wykres wektorowy trójkąt admitancji

21.8 DWÓJNIK RÓWNOLEGŁY RC

Prąd w dwójniku równoległym RC

I = IR+IC

I = U·(G+jbc)=U·Y

Wyrażenie:

Y=(G+jbc) to admitancja zespolona w postaci algebraicznej

Y= Ye j

to admitancja zespolona w postaci wykładniczej, gdzie

22

CBGY to moduł admitancji

IL

U

I

IR

φ φ

Y

G

BL

BC ˜

Page 69: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 69

G

Barctg C to argument admitancji

Wykres wektorowy trójkąt admitancji

22. MOC I ENERGIA W OBWODACH ELEKTRYCZNYCH. (PROF. Z. MOROŃ) Energia elektryczna prądu elektrycznego to energia, jaką prąd elektryczny przekazuje odbiornikowi wykonującemu pracę

lub zmieniającemu ją na inną formę energii. Energię elektryczną przepływającą lub pobieraną przez urządzenie określa

iloczyn natężenia prądu płynącego przez odbiornik, napięcia na odbiorniku i czasu przepływu prądu przez odbiornik.

ΔE = W = U*I*t =P*t

Moc prądu elektrycznego to praca, jaką wykonuje prąd w określonym czasie.

Moc prądu możemy obliczać z następujących wzorów:

P = W/t

P = U ּ I

P = I^2 ּ R

W przypadku obwodów prądu przemiennego mamy do czynienia z mocą czynną, bierną oraz pozorną.

Moc czynna - P - w układach prądu przemiennego (również prądu zmiennego) jest to część mocy, którą odbiornik pobiera

ze źródła i zamienia na pracę lub ciepło. W układach prądu stałego cała moc jest mocą czynną. Jednostką mocy czynnej

jest wat.

Wydziela się ona na rezystancji. Oznacza się ja jako P. Jednostką jest wat. [W]

Moc bierna w obwodach prądu sinusoidalnie zmiennego jest wielkością konwencjonalną, w sposób umowny opisującą

zjawisko pulsowania energii elektrycznej. Ta oscylująca energia nie jest zamieniana na użyteczną pracę, niemniej jest ona

konieczna do funkcjonowania urządzeń elektrycznych.

Wydziela się ona na reaktancji X i oznacza się ją jako Q. Jednostka war.

Moc pozorna- jest to iloczyn wartości skutecznych napięcia i natężenia prądu. Moc pozorna jest geometryczną sumą

mocy czynnej i biernej prądu elektrycznego pobieranego przez odbiornik ze źródła. Oznacza się jako S. Jednostka

woltoamper [VA].

U

I IC

IR

φ φ

Y

G

BC

Page 70: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 70

23. PÓŁPRZEWODNIKOWE ELEMENTY ELEKTRONICZNE I ICH

ZASTOSOWANIA. ELEMENTY ELEKTRYCZNE I ICH ZASTOSOWANIA.

(PROF. Z. MOROŃ)

23.1 ELEMENTY PÓŁPRZEWODNIKOWE

23.1.1 DIODY

Dioda prostownicza – dioda przeznaczona głównie do prostowania prądu przemiennego, jej główną cechą jest możliwość

przewodzenia prądu o dużym natężeniu. Głównymi parametrami diod prostowniczych jest maksymalne dopuszczalne

napięcie wsteczne (napięcie pomiędzy anodą i katodą w stanie zatkania) i maksymalny prąd przewodzenia, parametry te

określają możliwość użycia diody w konkretnym zastosowaniu. Innymi parametrami ważnymi w tego rodzaju

zastosowaniach jest maksymalny prąd chwilowy (określający odporność na przeciążenia), maksymalna moc tracona na

diodzie, czas odzyskiwania zdolności zaworowej (wyznacza maksymalną częstotliwość prądu prostowanego).

Najpopularniejszym zastosowaniem diody prostowniczej jest prostowanie napięcia o częstotliwości sieciowej. Diody te są

elementami nieliniowymi i w związku z tym można wyróżnić napięcie powyżej którego gwałtownie rośnie prąd

przepływający przez diodę w kierunku przewodzenia. Jest to minimalne napięcie przewodzenia, poniżej którego prąd

diody jest pomijalnie mały. Dla germanu wynosi ono około 0,2 V (diody rzadziej stosowane); dla krzemu napięcie to

równe jest około 0,7 V.

Dioda Zenera (stabilizacyjna) - jej głównym parametrem jest napięcie przebicia złącza p-n. Po przekroczeniu napięcia

przebicia ma miejsce nagły, gwałtowny wzrost prądu. W kierunku przewodzenia (anoda spolaryzowana dodatnio

względem katody) zachowuje się jak normalna dioda, natomiast przy polaryzacji zaporowej (katoda spolaryzowana

dodatnio względem anody) może przewodzić prąd po przekroczeniu określonego napięcia na złączu, zwanego napięciem

przebicia. Przy niewielkich napięciach (do ok. 5 V) podstawową rolę odgrywa zjawisko Zenera, w zakresie od 5 do 7 V

zjawisko Zenera i przebicie lawinowe, a powyżej 7 V - wyłącznie przebicie lawinowe.

23.1.2 TRANZYSTORY

Tranzystor bipolarny (dawniej: tranzystor warstwowy, tranzystor złączowy) to odmiana tranzystora, półprzewodnikowy

element elektroniczny, mający zdolność wzmacniania sygnału. Zbudowany jest z trzech warstw półprzewodnika o

różnym typie przewodnictwa. Charakteryzuje się tym, że niewielki prąd płynący pomiędzy dwiema jego elektrodami

(nazywanymi bazą i emiterem) steruje większym prądem płynącym między innymi elektrodami (kolektorem i emiterem).

Po przyłożeniu do złącza emiterowego napięcia w kierunku przewodzenia,

popłynie niewielki prąd między bazą a emiterem, umożliwiający przepływ dużego prądu między kolektorem a emiterem.

Stosunek prądu kolektora do prądu bazy nazywany jest wzmocnieniem prądowym tranzystora i oznacza się β. Stosuje się

go jako wzmacniacz bądź jako przełącznik.

Tranzystor unipolarny, to taki, w którym sterowanie prądem odbywa się za pomocą pola elektrycznego. Przyłożone do

bramki(bazy) napięcie wywołuje w krysztale dodatkowe pole elektryczne, które wpływa na rozkład nośników prądu w

kanale(emiter-kolektor). Skutkiem tego jest zmiana efektywnego przekroju kanału, co objawia się jako zmiana oporu

dren-źródło(kolektor-emiter).

Page 71: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 71

23.1.3 TERMISTOR

To opornik półprzewodnikowy, którego rezystancja (opór) zależy od temperatury. Wykonuje się je z tlenków: manganu,

niklu, kobaltu, miedzi, glinu, wanadu i litu. Od rodzaju i proporcji użytych tlenków zależą właściwości termistora.

Stosowane jako czujniki temperatury, elementy kompensujące zmianę oporności innych elementów elektronicznych,

ograniczniki natężenia prądu, czujniki tlenu.

23.1.4 TYRYSTOR

Jest elementem półprzewodnikowym składającym się z 4 warstw w układzie p-n-p-n. Jest on wyposażony w 3 elektrody,

z których dwie są przyłączone do warstw skrajnych, a trzecia do jednej z warstw środkowych. Elektrody przyłączone do

warstw skrajnych nazywa się katodą (K) i anodą (A), a elektroda przyłączona do warstwy środkowej – bramką(G).

Jako sterowniki prądu stałego są stosowane w stabilizatorach napięcia stałego i w automatyce silników prądu stałego.

Jako sterowniki prądu przemiennego – w automatyce silników indukcyjnych i w technice oświetleniowej. Jako łączniki i

przerywacze prądu stałego i przemiennego – w automatyce napędu elektrycznego, końcowe tory falowników, układach

stabilizacji napięcia i w technice zabezpieczeń. Jako przemienniki częstotliwości – w automatyce silników indukcyjnych,

technice ultradźwięków, w urządzeniach zapłonowych silników spalinowych, gdzie ma duże znaczenie szybkość

narastania prądu w cewce zapłonowej, a więc płynącego przez tyrystor - od tego zależy wysokość indukowanego przez

nią napięcia.

23.1.5 HALLOTRON

Urządzenie, którego zasada działania opiera się na klasycznym efekcie Halla. Zastosowanie: do pomiaru wielkości

elektromagnetycznych tj. Indukcja magnetyczna, natężenie prądu, moc, opór; do pomiaru wlk. Innych niż elektryczne, np.

Kąt obrotu, przesunięcie, drgania mechaniczne, ciśnienie.

Elementy elektroniczne:

Element elektroniczny bierny (pasywny) - jest to taki element, który jest odbiornikiem energii elektrycznej. Całkowita

energia doprowadzona do elementu w czasie od minus nieskończoności do "t" jest nieujemna dla dowolnego charakteru

napięcia na jego zaciskach i prądu w tym elemencie. Do chwili doprowadzenia napięcia do zacisków elementu prąd w

nim nie płynie i na odwrót - na jego zaciskach nie ma napięcia przed podłączeniem prądu. Przykład: R, L, C, diody

półprzewodnikowe, itd.

Element elektroniczny czynny (aktywny)- to taki, który umożliwia sterowanie przepływem prądu, jest zdolny do

wzmocnienia sygnału. Elementy aktywne można określić jako przetworniki energii elektrycznej aktywnie przetwarzające

sygnał, źródła energii elektrycznej oraz siła elektromotoryczna (SEM). Element czynny wymaga do pracy zasilania, lub

sam jest zasilaniem. Przykład: półprzewodniki, wzmacniacze, źródła prądu.

24. WZORZEC MEDYCZNY (NORMA MEDYCZNA) I SPOSÓB JEJ

KONSTRUKCJI (DR B. JUROSZEK)

Page 72: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 72

Normy medyczna - stanowią techniczną specyfikację zapewniającą kompatybilność produktów i usług, stosowny poziom

ich bezpieczeństwa, jakości lub wydajności jak i metod niezbędnych do zapewnienia zgodności ze specyfikacją.

Norma (standard) - dokument opracowany na zasadzie konsensusu i zaakceptowany przez stosowne gremium, który

dostarcza wytyczne lub charakterystyki dla działań lub ich rezultatów, polegające na osiągnięciu optymalnego stopnia

uporządkowania w określonych warunkach.

Konstrukcja:

Cześć 1: wprowadzenie (stanowi ogólne wprowadzenie opisując historię i definicję normy)

Część 2: zasady (rekomendacje modelu)

Część 3: terminy i definicje (wprowadza podstawowe terminy oraz definicje pojęć wykorzystywanych w normie (słownik

pojęć)

Część 4: katalogi

25. BEZPIECZEŃSTWO PRZECIWPORAŻENIOWE W APARATURZE

ELEKTROMEDYCZNEJ. SKUTKI PORAŻENIA (DR B. JUROSZEK) Porażenie elektryczne może objawiać się:

* odczuwaniem bólu przy przepływie prądu, kurczami mięśni (skurcz mięśni dłoni może uniemożliwić samouwolnienie

się porażonego)

* zatrzymaniem oddechu, zaburzeniami krążenia krwi

* zaburzeniami wzroku, słuchu i zmysłu równowagi

* utratą przytomności

* migotaniem komór sercowych (fibrylacja) - bardzo groźnym dla życia człowieka, gdyż zazwyczaj prowadzi ono do

zejścia śmiertelnego

* oparzeniami skóry i wewnętrznych części ciała, do zwęglenia włącznie.

Bezpośrednio po rażeniu prądem, tzn. Po przerwaniu przepływu prądu, może wystąpić wstrząs elektryczny, objawiający

się przerażeniem, bladością, drżeniem ciała lub kończyn, nadmiernym wydzielaniem potu, stanem apatii lub euforii. Może

również wystąpić obrzęk mózgu i utrata przytomności, połączona z zatrzymaniem krążenia krwi i brakiem oddechu.

Skutki te mogą się ujawnić także po pewnym czasie - od kilku minut do kilku miesięcy.

25.1 KLASY OCHRONNOŚCI:

Klasy ochronności można określić jako wybrane kombinacje klasycznych zabezpieczeń stanowiące kompletny system

ochrony przed ogólnie znanymi makroporażeniami elektrycznymi, rozpatrywanymi głównie od strony części sieciowej

urządzeń. Zgodnie z wymienioną normą ogólną wyróżnia się trzy podstawowe klasy ochronności urządzeń

elektromedycznych:

1. Urządzenie klasy I, którego konstrukcja zawiera:ochronę podstawową w postaci izolacji podstawowej o określonych

parametrach, zabezpieczającej przed kontaktem z częściami pod niebezpiecznym napięciem,

ochronę dodatkową, polegającą na przyłączeniu korpusu urządzenia do przewodu uziemienia ochronnego w taki sposób,

że dostępne części metalowe urządzenia nie mogą stać się elektrycznie niebezpieczne w przypadku uszkodzenia izolacji

podstawowej.

2. Urządzenie klasy II, w którym ochrona polega na oddzieleniu dostępnych części przewodzących od części

niebezpiecznych za pomocą izolacji:podwójnej (podstawowej + dodatkowej) o określonych parametrach, lub:zamiast

izolacji podwójnej - dopuszczeniu izolacji wzmocnionej o takim samym poziomie zabezpieczenia jak w przypadku

izolacji podwójnej.Urządzenie klasy II nie może zawierać jakichkolwiek środków służących do uziemienia ochronnego.

3. Urządzenie zasilane wewnętrznie (z wewnętrznego źródła energii elektrycznej), nie mające generalnie połączenia z

siecią elektryczną, poza ściśle określonymi przypadkami, zwane zwyczajowo urządzeniem bateryjnym.

Page 73: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 73

Każda z powyższych klas ma swoje zalety i wady. Wybór klasy ochronności zależy od wielu czynników konstrukcyjnych

i eksploatacyjnych. Jedynie urządzenia bateryjne są wyjątkowo bezpieczne pod względem separacji od sieci elektrycznej.

Nie mogą one jednak całkowicie zastąpić pozostałych klas ze względu na ograniczoną moc i inne problemy związane z

zasilaniem bateryjnym.

25.2 TYPY OCHRONNOŚCI CZĘŚCI APLIKACYJNEJ:

Część aplikacyjna typu B jest to normalnie zbudowana część o prądzie upływu pacjenta ograniczonym do wartości 100 µa

w normalnym stanie technicznym związanego z nią urządzenia elektromedycznego. Część ta jest oznaczona symbolem

człowieka. Część aplikacyjna typu B (ang. Body) może być stosowana w kontakcie z całym ciałem pacjenta z wyjątkiem

jego serca i, według niektórych źródeł, mózgu. Ze względu na brak nakazu wykonywania izolacji obwodu pacjenta od tej

części, może ona zwiększać ryzyko porażenia pacjenta w pewnych przypadkach, a zwłaszcza w sytuacji, kiedy w

pomieszczeniu medycznym stosowana jest jeszcze sieć elektryczna starego typu (TN-C). Niektóre normy szczegółowe na

konkretne rodzaje urządzeń medycznych niedopuszczają do stosowania typu ochrony B części aplikacyjnych.

Część aplikacyjna typu BF jest częścią typu B z dodaną izolacją elektryczną obwodu pacjenta od pozostałej części

urządzenia elektromedycznego. Oprócz ograniczenia prądu upływu pacjenta w normalnym stanie prąd ten jest

ograniczony także w stanie pojedynczego uszkodzenia do wartości 500 µa lub 5 ma w szczególnych przypadkach.

Izolacja obwodu pacjenta sprawia, że jego potencjał elektryczny względem ziemi jest pływający wokół zera w zależności

od tego na ile idealna jest izolacja tej części aplikacyjnej. Stąd bierze się litera "F" (ang. Floating). Oznaczeniem

graficznym tej części jest postać człowieka w kwadratowej ramce symbolizującej izolację obwodu pacjenta. Dodanie

izolacji obwodu pacjenta zabezpiecza go na wypadek różnych sytuacji awaryjnych z niebezpiecznymi napięciami od

strony zarówno przyłączonego urządzenia elektromedycznego jak i otoczenia pacjenta. Miejsca dozwolonego kontaktu

części aplikacyjnej typu BF z ciałem pacjenta są takie same jak przy typie B.

Część aplikacyjna typu CF jest zbudowana na tej samej zasadzie izolacji obwodu pacjenta jak w przypadku typu BF z tą

różnicą, że jakość tej izolacji jest wyższa i pozwala uzyskiwać lepsze ograniczenie prądów upływu pacjenta. W

normalnym stanie - stosuje się ograniczenie do wartości 10 µa, w stanie uszkodzenia - do wartości 50 µa. Litera "C" w

oznaczeniu tej części pochodzi od angielskiego słowa cardiac - dotyczący serca. Graficznym symbolem tej części jest

serce w kwadracie. Część aplikacyjna typu CF może być stosowana w kontakcie z dowolną częścią ciała pacjenta

włącznie z jego sercem. W praktyce spotyka się urządzenia z częścią nie przeznaczoną do kontaktu z sercem pacjenta, a

mimo to oznaczoną symbolem CF. Dotychczasowe normy nie zabraniają tego, a producenci urządzeń mają możliwość

konkurencyjnego podwyższania typu ochrony części aplikacyjnych w swoich urządzeniach.

25.3 TRANSFORMATORY SEPARACYJNE

Transformatory separacyjne mające galwanicznie oddzielone uzwojenia strony pierwotnej i wtórnej (i stosunek napięcia

wyjściowego do wejściowego 1:1) ograniczają prawdopodobieństwo porażeń elektrycznych i innych zagrożeń poprzez:

Ograniczenie prądów upływu przyłączonych urządzeń,

Ograniczenie prądu zwarcia, np. W przypadku przebicia w izolacji przyłączonego urządzenia,

Zmniejszenie ryzyka wybuchu lub zapłonu wywołanego urządzeniami elektromedycznymi w stosowanych jeszcze

atmosferach zawierających środki wybuchowe lub łatwopalne,

Zwiększenie niezawodności zasilania sieciowego, które nie zostaje wyłączane w przypadku pojedynczego zwarcia do

ziemi w odseparowanym obwodzie. Odgrywa to ważną rolę w przypadku urządzeń medycznych podtrzymujących

pacjenta przy życiu, urządzeń na salach operacyjnych lub salach intensywnego nadzoru.

25.4 WYŁĄCZNIKI RÓŻNICOWOPRĄDOWE

Urządzenia te monitorują różnicę między wartościami prądu płynącego w przewodzie fazowym i neutralnym w

wybranym punkcie linii elektrycznej zasilającej urządzenie lub pomieszczenie i odłączają szybko zasilanie w momencie

przekroczenia dopuszczalnej wartości tej różnicy. Chociaż wyłączniki te są bardziej czułe na zagrożenia niż klasyczne

Page 74: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 74

bezpieczniki sieciowe, ich miliamperowe poziomy zadziałania wskazują na celowość ich wykorzystania do zabezpieczeń

jedynie przed zwykłymi porażeniami.

26. BŁĘDY APARATUROWE I OD PACJENTA W PRZYRZĄDACH

ELEKTROMEDYCZNYCH. (DR J. KOLANKO) Błędy aparaturowe - związane są z niedokładnością urządzenia pomiarowego lub ich niestabilną pracą. Wszystkie

przyrządy są źródłem potencjalnych błędów systematycznych (pipety - błąd kalibracji lub odmienna temperatura użycia).

W urządzeniach elektrycznych źródłem błędu są wahania napięcia źródła prądu, zabrudzenie lub korozja styków. W

przyrządach optycznych – zmniejszenie intensywności promieniowania spowodowane zużyciem źródła. Błędy te

usuwane są przez staranne i częste kalibrowanie przyrządów pracujących w tych samych warunkach.

Błędy na podstawie pomiarów EKG:

Różne są źródła zakłóceń występujących przy rejestracji sygnału EKG. Nazywane są one artefaktami. Są to te wszystkie

sygnały, które zmieniają właściwy obraz sygnałów biomedycznych. Mają one charakter złożony. Dzieli się je na dwie

kategorie:

− pierwsza kategoria to artefakty fizjologiczne,

− druga kategoria to artefakty techniczne.

Artefakty fizjologiczne pochodzą od pracy innych sąsiadujących narządów. W przypadku kontroli potencjałów EKG

typowymi artefaktami fizjologicznymi są potencjały generowane przez mięśnie oddechowe.

Źródłem artefaktów technicznych są pracujące w pobliżu urządzenia. Popularnie nazywa się je zakłóceniami. Są to:

Zakłócenia przedostające się drogą prądów wyindukowanych w przewodach doprowadzających sygnał od pacjenta do

urządzenia elektromedycznego. Główną ich przyczyną są długie kable (1 ÷ 2 m). Dlatego należy przestrzegać zasady

używania kabli możliwie krótkich oraz likwidować pętle. Dobrym rozwiązaniem jest stosowanie już przy pacjencie

wzmacniaczy buforowych umieszczonych we wtyku przyelektrodowym,

2. Zakłócenia na przejściu elektroda – skóra, które tworzy niepożądaną rezystancję. Na niej odkładają się zakłócenia z

otaczającego elektromagnetycznego pola zakłóceń powodując zniekształcenia sygnału użytecznego. Można ją zmniejszyć

dzięki nałożeniu specjalnego żelu (pasty przewodzącej), który zwilżając powierzchnię naskórka poprawia kontakt

elektrody z ciałem.

Wielu zakłóceń można uniknąć stosując odpowiednio ekranowane pomieszczenia. Pomieszczenie, które ma spełniać rolę

ekranu powinna charakteryzować jednorodność materiału pod względem własności magnetycznych i elektrycznych,

ciągła powierzchnia bez szczelin i otworów. Wszelka instalacja elektryczna przenikająca do/z pomieszczenia musi być

odpowiednio połączona z ekranem tego pomieszczenia. Okna, drzwi itp. Nie mogą naruszać ciągłości powierzchni. Linie

elektryczne doprowadzone do pomieszczenia muszą zawierać filtry przeciwzakłóceniowe o tłumieniu nie gorszym od

ekranu; ekran tego filtru należy łączyć z ekranem pomieszczenia.

27. PODSTAWOWE PARAMETRY SYGNAŁÓW DETERMINISTYCZNYCH I

LOSOWYCH. (DR ISKANDER, DR OCIEPKA) Sygnał to abstrakcyjny model dowolnej mierzalnej wielkości zmieniającej się w czasie, generowanej przez zjawiska

fizyczne lub systemy. Tak jak wszystkie zjawiska może być opisany za pomocą aparatu matematycznego, np. Poprzez

podanie pewnej funkcji zależnej od czasu. Ponieważ sygnał niesie informację o naturze badanych zjawisk lub systemów,

w niektórych dziedzinach nauk jest on traktowany jak nośnik informacji. Sygnał oznacza zatem przepływ strumienia

informacji, przy czym przepływ może odbywać się w jednym lub w wielu wymiarach.

Page 75: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 75

Sygnały elektroniczne: sygnały wykorzystywane są do badania zachowania (odpowiedzi) układów elektronicznych,

pomiarów zmieniających się wartości napięć elektrycznych, zmieniających się wartości prądu, itp.

Parametry sygnałów:

Okres

Częstotliwość

Wartość maksymalna

Wartość średnia

Wartość skuteczna

Wartość chwilowa

Amplituda

Energia

Moc

Okres (w fizyce) czas wykonania jednego pełnego drgania w ruchu drgającym, czyli czas pomiędzy

wystąpieniami tej samej fazy ruchu drgającego. Okres fali równy jest okresowi rozchodzących się drgań. Okres

dotyczyć może również innych zjawisk fizycznych (np. Prądu przemiennego), które mają charakter oscylacji

(powtarzających się zmian jakiejś wielkości). W takim najogólniejszym znaczeniu, okresem nazywamy

najmniejszy czas potrzebny na powtórzenie się wzoru oscylacji. Dla fali oznacza to odcinek czasu pomiędzy

dwoma punktami fali o tej samej fazie, czyli np. Między dwoma kolejnymi szczytami lub dolinami. Z innymi

parametrami ruchu okresowego wiążą go następujące zależności:

Gdzie: f - częstotliwość,

Gdzie: ω - pulsacja (częstość kołowa).

Gdzie:

Λ - długość fali,

V - prędkość rozchodzenia się fali.

Formalna definicja okresu wiąże się z pojęciem matematycznym Funkcja okresowa i jej okresem

Częstotliwość określa liczbę cykli zjawiska okresowego występujących w jednostce czasu. W układzie SI

jednostką częstotliwości jest herc (Hz). Częstotliwość 1 herca odpowiada występowaniu jednego zdarzenia

(cyklu) w ciągu 1 sekundy. Najczęściej rozważa się częstotliwość w ruchu obrotowym, częstotliwość drgań,

napięcia, fali.

W fizyce częstotliwość oznacza się literą f lub grecką literą ν. Z definicji wynika wzór:

Page 76: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 76

Gdzie:

F – częstotliwość,

N – liczba drgań,

T – czas, w którym te drgania zostały wykonane.

Z innymi wielkościami wiążą ją następujące zależności:

,

Gdzie:

T – okres,

,

Gdzie: ω – pulsacja (częstość kołowa). Odpowiada ona prędkości kątowej w ruchu po okręgu.

Wartość maksymalna sygnału Xm jest to największa wartość chwilowa jaką sygnał osiąga w okresie

Zmienności.

Wartość średnia – średnia arytmetyczna tego sygnału obliczona za jeden okres.

Ponieważ dla sygnałów harmonicznych średnia za okres równa jest zero, podaje się w tym przypadku

Wartość średnią obliczoną dla połowy okresu i wynosi ona xśr=2/π·Xm

Wartość skuteczna jest statystyczną miarą sygnału okresowo zmiennego (najczęściej dotyczy wielkości elektrycznych

prądu i napięcia).

Page 77: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 77

Wartość skuteczna prądu przemiennego jest taką wartością prądu stałego, która w ciągu czasu równego okresowi prądu

przemiennego spowoduje ten sam efekt cieplny, co dany sygnał prądu przemiennego (zmiennego).

Energia gr. Ενεργεια (energeia) – skalarna wielkość fizyczna charakteryzująca stan układu (materii) jako jego zdolność

do wykonania pracy.

Energia występuje w różnych postaciach np: energia kinetyczna, energia sprężystości, energia cieplna, energia jądrowa.

Z punktu widzenia termodynamiki niektóre formy energii są funkcjami stanu i potencjałami termodynamicznymi .

Energia i jej zmiany opisują stan i wzajemne oddziaływania obiektów fizycznych (ciał, pól, cząstek, układów fizycznych,

przemiany fizyczne i chemiczne oraz wszelkiego rodzaju procesy występujące w przyrodzie.

Energia jest wielkością addytywną.

Energię we wzorach fizycznych zapisuje się najczęściej za pomocą symbolu E.

Moc jest skalarną wielkością fizyczną określającą pracę wykonaną w jednostce czasu przez układ fizyczny. Z definicji,

moc określa wzór:

Gdzie:

P – moc,

W – praca,

T – czas.

Wzór ten jest prawdziwy, gdy praca wykonywana jest w tym samym tempie (nie zmienia się w czasie). W przeciwnym

wypadku powyższy wzór będzie określał moc średnią. Aby obliczyć moc chwilową należy skorzystać z innego wzoru:

Moc może być również definiowana jako prędkość emisji energii (na źródła światła, anteny, głośnik. Wzór na moc (przy

stałym tempie emisji) przybiera wówczas postać:

Gdzie E jest energią emitowaną w czasie t.

Specyficzne zagadnienie mocy fizycznej w odniesieniu do człowieka i zwierząt omówione jest w haśle: silnik żywy.

Page 78: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 78

Page 79: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 79

28. ZASADY PRÓBKOWANIA SYGNAŁÓW. KRYTERIUM KOTIELNIKOWA-

SHANNONA. (DR ISKANDER, DR OCIEPKA)

Model próbkowania – mnożenie sygnałów x(t) przez ciąg równoodległych delt Diraca. Rezultatem jest

przeliczalny wzór liczb (uporządkowanych według kolejności pojawiania się), przyporządkowanych sygnałowi

X(t).

Sygnał o ograniczonym paśmie (dyskretny) jest próbkowany dostatecznie często, to w zbiorze popranych próbek

zostaje zachowana o nim pełna informacja. Jeżeli częstotliwość graniczna dyskretnego sygnału nie została

przekroczona to możemy w pełni odtworzyć sygnał ciągły.

Szereg Kotelnikova-Shannona

Dowodzi się, że zbiór próbek odległych o Ts (sygnał o ograniczonej szerokości widma) stanowi zbiór

współczynników rozwinięcia tych sygnałów w szereg Kotelnikova z ortonormalnym zbiorem funkcji bazowych

typu sinx/x.

29. ZASTOSOWANIE TRANSFORMATY FOURIERA W ANALIZIE

SYGNAŁÓW. (DR ISKANDER, DR OCIEPKA)

Page 80: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 80

Page 81: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 81

30. ŹRÓDŁA I RODZAJE BŁĘDÓW OPROGRAMOWANIA. SPOSOBY

UNIKANIA, WYKRYWANIA I SPOSOBY ELIMINACJI. (JĘZYKI

PROGRAMOWANIA) (DR W. DYRKA) Błąd oprogramowania lub w żargonie informatycznym bug – usterka programu komputerowego powodująca jego

nieprawidłowe działanie, wynikająca z błędu człowieka na jednym z etapów tworzenia oprogramowania, zwykle podczas

tworzenia kodu źródłowego, lecz niekiedy także na etapie projektowania.

30.1 ETYMOLOGIA ANGIELSKIEGO OKREŚLENIA BUG

Słowo bug (z ang. Pluskwa, owad, robactwo) przeszło prawdopodobnie do żargonu programistycznego z żargonu

inżynierów telekomunikacji, którzy żartowali na temat szumów w sygnale, mówiąc że „owady zalęgły się w urządzeniu”.

Wiadomo też, że słowa bug w kontekście usterki użył Thomas Edison już w 1878.

30.1.1 DIAGNOZA I USUWANIE

Bug jako określenie błędu programistycznego występuje w nazwach programów pomagających usuwać błędy, tzw.

Debugerów, czy też „odpluskwiaczy”. Programy te pozwalają śledzić wartości określonych zmiennych i rejestrów

wykorzystywanych w programie do momentu wystąpienia błędu, co z kolei pozwala znaleźć dokładne miejsce w kodzie

źródłowym, w którym należy dokonać poprawek.

Aby ułatwić zgłaszanie błędów testerom i użytkownikom oraz w celu śledzenia stanów błędów przez wszystkich

zainteresowanych, powstały liczne systemy śledzenia błędów. Do najpopularniejszych należy Bugzilla (stworzony

pierwotnie na potrzeby projektu Mozilla), stosowany również przez fundację mediawiki do zbierania informacji o błędach

w oprogramowaniu Wikipedii i pokrewnych Wiki (patrz: http://bugzilla.wikipedia.org ). W systemie Bugzilla każdy może

zgłosić błąd, podając przy tym okoliczności, w jakich on występuje. Zgłoszenie to jest następnie przydzielane

określonemu programiście, a aktualne informacje o postępach w naprawianiu usterki są udostępniane w systemie.

Page 82: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 82

30.1.2 TYPY BŁĘDÓW

Z reguły wyróżnia się dwa główne typy błędów:

Błędy składniowe – nie pozwalają na kompilację programu – np. Literówka w wywołaniu zmiennej. Są one

najczęściej dość łatwe do usunięcia, zazwyczaj wynikają z drobnych pomyłek programisty.

Błędy logiczne – nie przerywają kompilacji, lecz powodują niewłaściwe działanie warstwy logicznej – np.

Niepoprawne liczenie pozycji gracza (które także może być spowodowane literówką – jak np. Wpisanie znaku

„+” zamiast „-”). Ten typ błędów jest znacznie trudniejszy do wykrycia i usunięcia; często błąd tkwi w jednym

źle zapisanym znaku, lecz programista musi do tego znaku sam dojść (w przypadku błędu składniowego znak jest

wskazywany przez komunikat kompilatora).

30.1.3 ZAPOBIEGANIE BŁĘDOM

W typowych warunkach można się spodziewać, że w każdym nietrywialnym programie będzie sporo błędów. Ich liczbę

można jednak znacząco ograniczyć. Uważa się, że liczba błędów na wiersz kodu jest w przybliżeniu niezależna od

języka[potrzebne źródło]

, dlatego program o tej samej funkcjonalności napisany w języku wyższego poziomu (np. Perl czy

Python) będzie miał mniej błędów niż w języku niższego poziomu (C czy asembler). Stąd lepiej używać języków, które w

krótszym tekście zawrą więcej treści.

Liczbę błędów można też ograniczyć przeprowadzając testy programu. Testy te powinny być w miarę możliwości

zautomatyzowane – komputer potrafi przeprowadzić o kilka rzędów wielkości więcej testów na godzinę niż człowiek.

Do metod zmniejszania liczby błędów można zaliczyć:

Umiejętne zastosowanie paradygmatów programowania strukturalnego, proceduralnego i obiektowego,

Pisanie w sposób czytelny, hierarchiczne formatowanie kodu źródłowego

Unikanie skrótów programistycznych w rodzaju ++i*=*c--;[4]

Stosowanie zrozumiałych identyfikatorów, nawet kosztem ich większej długości

Stosowanie komentarzy w miejscach, których zrozumienie kodu nie jest natychmiastowe

Współtworzenie programu i jego dokumentacji

Opisywanie (w komentarzach i dokumentacji) założeń przyjętych podczas pisania danego fragmentu kodu (np. Co

do typów danych wejściowych, czy spodziewanego sposobu użycia)

Unikanie trudnych w analizie konstrukcji (jak instrukcja skoku, czy ewaluacja kodu w trakcie wykonania)

Używanie narzędzi wykrywających podejrzane fragmenty kodu (np. Lint), włączenie ostrzeżeń kompilatora o

napotkaniu konstrukcji będących częstym źródłem błędów (np. If(a=b)... Zamiast if(a==b)... )

Ręczne audyty kodu

Czasem błędy wykrywa się przez wprowadzanie do programu losowych danych i sprawdzanie otrzymywanych

odpowiedzi. Ponieważ typowe błędy dotyczą wielu danych, wykrywa się w ten sposób większość błędów.

Bardzo rzadko przeprowadza się dowody matematyczne programów. Nawet one nie dają jednak gwarancji poprawnego

działania programu, ponieważ nie jest pewne, że model zachowania programu jest bezbłędny (jeśli ta sama osoba pisała

kod i dowód, to ten sam błąd mógł się pojawić w obu), ani też, że zastosowany model matematyczny odpowiada

rzeczywistości (np. Kompilator czy nawet sam procesor może wprowadzić optymalizacje, które psują „poprawny” kod).

Ponieważ testowanie dużych czynności jest trudną operacją, zwykle testuje się osobno podzespoły programu oraz

program w całości (zakładając przy tym, że podzespoły działają poprawnie). Można przez to przeoczyć pewną klasę

błędów.

Często trudno jest testować program w naturalnym środowisku (np. W przypadku programów sieciowych, operujących

bezpośrednio na sprzęcie czy wymagających interakcji z wieloma użytkownikami) i dlatego konieczne jest testowanie w

Page 83: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 83

środowisku sztucznym – za pomocą emulatorów sprzętu, sieci czy sztucznego generowania zdarzeń symulujących

działania użytkowników („wpisano X w pole Y”, „kliknięto przycisk Z” itp.).

Testy pisane są zwykle w późnej fazie rozwoju oprogramowania. W metodologii zwanej „programowaniem

ekstremalnym” testy pisze się zanim rozpocznie się pisanie danej części oprogramowania, co ma zmniejszyć liczbę

błędów. Wiąże się to ze zjawiskiem – stwierdzonym empirycznie i znanym z literatury specjalistycznej – wiązki błędów.

Oznacza to, że im więcej odkryto błędów w programie, tym większe jest prawdopodobieństwo istnienia błędów

niewykrytych. To zaskakujące stwierdzenie można wyjaśnić w następujący sposób: jeśli w programie wykryto dużo lub

bardzo dużo błędów, to jest on prawdopodobnie źle napisany, zatem łączna liczba błędów może być większa niż liczba

wykrytych. W tym kontekście wczesne wykrywanie błędów (czyli złego programowania) pozwala na uniknięcie tego

zjawiska.

31. ETAPY TWORZENIA OPROGRAMOWANIA. (JĘZYKI PROGRAMOWANIA)

(DR W. DYRKA) Inżynieria oprogramowania – dziedzina inżynierii systemów zajmująca się wszelkimi aspektami produkcji

oprogramowania: od analizy i określenia wymagań, przez projektowanie i wdrożenie, aż do ewolucji gotowego

oprogramowania. Podczas gdy informatyka zajmuje się teoretycznymi aspektami produkcji oprogramowania, inżynieria

oprogramowania koncentruje się na stronie praktycznej.

31.1 FAZY PROCESU PRODUKCJI OPROGRAMOWANIA

W inżynierii oprogramowania proces produkcji oprogramowania dzieli się na pewne fazy, typowy podział to:

1. Specyfikacja – na tym etapie następuje określenie i ustalenie wymagań, które musi spełniać oprogramowanie

2. Projektowanie – ustalenie ogólnej architektury systemu, wymagań dla poszczególnych jego składowych

3. Implementacja – realizacja ustalonej architektury poprzez implementację składowych (modułów) i połączeń

między nimi.

4. Integracja – zintegrowanie poszczególnych składowych w jeden system, testowanie całego systemu

5. Ewolucja – uruchomienie systemu, usuwanie wykrytych podczas jego używania błędów, rozszerzanie systemu

31.2 MODELE CYKLU ŻYCIA OPROGRAMOWANIA

Można wyróżnić szereg modeli życiowych oprogramowania, w tym:

Pisz i poprawiaj

Model kaskadowy

Model prototypowy

Model przyrostowy (iteracyjny)

Model równoległy

Programowanie zwinne (ang. Agile programming)

Programowanie ekstremalne (ang. Extreme programming)

Synchronizuj i stabilizuj

Model spiralny

Rational Unified Process

Etapami tworzenia programu są:

1.Planowanie -definicja problemu

Page 84: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 84

-analiza wymagań i znalezienie odpowiedniej metody rozwiązania (stworzenie algorytmu)

-dobór struktur danych do algorytmów

2.Implementacja Zapisanie algorytmu w postaci kodu źródłowego. Zapisanie algorytmu w postaci ciągu instrukcji języka programowania

wysokiego poziomu nazywamy implementacją.Powstaje wówczas kod źródłowy.Algorytm można zaimplementować w

dowolnym edytorze tekstu ale najwygodniej jest skorzystać z edytora wbudowanego do programu danego języka.

3.Kompilacja Tłumaczenie programu źródłowego na kod maszynowy.

Program może występować w 2 postaciach:

-jako program źródłowy czyli postać zrozumiała dla programisty

-jako kod maszynowy czyli zapisany w języku maszynowym zrozumiałym dla komputera

Do kompilacji służy opcja Compile z menu głównego programu.

4.Konsolidacja Połączenie programu z bibliotekami, zwane też linkowaniem. Bibliotekami są gotowe zestawy programów, które

programista często wykorzystuje pisząc własny program.

5.Testowanie Prosty program nie wymaga testowania. Aby przetestować program używamy debuggera często wbudowanego do

programu kompilatora. Rodzaje błędów: błędy kompilacji- wykrywane w czasie kompilacji np. Błędnie zapisane słowo

kluczowe, zła postać instrukcji, źle wstawiony znak interpunkcyjny lub jego brak błędy synktatyczne- np. Zastosowanie

zbyt wielu wyjść z instrukcji błędy wykonania- dzielenie przez zero, brak wolnej pamięci, brak dostępu do pliku, są one

wykrywane nie podczas kompilacji lecz w czasie wykonywania programu błędy logiczne (specyfikacji) - zapętlenie

programu, ogólnie program nie robi tego, czego się od niego oczekuje, niemożliwe jest automatyczne wykrycie takiego

błędu

6.Optymalizacja Działanie mające na celu poprawę wydajności programu komputerowego, głównie poprzez zwiększenie szybkości

działania i zmniejszenie wykorzystania przez niego zasobów komputera. Można wyróżnić następujące podstawowe

sposoby optymalizacji: optymalizacja algorytmu programu, czyli zmniejszenie jego długości, ilości porównań,

uproszczenie działań matematycznych, usunięcie zbędnych pętli itp., zmiana funkcji użytych w programie na bardziej

dopasowane do danego zadania

Page 85: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 85

PRZEDMIOTY SPECJALNOŚCIOWE 1. EFEKTY TERMICZNE ODDZIAŁYWANIA ŚWIATŁA LASEROWEGO Z

TKANKĄ. (PROF. H. PODBIELSKA) Światło w laserach emitowane jest, podobnie jak w zwykłych żarówkach, w wyniku przejść atomów pomiędzy stanami o

wyższej a stanami o niżej energii. Podstawową różnicą pomiędzy działaniem lasera a żarówki jest fakt, że w laserze

wszystkie atomy emitują światło w sposób skorelowany, natomiast w żarówce każdy atom emituje światło w sposób

niezależny od innych atomów. Dzięki tej korelacji pomiędzy atomami światło laserowe ma wyjątkowe własności w

porównaniu z tradycyjnymi źródłami światła:

Światło lasera jest wysoce monochromatyczne. Oznacza to, że laser emituje światło w bardzo wąskim zakresie długości

fal. Szerokość widma światła emitowanego przez laser może być nawet rzędu średniej emitowanej długości fali.

Światło lasera jest bardzo spójne. Oznacza to, że pojedyncze ciągi falowe światła laserowego mogą mieć wiele

kilometrów długości. Gdy rozdzielimy światło laserowe na dwie wiązki (na przykład na płytce światłodzielącej), które

przebywać będą drogi o różnej długości, to po nałożeniu wiązek z powrotem na siebie będą one ,,pamiętać'' swój wspólny

początek i na ekranie utworzą obraz interferencyjny. W przypadku światła laserowego ta różnica dróg może wynosić

nawet kilkaset kilometrów i wciąż na ekranie zobaczymy obraz interferencyjny. Natomiast w przypadku żarówki, jeśli

różnica dróg jest większa niż metr, żadnego obrazu interferencyjnego nie zaobserwujemy.

Światło lasera jest dobrze ukierunkowane. Wiązka laserowa rozszerza się w bardzo małym stopniu. Na przykład impuls

laserowy używany do pomiaru odległości Ziemia-Księżyc wytwarza na jego powierzchni plamkę o średnicy zaledwie

kilku metrów. Rozbieżność światła z żarówki, nawet ukierunkowanego przy pomocy soczewek, byłaby znacznie większa.

Światło lasera można dokładnie skupić. Za pomocą soczewek wiązkę lasera można skupić do niezwykle małej plamki.

W związku z tym, w tak małej plamce można osiągnąć niezwykle wysokie natężenie światła.

Lasery w medycynie mogą być wykorzystywane do następujących

Celów:

- diagnostyki stanu organizmu (lasery diagnostyczne)

- terapii schorzeń (lasery stymulacyjne, czyli pobudzające i

Chirurgiczne)

- jako źródło światła podświetlającego pole operacji.

Lasery diagnostyczne, stymulacyjne i oświetlające to lasery małej

Mocy.

Zadaniem laserów stosowanych w chirurgii jest usuwanie tkanek, a odbywa się to na drodze termicznej lub mechanicznej.

Lasery te generują promieniowanie o znacznie większych mocach i stąd często mówi się o nich jako o energetycznych.

Charakter oddziaływania promieniowania laserowego na tkankę zaleŝy od parametrów promieniowania i własności

tkanki.

Lasery wykorzystywane w oftalmologii słuŝą do koagulacji siatkówki (przyklejanie jej do dna oka). Odklejenie się

siatkówki od dna oka moŝe nastąpić samoistnie lub po uderzeniu w głowę. Wiązkę laserową moŝna uŝyć do jej sklejania, i

tu laser okazuje się niezastąpiony. Laser nakierowuje się dokładnie na określony punkt gałki ocznej i wysyła się krótki

impuls światła. Za pomocą soczewki skupia się go w miejscu sklejenia. Tkanka zostaje spalona, skleja się na

mikroskopijnym obszarze, po czym powstaje blizna, która wzmacnia miejsce sklejenia. Operacja sklejenia siatkówki jest

bezbolesna, gdyŝ ze względu na krótki czas trwania impulsu promieniowania nie zachodzą jeszcze reakcje odruchowe.

Lasery często są stosowane takŝe w dermatologii (czyli leczenie choroby skóry), a takŝe do usuwania niewielkich naczyń

krwionośnych na powierzchni twarzy, powstałych np. Po odmroŝeniach. Lasery charakteryzują się doskonałą jakością

Page 86: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 86

wiązki. Ich promieniowanie udaje się przesyłać światłowodami o niewielkiej średnicy rdzenia (50 um), dzięki temu

moŝna ich uŝywać w trudno dostępnych miejscach ciała ludzkiego.

Laser okazuje się takŝe pomocny w walce z rakiem. W tym przypadku równieŝ wykorzystuje się duŝą gęstość mocy i

małe rozmiary wiązki promieniowania laserowego. Moŝna nakierować ją na chore komórki i zniszczyć je, nie naruszając

przy tym zdrowych tkanek. Promieniowanie niektórych laserów jest silnie pochłaniane przez wodę. Mają więc typowo

powierzchniowe oddziaływanie i doskonale nadają się do cięcia tkanek. Z racji dość precyzyjnego dawkowania energii i

stosunkowo wysokiej częstości powtarzania impulsów, prowadzi się przy ich pomocy korekcje krzywizny rogówki oka.

Doskonałe wyniki dzięki laserom osiąga się równieŝ w stomatologii (bezbolesne leczenie próchnicy).

Laser CO2 frx - Należy do grupy tak zwanych laserów ablacyjnych. Przy kontakcie z tkanką powoduje jej odparowanie

(waporyzację) lub koagulację (ścięcie białka tkankowego). Efekt działania lasera na tkanki nosi nazwę zjawiska

fototermolizy.

W przypadku zmian powierzchownych pozwala to na bardzo precyzyjne ich usunię-cie – brodawki, ziarniniaki, guzki. W

przypadku zmian głębiej położonych istotna rolę odgrywa energia cieplna uwolniona z tkanek. Szeroki zakres regulacji

wiązki laserowej pozwala na bardzo precyzyjna aplikację od muśnięcia do głębokiej ablacji.

2. ABSORPCJA, LUMINESCENCJA – PODSTAWOWE ZJAWISKA

ODDZIAŁYWANIA ŚWIATŁA Z TKANKĄ. (PROF. H. PODBIELSKA) Tkanki są ośrodkiem silnie niejednorodnym. Składają się z niehomogennych warstw, zawierają różne chromofory,

naczynia krwionośne, gruczoły, mieszki włosowe itp., które determinują właściwości optyczne danej tkanki (Bigio i

Mourant, 1997; Star, 1997).

Promieniowanie padające na tkankę może ulegać takim procesom jak absorpcja, rozproszenie lub odbicie (Rys. 8).

Absorpcja i rozproszenie zależą od długości fali padającego światła oraz właściwości tkanki, natomiast odbicie jest

uwarunkowane kątem, pod którym pada wiązka światła. Współczynnik odbicia jest najmniejszy dla promieniowania

padającego prostopadle do naświetlanej powierzchni (Mierczyk i Kwaśny,1999).

Chromofory takie jak DNA, aminokwasy, białka, melanina i hemoglobina ograniczają penetrację światła w głąb

tkanek (Young, 1997). W przypadku skóry, czynnikiem mającym największy wpływ na wnikanie promieniowania jest

absorpcja melaniny (Rys. 9), natomiast dla tkanek niemelanotycznych największe znaczenie ma absorpcja

hemoglobiny (Mierczyk i Kwaśny, 1999). Zakres długości fali od około 600 nm do 1200 nm jest najczęściej

rozpatrywany jako optymalny dla PDT (Rys. 9) ze względu na wysoką penetrację (tzw. Okno optyczne), przy czym

głębokość wnikania światła rośnie wraz z długością fali (Kalka i in., 2000). Z tego powodu poszukuje się

fotouczulaczy mających wysoki współczynnik absorpcji właśnie w tym zakresie promieniowania optycznego.

Page 87: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 87

Rysunek 2.1 Oddziaływanie światła na tkankę

Absorpcja (z optyki) - proces pochłaniania energii fali elektromagnetycznej przez substancję. Natężenie światła wiązki

przechodzącej przez substancję ulega zmniejszeniu nie tylko w wyniku absorpcji, lecz również na skutek rozpraszania

światła. O ile jednak promieniowanie rozproszone opuszcza ciało, to część zaabsorbowana zanika powodując wzrost

energii wewnętrznej tego ciała.

Wielkość absorpcji światła można obliczyć na podstawie prawa Bouguera. Zgodnie z tym prawem natężenie światła

zmienia się wykładniczo wraz z grubością substancji. Aby ułatwić obliczanie wielkości absorpcji, wprowadzono w

miejsce natężenia wielkość addytywną – absorbancję zwaną również gęstością optyczną. Oznacza się ją symbolem ABS

lub A.

Absorbancja jest miarą absorpcji promieniowania i wyraża się wzorem

Gdzie

Io – natężenie światła padającego,

I – natężenie światła po przejściu przez absorbujący ośrodek.

Absorbancję naturalną wyrażoną wzorem

Nazywa się również ekstynkcją promieniowania elektromagnetycznego.

Transmitancja wskazuje, jaka część promieniowania padającego została przepuszczona przez substancję. Wyraża się ona

wzorem

Page 88: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 88

Można ją również wyrażać w procentach

Absorbancja powiązana jest z transmitancją wzorem

Luminescencja tzw. Zimne świecenie, jarzenie – zjawisko emisji fal świetlnych przez ciała, wywołane inną przyczyną niż

rozgrzanie ich do odpowiednio wysokiej temperatury.

Ze względu na czas trwania, luminescencję dzieli się na dwa rodzaje:

Fluorescencja – zjawisko trwające wyłącznie podczas działania czynnika wzbudzającego, zjawisko uznaje się za

fluorescencję, gdy po zaniku czynnika pobudzającego następuje szybki zanik emisji w czasie około 10−8

s. Padający foton

wzbudza elektron w cząsteczce lub atomie. Wzbudzenie to wiąże się z przejściem elektronu do wzbudzonego stanu

singletowego. Przy przejściu elektronu ze wzbudzonego stanu singletowego do stanu podstawowego następuje emisja

światła. Długość fali promieniowania (wyemitowanego światła) jest dłuższa od długości fali zaabsorbowanej. Wynika to z

degradacji części energii podczas przejść termicznych i bezpromienistych. Jest to tzw. Przesunięcie Stokesa.

Fosforescencja – zjawisko trwające również przez pewien czas po ustąpieniu czynnika wzbudzającego, jako

fosforescencję określa się każde zjawisko trwające dłużej niż 10-8

s, a oparta jest o fakt pozostawania elektronu przez jakiś

czas w stanie wzbudzonym (we fluorescencji elektron natychmiast po ustaniu czynnika wzbudzającego powraca do stanu

podstawowego). Podczas fosforescencji zachodzi przejście promieniste między stanami o różnej multipletowości.

Przejście to jest stosunkowo powolne, ponieważ jest dipolowo zabronione (zachodzi dzięki sprzężeniu spin-orbita).

Fosforescencja, podobnie jak fluorescencja, emituje światło o większej długości fali niż długość fali promieniowania

pochłoniętego (czyli promieniowania wzbudzającego).

Substancje zdolne do:

Luminescencji nazywamy luminoforami,

Fluorescencji – scyntylatorami,

Fosforescencji nazywane są niekiedy fosforami.

3. TRANSILUMINACJA – ZASTOSOWANIE W MEDYCYNIE, PRZEBIEG

POMIARÓW. (PROF. H. PODBIELSKA) Transiluminacja to zjawisko transmitowania przez obiekt promieniowania optycznego, które staje się nośnikiem

informacji o charakterystycznym parametrze dotyczącym właściwości tego obiektu. Polega na prześwietlaniu tkanek,

części ciała lub organu promieniowaniem:

podczerwonym z zakresu 780-1400 nm (bliska podczerwień)

czerwonym o długości fali 630-770 nm

Użycie konwencjonalnego systemu obrazowania (np. rentgena) do diagnozy we wczesnym stadium jest trudne,

ponieważ zmiany wywołane patologią nie pojawiają si ę w twardej tkance na tym etapie.

Intensywność pochłanianej energii promieniowania podczerwonego w zakresie 800-1200 nm w sposób istotny

zależy od struktury tkanek.

Skóra (25-30%)

Mięśnie i kości (30-80%)

Page 89: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 89

Organy Miąższowe (wątroba, nerki itp.) do 100%

Tkanki zdrowe i chore różnią się następującymi parametrami, co jest wykorzystywane w tej metodzie:

Współczynnik absorpcji

Współczynnik rozpraszania

Fazowa funkcja rozpraszania

Ponadto rozkład natężenia (luminacji) w obrazie zależy m. in. od: stanu chorego, wieku, płci.

Obiekt biologiczny jest jednorodną lub złożoną mieszaniną ciał stałych, cieczy i gazów. Podczas propagacji fali

optycznej pełni dwojaką rolę:

Strona wejściowa: powierzchnia odbiorcza sygnału emitowanego ze źródła

Strona wyjściowa: wtórna powierzchnia nadawcza promieniowania przepuszczonego

W transmisyjnym wariancie interakcji światło- tkanki informację o mierzonej wielkości uzyskuje się za pomocą

optoelektronicznego czujnika zawierającego nadajnik promieniowania wnikającego do obiektu i odbiornik

promieniowania przepuszczonego.

Cechy

Transiluminacja może służyć optycznemu obrazowaniu struktur, przy czym zachodzi różnica między

obrazowaniem struktur powierzchniowych a dużych organów.

Obrazowanie struktur powierzchniowych pozwala na odwzorowanie z dużą rozdzielczością (poniżej

milimetra).

Ze względu na silne rozpraszanie duże organy odwzorowywane są z milimetrową rozdzielczością.

Do ich transiluminacji wykorzystuje się promieniowanie z zakresu bliskiej podczerwieni.

Wynika to ze stosunkowo małej absorpcji i możliwości penetracji obiektu do kilku centymetrów z

zachowaniem mocy promieniowania.

Zastosowanie w medycynie

Wspomaganie diagnostyki wodogłowia u niemowląt

Detekcja drobnych naczyń żylnych, monitorowanie leczenia żylaków

Podświetlanie patologicznych zmian: tłuszczaki, torbiele, nowotwory, krwiaki, zwapnienia, wyrośla kostne

Diagnostyka w reumatoidalnym zapaleniu stawów

Diagnostyka w stomatologii

Diafanoskopia czaszki

4. PODSTAWY FIZYCZNE DZIAŁANIA LASERÓW, RODZAJE LASERÓW. (DR

I. HOŁOWACZ)

4.1 PODSTAWY FIZYCZNE DZIAŁANIA LASERÓW

Page 90: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 90

Atomy mogą być w różnych stanach energetycznych. Jeśli elektrony obsadzają stany energetyczne w ten sposób że atom

ma najmniejszą z możliwych energii to wtedy atom taki jest w stanie podstawowym o energii E1. Jeśli z jakichś powodów

atom ma większą energię (tzn. Jego niektóre elektrony zajmują wyższe stany energetyczne, pozostawiając „luki” w

niższych stanach) wówczas mówimy że atom jest w stanie zbudzonym o energii E2.

Działanie lasera opiera się na dwóch zjawiskach: inwersji obsadzeń i emisji wymuszonej.

Emisja wymuszona zachodzi gdy atom wzbudzony zderza się z fotonem o takiej częstotliwości, że jego energia

kwantu jest równa różnicy energii poziomów między stanem wzbudzonym a podstawowym. Foton uderzający nie

ulega pochłonięciu, ale przyspiesza przejście atomu ze stanu wzbudzonego do podstawowego i dlatego z atomu

wylatują w tym samym kierunku dwa spójne, to znaczy zgodne w fazie fotony o tej samej energii więc i

częstotliwości.

Inwersja obsadzeń. Aby mogła zachodzić w dużych ilościach emisja wymuszona należy w ośrodku wzmacniającym

stworzyć odpowiednie warunki, to znaczy spowodować, by więcej elektronów było w stanie wzbudzonym niż w stanie

podstawowym. Zabieg taki nazywamy „pompowaniem lasera”. Odbywa się ono przez:

Błysk lampy błyskowej (flesza)

Błysk innego lasera

Przepływ prądu (wyładowanie) w gazie

Reakcję chemiczną

Zderzenia atomów

Wstrzelenie wiązki elektronów do substancji

Światło lasera jest spójne i monochromatyczne.

Światło wymuszone posiada taką samą jak światło wymuszające:

Długość fali (taka sama energia fotonów),

Fazę,

Polaryzację,

Kierunek propagacji

Tylko laser pozwala uzyskać światło o ekstremalnie:

Małej rozbieżności wiązki,

Małej plamce po skupieniu,

Wysokiej monochromatyczności (1 HZ!),

Wielkiej mocy (peta waty), gęstości mocy i luminancji,

Dużym stopniu spójności,

Krótkich impulsach (10-15s i mniej).

Page 91: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 91

1. Ośrodek pompujący

Doprowadzić ośrodek czynny do stanu progowej inwersji obsadzeń

2. Ośrodek czynny

Wzmocnić światło tak, by przekroczyć poziom strat

3. Rezonator

Zapewnić sprzężenie zwrotne,

Wytworzyć mody (fale stojące),

Ingerować w szerokość połówkową linii emisji,

Ingerować w geometrię wiązki.

4.2 RODZAJE LASERÓW:

1) Rezonator optyczny

2) Laser rubinowy

3) Lasery molekularne: CO2 i CO

4) Lasery krystaliczne (na ciele stałym): neodymowy, ND:YAG, KTP, wibrynowe, tytanowo-szafirowy, Ho:YAG i

Er:YAG

5) Lasery jonowe: argonowy, kryptonowy i ksenonowy, helowo-kadmowy, rentgenowski, FEL

6) Lasery półprzewodnikowe

7) Laser ekscimerowy

8) Laser femtosekundowy

9) Lasery cieczowe (barwnikowe).

Powstające w rozpadzie promieniotwórczym pozytony, po przebyciu drogi kilku milimetrów, zderzają się z elektronami

zawartymi w tkankach ciała, ulegając anihilacji. W wyniku anihilacji pary elektron – pozyton powstają dwa kwanty

promieniowania elektromagnetycznego (fotony) poruszające się w przeciwnych kierunkach (pod kątem 180°) i posiadają

energię o wartości 511 kev każdy. Fotony te rejestrowane są jednocześnie przez dwa z wielu detektorów ustawionych pod

różnymi kątami w stosunku do ciała pacjenta (najczęściej w postaci pierścienia), w wyniku czego można określić

dokładne miejsce powstania pozytonów. Informacje te rejestrowane w postaci cyfrowej na dysku komputera, pozwalają

na konstrukcję obrazów będących przekrojami ciała pacjenta, analogicznych do obrazów uzyskiwanych w tomografii

Page 92: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 92

NMR.

W badaniu PET wykorzystuje się fakt, że określonym zmianom chorobowym towarzyszy podwyższony metabolizm

niektórych związków chemicznych, np. Cukrów. Ponieważ energia w organizmie uzyskiwana jest głównie poprzez

spalanie cukrów, to w badaniach wykorzystuje się deoxyglukozę znakowaną izotopem F-18. Najczęściej stosowanym

preparatem jest F18-FDG.

A dokładniej:

W celu wykonania badania tą techniką podaje się pacjentowi związku chemicznego znakowanego izotopem zdolnym do

emisji pozytonów. Następnie pacjent jest umieszczany w polu widzenia detektorów rejestrujących promieniowanie

gamma. Zastosowanie izotopu bogatego w protony może spowodować ich rozpad na neutrony, pozytony (elektrony o

ładunku dodatnim) i neutrino. Bezpośrednio wyemitowane pozytony charakteryzują się początkową energią rzędu 1-

3mev. Ich przemieszczanie się w organizmie powoduję zmniejszanie się energii kinetycznej głównie poprzez

oddziaływanie elektronów. W efekcie, po przejściu określonej drogi przez pozyton (rzędu 1mm), może dojść do interakcji

pozytonu z elektronem co może spowodować ich anihilację. Należy zatem pamiętać, iż anihilacja nie powstaje w miejscu

wystąpienia rozpadu izotopu, lecz w pewnej odległości od izotopu jaką przebył pozyton. Z zasady można przyjąć, że im

większa energia pozytonu, tym większa maksymalna droga jaką może on przejść (nawet 17 mm). Zjawisko to stanowi

więc ważny problem w precyzyjnej lokalizacji źródeł (degradacja rozdzielczości przestrzennej obrazu). W wyniku

anihilacji powstają dwa fotony o energii 511kev, poruszające się w przeciwnych kierunkach. Jeżeli w momencie anihilacji

pozyton i elektron były w stanie spoczynku wygenerowane fotony będą rozchodziły się pod kątem 180 stopni. W

przeciwnym przypadku kąt ten podlegać może zróżnicowaniu rzędu 0.3 stopnia, co przykładowo dla pola widzenia

systemu rzędu 60cm powoduje degradację jego rozdzielczości o 1.57mm, zgodnie ze wzorem

R=0.3*Pi*r/180,

Gdzie:

R - promień pola widzenia w mm.

5. PODSTAWY DIAGNOSTYKI I TERAPII FOTODYNAMICZNEJ. (DR I.

HOŁOWACZ) Fotodynamiczna diagnostyka nowotworu (PDD) polega na podaniu obojętnego dla zdrowia znacznika, który wbudowuje

się w komórki nowotworowe. Po zastosowaniu światła laserowego komórki nowotworowe świecą w charakterystycznym

kolorze.

Terapia fotodynamiczna (PDT − photodynamic therapy) stanowi formę fototerapii, wykorzystując współdziałanie światła

laserowego oraz fotouczulacza, gromadzonego wybiórczo w tkance nowotworowej. Aktywacja na tej drodze procesów

fotobiochemicznych wywołuje bezpośrednie niszczenie komórek nowotworowych, okluzję naczyń krwionośnych i

limfatycznych guza oraz wpływa na odpowiedź immunologiczną i zapalną.

Leczenie tą metodą polega na podaniu fotouczulacza, który gromadzi się wybiórczo w tkance nowotworowej. Molekuły

fotosensybilizatorów wykazują się znacząco większym powinowactwem do komórek nowotworowych niż komórek

zdrowych organizmu. Obecnie najczęściej stosowanymi fotouczulaczami są porfiryny, ftalocyjaniny i karbocyjaniny. Po

podaniu fotouczulacza zmiany naświetla się promieniowaniem o określonej dla danego fotouczulacza długości fali,

odpowiadającej jego pasmu absorpcji. Dla wywołania efektu cytotoksycznego stosuje się energię w dawce 25-100J/cm2,

średnią gęstość mocy 15-300 W/cm2, a orientacyjny czas naświetlania wynosi 5-30 min. Fotouczulacz w stanie

wzbudzenia elektronowego, tzw. Stanie trypletowym, bierze udział w procesie fotodynamicznego utleniania. Wyróżnia

się dwa typy reakcji: typ I jest związany z powstaniem wolnych rodników, rozpoczynających niszczenie tkanek

nowotworowych, natomiast w typie II generacja wzbudzonego tlenu singletowego wywołuje utlenianie cholesterolu i

nienasyconych kwasów tłuszczowych do wodorotlenków, siarczków do sulfotlenków oraz utlenienie aminokwasów

aromatycznych. Reakcje te prowadzą do uszkodzenia białek, kwasów nukleinowych i lipidowych struktur błon

komórkowych tkanek nowotworowych.

Page 93: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 93

Do korzyści PDT należy zaliczyć: nieiwazyjność, skuteczność, możliwość powtarzania terapii bez ryzyka kumulacji

działania toksycznego, dobrą tolerancję i doskonałe efekty kosmetyczne. Niezwykle istotną cechą charakterystyczną PDT,

dającą jej wyższość nad konwencjonalnymi metodami leczenia onkologicznego, jest brak działania mutagennego.

Diagnostyka i terapia fotodynamiczna znalazły zastosowanie w wielu dziedzinach medycyny, zwłaszcza w dermatologii,

urologii, gastroenetrologii, pulmonologii, neurochirurgii oraz w ginekologii.

6. ZASTOSOWANIE LASERÓW W RÓŻNYCH DZIAŁACH MEDYCYNY. (DR I.

HOŁOWACZ)

W stomatologii:

Lasery małej i średniejmocy wykorzystywane są jako wspaniały środek przeciwzapalny i przeciwbólowy. Lasery diodowe

wykorzystywane są również przy diagnostyce próchnicy.

Lasery dużej mocystosowane są do wywołania kontrolowanych procesów destrukcyjnych tkanki, do których zalicza się:

-cięcie,

-odparowanie,

-koagulację

-fotoablację.

Rodzaje laserów stosowanych w stomatologii:

a) Er:YAG 2940[nm]praca impulsowa :opracowywanie tkanek –twardych

b) CO2 10600[nm]praca ciągła :chirurgia tkanek miękkich

c) CO2 9600[nm]praca ciągła :tkanki twarde, miękkie i kanały

d) Ho:YAG 2140[nm]praca impulsowa tkanki twarde, miękkie i kanały

e) Nd:YAG1064[nm]praca impulsowa :tkanki miękkie i kanały

f) Nd:YAG 532[nm]praca impulsowa :tkanki twarde, miękkie i kanały

g) Argon 514[nm]praca ciągła :tkanki twarde, miękkie i kanały

h) Argon 488[nm]praca ciągła :utwardzanie kompozytów

i) Diodowy 810[nm]praca ciągła :tkanki miękkie i kanały

j) Diodowy 980[nm]praca ciągła :tkanki miękkie i kanały

-w angiologii

Laser ekscymerowy- UV – służy do niszczenia zatorów miażdżycowych w żyłach ;

-w leczeniu żylaków

Wykorzystywane są lasery:

Argonowy,

Neodymowy,

CO2 ,

Barwnikowy(zazwyczaj używany jest Nd:YAG)(efekt fototermiczny).

- leczenie hemoroidów:

Jednym ze sposobów leczenia hemoroidów jest biostymulacja laserowa. W tym celu wykorzystywany jest laser He-Ne

(niskoenergetyczny), którego zadaniem jest stymulacja gojenia się ran. W przewlekłych stanach wskazane jest usuwanie

hemoroidów przy użyciu lasera CO2.

- leczenie naczyniaków

Page 94: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 94

Zadaniem leczenia jest usunięcie naczyniaka. Można to uzyskać poprzez użycie lasera do trwałego zamknięcia

centralnego naczynka doprowadzającego, a odnogi same znikną. Procedura zamknięcia naczynia opiera się na efekcie

fototermicznym, stosowanym laserem jest Nd:YAG.

- leczenie choroby niedokrwiennej serca

Laserowa rewaskularyzacja (metoda TMR) jest jedną z najbardziej zaawansowanych, a jednocześnie najmniej

inwazyjnych operacji, które są wykonywane na sercu. Polega na laserowym wykonywaniu otwartych kanałów w sercu.

Zabieg ten wykonuje się w celu polepszenia ukrwienia mięśnia sercowego. Dzięki temu zabiegowi można usunąć

problem dławicy piersiowej. Zabieg wykonuje się przy użyciu lasera ekscymerowego i CO2.

- laserowe zgrzewanie naczyń

Wyróżnia się dwie techniki laserowego zgrzewania naczyń:

-Fototermiczne Stosowane lasery: argonowy, Nd:YAG i Ekscimerowy

-Fotochemiczne Stosowany laser półprzewodnikowy.

- w okulistyce

a. PRK. Metoda ta polega na zastosowaniu lasera excimerowego ( excited dimer) do zmiany krzywizny rogówki.

b. LASIK jest najnowszą metodą laserowej chirurgii refrakcji oczu. Wykorzystuje się ultrafioletowy laser

ekscimerowy, który umożliwia usunięcie tkanki z dokładnością do 0,25 mikrometra.

Laser femtosekundowy:

Bardzo dokładne wykonanie płatka rogówki (kształt, grubość)

Łukowate cięcia w korekcji astygmatyzmu

Przeszczepy rogówki

Tworzenie tuneli do wszczepiania pierścieni śródrogówkowych–stożek rogówki

Termokeratoplastykalaserowa (LTK)Wykorzystuje się laser holmowy, który jest rodzajem lasera na ciele stałym

(Ho:YAG) emitującym promieniowanie o długości fali z zakresu podczerwieni (2090nm). Ta długość fali jest silnie

absorbowana przez wodę co powoduje fotokoagulacje tkanki.

- w dermatologii

Laser światłowodowy zbudowany z włókna szklanego domieszkowanego erbem (laser Er:szkło), pompowany diodami,

wytwarza strumień impulsów o mikroskopijnej średnicy, rozrzucanych równomiernie po skórze głowicą skanującą, jak

spray'em.

Efektem działania jest odmładzanie skóry z uszkodzeniami posłonecznymi, wygładzanie zmarszczek oraz blizn bez

tworzenia widocznych ran z długim okresem bolesnego leczenia.

Fotodepilacja

Laser rubinowy -dł. Fali 694 nm, urządzenie zastosowane jako jedno z pierwszych do zabiegu trwałego usuwania

owłosienia. Nie sprawdza się przy ciemnej karnacji i nie przy wszystkich typach włosa.

Laser aleksandrytowy -dł. Fali 755 nm, Działa gorzej na jasnych włosach.

Laser diodowy -dł. Fali 810-820 nm, Skutecznie niszczy włosy, jednak nie pozostaje bez skutków ubocznych,

które mogą się pojawić w postaci bolesnego przebiegu zabiegu i strupów oraz podrażnień po zabiegu.

Laser Nd:YAG -dł. Fali 1 064 nm, Urządzenie stosowane do usuwania włosów od wielu lat.

Laser IPL -dł. Fali -w zależności od producenta ok. 540 -650 nm, najnowocześniejsze urządzenie do depilacji

laserowej

Laserowe zamykanie naczynek

Do zamykania naczyń stosujemy laser zielony (KTP) o długości fali 532 nm

Page 95: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia dyplom 2013

Strona | 95

Zastosowanie lasera z końcówką Q-Switch 1064 nm / 532 nm:

Zastosowanie głowicy to likwidacja tatuaży czarnych i kolorowych,. Metodą tą można również usunąć źle wykonany

makijaż permanentny oraz przebarwienia. Zastosowanie lasera Nd:YAG z Q-switchem w likwidacji tatuaży jest możliwe

dzięki bardzo krótkim impulsom o dużej energii.

Lasery w medycynie sportowej i rehabilitacji

Biostymulacja laserowa

Zakres długości fali świetlnej 630 do 1100 nm,

Lasery o małej i średniej mocy, zwykle od 2 do 200 mw

7. ZASADA DZIAŁANIA ORAZ ZASTOSOWANIE MIRKOSKOPU SIŁ

ATOMOWYCH AFM (DR M. KOPACZYŃSKA)

Postęp w badaniach naukowych, jaki przyniosło skonstruowanie skaningowego mikroskopu

tunelowego (ang. Scanning tunnelling microscope, STM), stał się inspiracją do dalszych poszukiwań. Twórcy

pierwszego mikroskopu sił atomowych wpadli na pomysł, że do obrazowania powierzchni można by

wykorzystać siły oddziaływania międzyatomowego. Umożliwiłoby to obserwowanie powierzchni izolatorów,

co było niedostępne dla mikroskopów STM.

Rysunek 7.1 Schemat budowy Mikroskopu Sił Atomowych

(AFM).

Rysunek 7.2 Strefy potencjału Lennarda-Jonesa

wykorzystywanego przez podstawowe tryby pracy afmu.

Page 96: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 96

Występowanie sił magnetycznych, elektrostatycznych i oddziaływań międzyatomowych pomiędzy atomami ostrza i

badanej powierzchni umożliwia wykorzystanie detekcji ruchów ostrza sunącego po powierzchni próbki do

obrazowania tej powierzchni. Ostrze jest wytworzone na sprężystej mikrodźwigni (mikrobelce), której odchylenie

umożliwia wyznaczenie siły oddziaływania międzyatomowego pomiędzy atomami ostrza i badanej powierzchni.

Mapa sił dla każdego punktu powierzchni próbki jest przetwarzana komputerowo na obraz. Pomiar ugięcia dźwigni

jest najczęściej dokonywany metodami optycznymi. Czułość odczytu ugięcia dźwigni sięga dziesiątych

części angstrema. Jeśli chce się do obrazowania wykorzystać siły magnetyczne, to ostrze pokrywa się materiałem

magnetycznym. Na czubek ostrza składa się od kilku do kilkuset atomów. Mikrosondy stosowane w AFM produkuje

się zazwyczaj z krzemu i azotku krzemu[2]

.

Za pomocą mikroskopu sił atomowych można też dokonać pomiarów sił tarcia w skali atomowej i je zobrazować –

mierzymy wówczas skręcenie dźwigni, a nie ugięcie w kierunku prostopadłym do badanej powierzchni. Mówimy

wtedy o mikroskopie sił tarcia (ang. Friction force microscope, FFM).

Interpretacja obrazów wymaga szczegółowej analizy oddziaływań ostrze-próbka. Na ten temat powstało wiele prac

teoretycznych. W idealnej sytuacji zakładamy, że obserwowany obraz jest wynikiem oddziaływania najbardziej

wysuniętych atomów ostrza i próbki. Obrazy mogą różnić się między sobą, jeśli używamy różnych ostrzy.

W mikroskopie sił atomowych do zobrazowania powierzchni próbki można wykorzystać siły krótko- lub

długozasięgowe. Ze względu na rodzaj tych sił wyróżniamy następujące tryby pomiarowe:

Tryb kontaktowy, w którym ostrze AFM odgrywa rolę profilometru badającego topografię powierzchni. Nacisk

ostrza na powierzchnię wynosi od 10–7

N do 10–11

N, co powoduje, że obszar kontaktu pomiędzy ostrzem a

powierzchnią próbki jest ekstremalnie mały. W tym trybie wykorzystujemy krótkozasięgowe siły oddziaływania

międzyatomowego. Pomiędzy atomami na czubku ostrza a atomami próbki zachodzą bezpośrednie interakcje ich

sfer elektronowych, a działające na ostrze siły odpychające powodują ugięcie mikrobelki.

Tryb bezkontaktowy, w którym odsuwając ostrze na odległość 10-100 nm, wykorzystujemy do obrazowania siły

długozasięgowe, takie jak: siły magnetyczne, elektrostatyczne czy przyciągające siły van der Waalsa. W tej metodzie

obrazowania nie mierzymy statycznego ugięcia dźwigni, ale wprawiamy dźwignię w drgania o częstości zbliżonej do

jej częstości rezonansowej za pomocą piezoelementu. Reakcją na siłę działającą na dźwignie jest zmiana amplitudy i

częstości drgań, co jest informacją pozwalającą uzyskać obraz[3]

.

Tryb kontaktu przerywanego, w którym belka jest wprowadzana w drgania na tyle blisko powierzchni, że poza

siłami długozasięgowymi znaczenie mają również siły krótkozasięgowe: ostrze cyklicznie uderza w powierzchnię.

Dźwignie mogą być wytwarzane wraz z ostrzem lub ostrza są do niej przyklejane. Typowe dźwignie mają długość od

100 do 500 μm, stałe sprężystości 0,01 - 1 N/m i częstości rezonansowe w zakresie 3 - 500 khz.

8. METODY OBRAZOWANIA MEDYCZNEGO WYKORZYSTUJĄCE

TECHNIKĘ KONTRASTOWANIA. (DR M. KOPACZYŃSKA) Kontrast

•określa stosunek luminancji maksymalnej do luminancji minimalnej

•definiuje różnice w zaczernieniu naświetlonej i wywołanej błony rentgenowskiej spowodowane przez osłabienie

promieniowania przechodzącego przez różne struktury ciała, np. powietrzne płuca i części miękkie

Angiografia

• Zobrazowanie naczyń krwionośnych

• Podaje się kontrast radiologiczny i wykonuje prześwietlenie

• Obecnie wypierana przez USG dopplerowskie oraz łączona z CT (kontrast radiologiczny) lub MRI (kontrast

magnetyczny)

Rentgenografia RTG

Angiografia

Rezonans Magnetycxny

Tomografia komputerowa

Page 97: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 97

Tomografia komputerowa to prześwietlenie rentgenowskie, które za pomocą technologii komputerowej łączy

wiele obrazów rentgenowskich tak, aby wytworzyć obrazy przekrojowe, a nawet trójwymiarowe obrazy

wewnętrznych struktur i narządów. Kontrast jest środkiem stosowanym podczas niektórych badań

obrazowych. Ma on za zadanie uwidocznić dane narządy i struktury, co z kolei ma pomóc w postawieniu

właściwej diagnozy.

Tomografia komputerowa z kontrastem

Badanie to pomaga wykryć nieprawidłowości struktur naszego ciała. Czasami podczas badania użyty zostaje

kontrast, czyli barwnik, który ma sprawić, że dane narządy bądź naczynia krwionośne będą bardziej wyraźne

na obrazie. Może on zostać zaaplikowany do płynu mózgowo-rdzeniowego przez co bardziej widoczne stają

się takie struktury, jak kręgosłup, rdzeń kręgowy i jego nerwy. Kontrast często jest też podawany dożylnie.

Zwykle jest on na bazie związków jodu.

Angiografia

Badanie to polega na wstrzyknięciu do naczyń krwionośnych środka kontrastującego, a następnie

wykonaniuzdjęcia rentgenowskiego tych naczyń. Angiografia serca, czyli koronarografia jest

najważniejszym badaniem w diagnostyce choroby niedokrwiennej serca. Wyniki angiografii pomagają

dokładnie ukazać zakres i zaawansowanie niedrożności tętnicy wieńcowej.

Obrazowanie rezonansu magnetycznego

Rezonans magnetyczny jest techniką radiologiczną łączącą fale elektromagnetyczne oraz komputer w celu

uzyskania obrazów struktur ciała. Osoba badana poddawana jest działaniu magnesu, który tworząc pole

magnetyczne, aktywuje protony atomów wodoru. Następnie protony te poddawane są działaniu fal

elektromagnetycznych, przez co same emitują słaby sygnał, dający obraz. W niektórych przypadkach

używany jest środek cieniujący, jak na przykład gadolin, który zwiększa dokładność obrazów. Dzięki

rezonansowi można zdiagnozować urazy mózgu, udar, guzy i tętniaki mózgu, jak również stany zapalne

kręgosłupa.

Niebezpieczeństwo płynące z kontrastu

Użycie kontrastu może wywoływać pewne skutki uboczne. Najczęściej używaną substancją jest płyn na bazie

związków jodu. Może on wywoływać swędzenie, wysypkę lub pokrzywkę. Zwykle objawy bardzo szybko

mijają. Poważniejszym problemem może być reakcja alergiczna na kontrast, czyli inaczej reakcja

anafilaktyczna. Na szczęście pojawia się ona rzadko.

Kontrast ma duże zastosowanie w badaniach diagnostycznych. Dzięki niemu wyniki badań są wyraźniejsze, a

przez to łatwiejsze do interpretacji. Co prawda istnieje możliwość reakcji anafilaktycznej na kontrast, jednak

nie zdarza się to zbyt często.

9. PORÓWNAĆ NANOSKROPOWE METODY OBRAZOWANIA Z

MIKROSKOPIĄ FLUORESCENCYJNĄ. (DR M. KOPACZYŃSKA) Mikroskop fluorescencyjny- mikroskop świetlny wykorzystujący zjawisko fluorescencji. Może być

stosowany zarówno w badaniach substancji organicznych, jak i nieorganicznych. Mikroskop ten

wykorzystuje zjawisko fotoluminescencji, które polega na wzbudzeniu promieniowaniem świetlnym

elektronów w atomach do wyższych poziomów energetycznych, a następnie powrót wzbudzonych

elektronów do stanu podstawowego z równoczesną emisją światła. Długość fali promieniowania

wyemitowanego jest dłuższa od długości fali zaabsorbowanej. Fluorescencja jest jednym z przejść

promienistych, które zachodzi wtedy gdy emisja promieniowania kończy się jednocześnie z zanikiem

wzbudzenia. Technika mikroskopii fluorescencyjnej opiera się na pomiarze fluorescencji związków

chemicznych (tzw. Barwników fluorescencyjnych) wiążących się z pewnymi typami komórek, strukturami

subkomórkowymi lub grupami chemicznymi. Za pomocą mikroskopii fluorescencyjnej można badać też

rozkład niektórych związków np., fotouczulaczy w komórkach.

Metody nanoskopowe- AFM i STM

Page 98: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 98

Mikroskopy z sondą skanującą wykorzystują oddziaływanie pomiędzy sondą pomiarową, a materiałem

badanej próbki do odwzorowania topografii oraz charakterystyki fizyko-chemicznej badanego materiału.

W skaningowej mikroskopii tunelowej STM wykorzystuje się efekt tunelowania elektronów pomiędzy

przewodzącą sondą, a próbką pod wpływem różnicy potencjałów. Efekt tunelowy- przenikanie cząstki przez

barierę potencjału wyższą od energii kinetycznej cząstki. Prawdopodobieństwo przejścia rośnie z energią

cząstki, a maleje ekspotencjalnie z szerokością bariery. Obraz z STM powierzchni próbki uzyskuje się przez

pomiar natężenia prądu płynącego w układzie. Otrzymany obraz odzwierciedla topografie powierzchni oraz

strukturę elektronową materiału.

Mikroskopia sił atomowych AFM umożliwia obrazowanie struktur biologicznych w nanskali. Możemy

badać powierzchnię przewodników, a także izolatorów i półprzewodników. W odróżnieniu od techniki STP

sonda AFM skanuje powierzchnię rejestrując siłę w funkcji położenia.

Zastosowanie AFM:

1. Obrazowanie 3D (topografia powierzchni, analiza właściwości próbki)2. Obrazowanie w czasie rzeczywistym

(badanie zmian zachodzących na poziomie monocząsteczkowym)3. Nanomanipulacja (litografia,modyfikacja

molekularna, terapia genowa)

TEM

Page 99: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 99

Transmisyjny Mikroskop Elektronowy umożliwia obrazowanie wewnętrznej struktury preparatów. Źródłem

elektronów jest zazwyczaj włókno wolframowe, z którego elektrony uwalniane są na drodze termoemisji.

Długość fali wiązki elektornów jest odwrotnie proporcjonalna do pierwiastka kwadratowego napięcia

przyspieszającego: im krótsza fala tym wyższa rozdzielczość. TEM jest doskonałym narzędziem do badań

nanostrukturalnych materiałów biologicznych. Obraz mikroskopowy powstaje na skutek ugięcia elektronów

na strukturach preparatu.

10. PORÓWNAĆ MIKROSKOPIĘ TEM Z MIKROSKOPIĄ SEM (DR M.

KOPACZYŃSKA) TEM

Transmisyjny Mikroskop Elektronowy umożliwia obrazowanie wewnętrznej struktury preparatów.

Źródłem elektronów jest zazwyczaj włókno wolframowe, z którego elektrony uwalniane są na drodze

termoemisji. Napięcie przyśpieszające elektrony jest znaczne wyższe niż w SEM i wynosi od 100 do 400

kV. Zaletą wysokiego napięcia jest zwiększona rozdzielczość obrazu, dzięki mniejszej długości fali

elektronów i zwiększona głębokość wnikania w preparat. Długość fali wiązki elektronów jest odwrotnie

proporcjonalna do pierwiastka kwadratowego napięcia przyspieszającego: im krótsza fala tym wyższa

rozdzielczość. TEM jest doskonałym narzędziem do badań nanostrukturalnych materiałów biologicznych.

Obraz mikroskopowy powstaje na skutek ugięcia elektronów na strukturach preparatu.

SEM

Elektronowy Mikroskop Skaningowy jest stosowany do badania mikrostruktur, głównie powierzchni

preparatów. Pomiar za pomocą SEM polega na skanowaniu badanej próbki wiązką elektronów. Podczas

skanowania próbki detektor zbiera sygnały, emitowane z każdego punktu skanowanej powierzchni. Napięcie

przyspieszające wynosi od 1 do 30 kV. Podczas bombardowania elektronami z powierzchni próbki,

emitowane jest spektrum niskoenergetycznych elektronów wtórnych, biorących udział w tworzeniu obrazu.

11. PODSTAWY FIZYCZNE OBRAZOWANIE PET I SPECT. (DR M.

KOPACZYŃSKA) •ang. single photon emission computed tomography

•metoda diagnozowania zaburzeo mózgowia, znacznie różniąca się od encefalografii i rezonansu magnetycznego

(MR)

•umożliwia badanie przepływu płynu mózgowego, rozmieszczenia receptorów mózgowych a przy pomocy tzw.

znaczników onkofilnych umożliwia diagnostykę nowotworów mózgu

•w metodzie radioaktywny izotop przyłączony jest do nośnika mającego równocześnie powinowactwo do komórek w

mózgu, możliwośd pokonywania bariery krew-mózg oraz gromadzenia się w ilości proporcjonalnej do metabolizmu

danej okolicy

•emitowane promieniowanie gamma rejestrują czujniki umieszczone w specjalnej kamerze połączonej z komputerem

•badanie trwa około 15 minut. W trakcie typowego badania do czujników dociera w przybliżeniu dziesięd milionów

impulsów gamma, a komputer przetwarza te informacje i prezentuje w postaci złożonych map

przepływu/metabolizmu mózgowego i udostępnia na trójwymiarowych obrazach

• Pacjent otrzymuje izotop promieniotwórczy z nośnikiem gromadzącym się w obszarach podwyższonej aktywności

mózgu

• Rejestracja promieniowania gamma-kamerą

• Niskie, krótkotrwałe promieniowanie

• Obrazuje niedokrwienie lub podwyższony metabolizm (przepływ krwi)

Page 100: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 100

Celem tomografii SPECT jest eliminacj nakładających się na siebie informacji strukturalnych w celu uzyskania

wartościowych, w miarę możliwości ilościowych, danych zawartych w obrazie przekroju ciała. TomografiaSPECT

jest niezwykle czułą i dokładną metodą. Metodą tą można uzyska informacje o czynnośći metabolicznej narządów lub

hemodynamice układu krążenia, które są trudne lub wręcz niemożliwe do uzyskania w inny sposób. Podstawową

zaletą tomografiiSPECT są potencjalne możliwości uzyskania ilościowych danych o przestrzennym rozkładzie

radiofarmaceutyku, dzięki czemu można otrzyma dwierny obraz trójwymiarowy. Wadą są trudności związane z

realizacją precyzyjnego ruchu okrężnego kamery gamma. Niedokładności trajektorii tego ruchu powodują, podobnie

jak w zwykłej tomografi ikomputerowej, błędy w obrazie.

SPECT/Gammakamera

ak detektory w

tomografie komputerowym porusza się po okręgu wokół pacjenta, zbierając kolejno fotony emitowane w różnych

kierunkach.

wyemitowane. Tym samym określa się strukturę lub czynnośd narządu, w którym radiofarmaceutyk usadowił się

(przejściowo).

(obrazujących poprzeczne przekroje ciała).

stosowane są radiofarmaceutyki emitujące fotony gamma

detektorów umożliwia równoczesne rejestrowanie fotonów emitowanych w kilku różnych kierunkach. Ten sposób

akwizycji danych umożliwia uzyskanie obrazu o wysokiej rozdzielczości przestrzennej i w krótkim czasie.

Zastosowanie SPECT

•obrazowanie mięśnia sercowego

•mózgu

•Nerek i narządów wewnętrznych

•kości

Podstawy fizyczne obrazowania PET

Pozytonowa Tomografia Emisyjna (ang. Positron emission tomography, PET) jest techniką obrazowania, w której

rejestruje się promieniowanie powstające podczas anihilacji pozytonów (anty-elektronów). Źródłem pozytonów jest

podana pacjentowi substancja promieniotwórcza, ulegająca rozpadowi beta plus. Substancja ta zawiera izotopy

promieniotwórcze o krótkim czasie połowicznego rozpadu, dzięki czemu większość promieniowania powstaje w

trakcie badania, co ogranicza powstawanie uszkodzeń tkanek wywołanych promieniowaniem.

Powstające w rozpadzie promieniotwórczym pozytony, po przebyciu drogi kilku milimetrów, zderzają się z

elektronami zawartymi w tkankach ciała, ulegając anihilacji. W wyniku anihilacji pary elektron – pozyton powstają

dwa kwanty promieniowania elektromagnetycznego (fotony) o energii 511 keV każdy, poruszające się w przeciwnych

kierunkach (pod kątem 180°). Fotony te rejestrowane są jednocześnie przez dwa z wielu detektorów ustawionych pod

różnymi kątami w stosunku do ciała pacjenta (najczęściej w postaci pierścienia), w wyniku czego można określić

dokładne miejsce powstania pozytonów. Informacje te rejestrowane w postaci cyfrowej na dysku komputera,

pozwalają na konstrukcję obrazów będących przekrojami ciała pacjenta, analogicznych do obrazów uzyskiwanych w

tomografii NMR.

Page 101: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 101

W badaniu PET wykorzystuje się fakt, że określonym zmianom chorobowym towarzyszy zmiana metabolizmu

niektórych związków chemicznych, np. cukrów. Ponieważ energia w organizmie uzyskiwana jest głównie poprzez

spalanie cukrów, to w badaniach wykorzystuje się deoxyglukozę znakowaną izotopem 18F o okresie połowicznego

rozpadu ok. 110 minut. Najczęściej stosowanym preparatem jest F18-FDG.

SPECT:•potrzebny jest kolimator

•pojedynczy foton jest indukowany • niska rozdzielczość (6-8 mm)• tracer zanik kontrastu wolniejszy-Dłuższe

procesy mogą być monitorowane-tracers nie musi być produkowany w pobliżu w cyklotronie

SPECT vs. PET

PET:

• kolimator nie jest potrzebny–anihilacja pozytronowa

• droższe urządzenie

• wyższa rozdzielczośc (2-3 mm)

• lepsza do badań neuroreceptorów mózgu

• znacznie lepszy stosunek sygnału do szumu SNR niżfMRI

• zanik kontrastu szybszy

-Procesy przejściowe mogą być

-Krótki czas skanowania (mniej niż minuta)

-tracers musi być produkowany w pobliżu w cyklotronie

12. SCHARAKTERYZOWAĆ HYBRYDOWE TECHNIKI OBRAZOWANIA

MEDYCZNEGO. (DR M. KOPACZYŃSKA) PET/CT

Połączenie pozytonowej tomografii emisyjnej z tomografią komputerową (CT) zwane PET-CT. W Polsce do tej pory

istnieje sześć działających ośrodków PET-CT w Bydgoszczy, Gliwicach, Kielcach, Poznaniu (w szpitalu HCP,

uruchomiony w 2008 roku), Warszawie (w Wojskowym Instytucie Medycznym uruchomiony w styczniu 2008 roku) i

we Wrocławiu. Uruchomienie PET-CT planowane jest także w Gdańsku, Krakowie (w Szpitalu Uniwersyteckim UJ) i

Łodzi (w Wojewódzkim Szpitalu Specjalistycznym im. M. Kopernika, w 2013 roku, wraz z cyklotronem służącym do

produkcji izotopów potrzebnych w badaniu PET-CT).W 2005 roku w ramach "Narodowego programu zwalczania

chorób nowotworowych" Rząd zatwierdził program budowy kilku dodatkowych ośrodków PET-CT w Polsce

jednakże ze względów finansowych wykonanie tego planu zostało zawieszone.

SPECT/CT

Urządzenie hybrydowe SPECT/CT reprezentuje nową technologię, w której gamma-kamera jest połączona ze

skanerem CT. Urządzenie łączy zalety systemu SPECT i tomografii komputerowej CT zwiększając wartośd

diagnostyczną każdej z tych technik. Efektem badania SPECT/CT są serie obrazów klinicznych tomografii emisyjnej i

transmisyjnej prezentowane w formie nałożonych warstw, co daje możliwośd unikalnej wielowymiarowej diagnozy.

SPECT/CT, w stosunku do tradycyjnego badania SPECT, umożliwia dalsze uszczegółowienie anatomicznej

lokalizacji zgromadzonego radiofarmaceutyku co w efekcie poprawia możliwośd scharakteryzowania ogniska jako

fizjologicznego lub patologicznego w zależności od jego położenia.

Metoda SPECT/CT jest szybsza, a przede wszystkim bardziej dokładna diagnostycznie.

W stosunku do badania typu SPECT, metoda poprawia lokalizację i opis ognisk, zwiększa jakośd pewnośd opisu,

optymalizuje diagnozę (wpływa na pewnośd oceny i interpretacji obrazów). Użycie Gamma-Kamery SPECT/CT

powoduje zmianę w diagnozowaniu pacjenta, co zwiększa i przyspiesza jego szansę powrotu do zdrowia.

Page 102: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 102

13. CZUJNIKI POMIAROWE, ICH PRZEZNACZENIE, KLASYFIKACJA I

WŁAŚCIWOŚCI. (PROF. Z. MOROŃ) Czujnik (sensor) – układ fizyczny, fizyko-chemiczny lub biologiczny

– dostarcza pierwotnej informacji o wielkości mierzonej (właściwość obiektu, stan obiektu, stan otoczenia, procesy

fizyczne i chemiczne występujące w obiekcie i jego otoczeniu)

– najczęściej występują przemiany jednej formy energii w inną

– najczęściej elektryczny sygnał wyjściowy

Czujniki dzielimy na generacyjne i parametryczne (bezpośrednie i modulacyjne).

Czujniki generacyjne- same wytwarzają sygnał pomiarowy. Są to:

- termopary

- fotoogniwa

- czujniki piezoelektryczne

- ogniwa sprzężone (np. Ph)

Czujniki parametryczne- wielkość mierzona modyfikuje parametry obwodu elektrycznego. Są to:

- czujniki rezystancyjne

- czujniki pojemnościowe

- czujniki indukcyjne, np. Dławikowe.

Współczesne czujniki

• Postać współczesnego czujnika określają atrybuty: inteligentny, zintegrowany, najczęściej półprzewodnikowy

• Inteligentny – oznacza programowalny, działający autonomicznie, adaptacyjnie, z możliwością komunikacji z

innymi urządzeniami

• Zintegrowany – bo może łączyć kilka różnych czujników lub wiele czujników jednego rodzaju, a ponadto

I różne układy analogowe lub cyfrowe, w tym mikroprocesor – wszystko w jednej strukturze scalonej (chipie)

• Półprzewodnikowy – wykonywany najczęściej z krzemu, z wykorzystaniem technologii aktualnie stosowanych w

elektronice.

Cechy użytkowe (praktyczne)

• miniaturowy

• dokładny

• szybki

• tani

14. POMIARY POŁOŻENIA, PRZEMIESZCZENIA I PARAMETRÓW RUCHU.

CZUJNIKI DO TYCH POMIARÓW. (PROF. Z. MOROŃ) Enkoder – impulsator, który dzięki obracającej się tarczy kodowej i układzie dioda-fotodetektor pozwala na

pomiar kąta. Wyróżnia się:

Page 103: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 103

enkoder absolutny – na wałku napędowym enkodera znajduje się tarcza kodowa, która zawiera w

formie kodu wartości liczbowe odpowiadające przesunięciom kątowym. Pozwala to na pomiar wartości

bezwzględnych przemieszczenia kątowego.

enkoder inkrementalny – zlicza impulsy, które przekładają się na przyrost kątowy. Enkodery te

charakteryzują się stałą ilością impulsów na obrót. Do określenia kierunku ruchu dodawany jest drugi sygnał

przesunięty w fazie o 90 .

Żyroskop – umożliwia pomiar prędkości kątowej wokół jednej, dwóch lub trzech wzajemnie prostopadłych

osi. Czujniki te wykorzystują m.in. efekt Coriolisa.

Akcelerometr – zbudowany z masy sejsmicznej zamocowanej do klatki przy pomocy sprężystych belek, które

stanowią jednocześnie kondensator pomiarowy. Wychylenie masy jest proporcjonalne do działających nań sił, co

przekłada się na zmiany pojemności kondensatorów.

Czujniki indukcyjne – przetwarzają zmianę położenia liniowego lub kątowego na zmianę

indukcyjności własnej lub wzajemnej cewek czujnika. Najprostszy czujnik wykorzystujący zmiany

indukcyjności własnej składa się z cewki i ruchomego rdzenia ferromagnetycznego. Uzwojenie czujnika wpięte

jest w układ mostka prądu przemiennego. Napięcie na wyjściu z mostka wyznacza wartość, a faza kierunek

przesunięcia. Najczulszą odmianą czujnika indukcyjnego jest różnicowy czujnik transformatorowy (jedno

uzwojenie pierwotne, dwa wtórne, ruchomy rdzeń). Tego typu czujnik używany do pomiaru przesunięć kątowych

nazywa się resolverem.

Czujniki pojemnościowe – kondensator, którego powierzchnia okładek albo odległość między okładkami

albo przenikalność względna dielektryka zależy od przesunięcia. Wówczas przesunięcie powoduje zmianę

pojemności kondensatora. Czujniki tego typu należą do najczulszych (możliwy pomiar wielkości mniejszych od

mikrometra)

Hallotron – bazuje na zjawisku Halla, umożliwia pomiar absolutnego przemieszczenia kątowego. Zasada

pomiaru: hallotron umieszcza się w stałym polu magnetycznym i przepuszcza się przez niego stały prąd sterujący.

Pomiar napięcia Halla umożliwia wyznaczenie położenia kątowego.

Czujnik potencjometryczny – prosta zasada: opór jest proporcjonalny do przemieszczenia kątowego lub liniowego

(zależnie od budowy potencjometru).

Czujnik laserowy, ultradźwiękowy, podczerwony – zasada działania: wysłanie wiązki światła lub dźwięku i

mierzenie czasu, po którym wiązka wróci.

15. CZUJNIKI NAPRĘŻEŃ, SIŁ I MOMENTÓW ORAZ CIŚNIEŃ. (PROF. Z.

MOROŃ) Czujnik (Sensor) - fizyczne bądź biologiczne narzędzie będące najczęściej elementem składowym większego układu,

którego zadaniem jest wychwytywanie sygnałów z otaczającego środowiska, rozpoznawanie i rejestrowanie ich.

W naukach technicznych czujnik to urządzenie dostarczające informacji o pojawieniu się określonego bodźca,

przekroczeniu pewnej wartości progowej lub o wartości rejestrowanej wielkości fizycznej. W tym ujęciu układ

czujnika składa się z: czujnika, przetwornika oraz często układu kondycjonowania sygnału i telemetrycznego.

Najczęściej spotykanymi czujnikami są czujniki dostarczające informację w jednej z wielkości elektrycznych, takich

jak: napięcie, natężenie prądu, opór elektryczny. Przyczyną tego jest fakt, że prąd elektryczny to sygnał, który łatwo

wzmocnić, przesłać na duże odległości, poddać dalszemu przetwarzaniu przy użyciu technik cyfrowych i

komputerów, a także zachować.

Pomiary ciśnień

• pomiary ciśnień należą do najważniejszych i najczęściej wykonywanych

• często cel pośredni – pomiar natężenia przepływu, poziomu itp.

• pomiar odbywa się pośrednio – z siły i powierzchni: p = F/A,

1Pa = 1N/m2

• zakres – od tzw. Głębokiej próżni (10-7 Pa) do bardzo wysokich

Page 104: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 104

(1011 Pa), najczęściej 10 - 107 Pa

• potrzeba stosowania wielu rodzajów czujników

Page 105: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 105

Page 106: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 106

Page 107: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 107

Page 108: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 108

Page 109: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 109

Page 110: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 110

16. CZUJNIKI TEMPERATURY. (PROF. Z. MOROŃ) Mimo dużej różnorodności czujników do pomiaru temperatury wyróżnić można 4 podstawowe grupy czujników

elektrycznych, które przedstawiono w tab. 1.

Page 111: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 111

Widać więc, że wybór czujnika do konkretnego zastosowania uwzględnić musi wiele różnych kryteriów, takich

jak zakres temperatury pracy, czułość, stałość charakterystyki – powtarzalność (wymienialność czujników),

dokładność, stopień komplikacji układu pomiarowego współpracującego z czujnikiem, w zależności od celu pomiaru

oraz stała czasowa.

Termoelementy (termopary):

Jeżeli połączy się dwa różne metale (stopy) A i B, na złączu powstanie różnica potencjałów elektrycznych

zwana potencjałem kontaktowym. Potencjał ten zależy od metali A i B oraz od temperatury złącza. Termopara

wykorzystuje to zjawisku będąc obwodem zamkniętym zwierającym dwa złącza. Siła elektromotoryczna

termoelementu, zwana siłą termoelektryczną E, mierzona jest na zaciskach termoelementu z dwóch różnych metali

lub stopów, w obwodzie jak na rys. 1. Jeśli jedne końce materiałów A i B znajdują się w temperaturze T1, a drugie w

temperaturze T2, to zależność siły termoelektrycznej od tych temperatur można przedstawić w postaci równania:

{ }

gdzie: k – czułość termoelektryczna w przedziale T – T .

Aby określić wartość jednej z temperatur wymagana jest znajomość drugiej. Najczęściej więc temperatura T1

ma stałą i znaną wartość (temperatura odniesienia). W praktyce za taką przyjmuje się temperaturę otoczenia,

temperaturę nasyconego roztworu wodnego z lodem lub inną.

„Pięć praw termopar”:

1) SEM termopary zależy tylko od temperatur złącz i nie zależy od temperatur przewodów.

2) Jeżeli do metalu A lub B wprowadzi się trzeci metal C i oba nowe złącza są w tej samej

temperaturze to SEM nie ulegnie zmianie.

3) Jeżeli pomiędzy metale A i B wprowadzi się trzeci metal C i jeśli oba nowe złącza AC i BC są w tej samej

temperaturze to SEM nie ulegnie zmianie.

4) „Prawo metalu pośredniego” – SEM termopary AB jest równa sumie SEM termopar AC i CB.

5) „Prawo pośrednich temperatur” – stosowane w interpretacji pomiarów SEM. Dla danej pary metali:

ET1,T2 = ET1,T3 + ET2,T3 , gdzie T jest temperaturą pośrednią.

Głównymi zaletami termoelementów są duża powtarzalność charakterystyk (a więc możliwość wymiany

termoelementów bez uwzględniania ich indywidualnych charakterystyk) oraz niska cena.

Wadą zaś są mała wartość siły termoelektrycznej, co wymaga stabilizacji lub kompensacji temperatury.

Termorezystory metalowe:

Page 112: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 112

Rezystancyjne czujniki termoelektryczne wykorzystują zależność zmian rezystancji metali w funkcji

temperatury. Rezystancja większości metali wzrasta z temperaturą prawie liniowo w zakresie – 100°C do 800°C.

Znormalizowane w Polsce rezystory termometryczne mają rezystancje R0 = 100,0 Ω w temp. 0 °C, a są nimi

platynowy Pt100, Niklowy Ni100 oraz miedziany Cu100. Najlepsza z nich jest platyna bo jest chemicznie odporna,

ma bardzo liniową i bardzo powtarzalną charakterystykę w szerokim zakresie temperatur w różnych środowiskach.

Charakterystykę termometryczną termorezystorów można (w zakresie t > 0 °C) aproksymować wielomianem

drugiego stopnia 4:

( )

gdzie A, B są współczynnikami unikalnymi dla danego rezystora.

Termorezystory metalowe cechują się dodatnim temperaturowym współczynnikiem

rezystancji, który definiuje się jako:

co dla termorezystorów równa się

Dla określenia zmian rezystancji termorezystorów stosuje się układy mostkowe

dwuprzewodowe, trzyprzewodowe lub czteroprzewodowe (precyzyjne).

Ponieważ termorezystory są czujnikami parametrycznymi, to określenie ich rezystancji wymaga

pobudzenia prądem elektrycznym, co wiąże się z nieuniknionym samoogrzewaniem się czujników (ciepło

Joula). Jednakże dla czujników o rezystancji 100 Ω moc wydzielona przy prądzie 1 mA wy-nosi 100 μW, co w

większości wypadków stanowi wartość pomijalnie małą.

Zaletami termorezystorów metalowych są duża stałość charakterystyk termometrycznych oraz wymienialność.

Wadę termorezystorów stanowi stosunkowo wysoka cena oraz stosunkowo duże wymiary czujników drutowych

nawijanych.

Termistory:

Termistory są półprzewodnikowymi rezystorami o bardzo dużym ujemnym temperaturowym współczynniku

rezystancji (NTC) ale produkuje się również elementy o dodatnim temperaturowym współczynniku

rezystancji (PTC). Charakterystykę termometryczną termistorów aproksymuje się wyrażeniem:

gdzie: A – rezystancja termistora w temperaturze T = ∞, B – stała materiałowa, przeciętnie B = 3000– 4000 K, T –

temperatura [K].

Współczynnik temperaturowy rezystancji termistora wynosi:

W wypadku termistorów należy zwracać większą uwagę na efekt samoogrzewania się ze względu na

mniejsze na ogół wymiary oraz często duża rezystancje czujników. Ponadto zasadniczymi wadami termistorów są

duża nieliniowość charakterystyki i je niepowtarzalność. Przez to praktycznie każdy układ pomiarowy z termistorem

musi być indywidualnie wzorcowany.

Czujniki ze złączem p-n:

Czujniki ze złączem p-n wykorzystują zależność napięcia złącza półprzewodnikowego od temperatury.

Współczynnik tych zmian wynosi –2 mV/K i w dużym stopniu nie zależy od temperatury. Zaletami tych

czujników jest ich znormalizowane wyjście oraz liniowa charakterystyka.

Doskonałym czujnikiem jest tutaj dioda krzemowa spolaryzowana w kierunku przewodzenia. Produkowane są

gotowe układy scalone zawierając diodę pomiarową ze wzmacniaczem i zabezpieczeniem. Taki układ

dostarcza napięcia lub prądu proporcjonalnego do temperatury.

17. SKALE POMIAROWE, WIELKOŚCI FIZYCZNE. (DR Z. RUCKI)

17.1 SKALE

Page 113: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 113

17.1.1 SKALA NOMINALNA

(nominal scale) Najprostsza skala pomiarowa. Jest systemem notacyjnym, pozwalającym na identyfikację,

klasyfikowanie i nazywanie poczynionych przez badacza obserwacji. Pozwala na rozróżnianie jakości. Odzwierciedla

symbole wskazujące przynależność przedmiotów do pewnych klas jakościowych wyrażonych słownie za pomocą

nazw i symboli np. Liter lub numerycznie, tj. Za pomocą liczb.

Jest skalą obejmującą zmienne jakościowe. Imię i nazwisko ucznia w dzienniku lekcyjnym, płeć ucznia, data

urodzenia, data badania diagnostycznego, numery tramwajów, numery telefonów, numery graczy, system

taksonomiczny w biologii, system nozologiczny w psychiatrii, symbole witamin, symbole grupy krwi, miejsce

urodzenia, miejsce zamieszkania, wyznanie religijne Niski poziom użyteczności. Tylko pewne prace twórcze (np.

Artystyczne) uczniów dają wyniki, które można grupować, a uporządkowanie ich w grupy według wartości jest

ryzykowne.

17.1.2 SKALA PORZĄDKOWA

(ordinal scale) Jest to skala mająca właściwości porządkowe ujawniające się uszeregowaniem obserwacji badacza w

obrębie jakiejś dymensji. Jej celem jest ustalenie hierarchi wartości zmiennej. Składa się z symboli - rang

odnoszących się do przedmiotów uporządkowanych pod pewnym względem. Rangi określają pozycję danego

przedmiotu w zbiorze przedmiotów o charakterze rosnącym lub malejącym. Pozwala na porównywanie przedmiotów

między sobą, ale nie można za jej pomocą ustalić wielkości różnic między obiektami. Stopnie szkolne, stopnie

wojskowe, pozycja zajmowana w tabeli przez drużyną piłkarską, ranking szkół wyższych ustalony w drodze

plebiscytu, pozycja socjometryczna ucznia, wyniki turnieju szachowego. Wyższy poziom użyteczności niż skal

nominalnych. Jednakże w związku z tym, że działania arytmetyczne na rangach nie mają uzasadnienia, można jedynie

zastosować miary statystyczne dopuszczalne dla skal nominalnych i miary pozycyjne: medianę, centyle itp.

17.1.3 SKALA PRZEDZIAŁOWA/INTERWAŁOWA

(interval, additive scale) Składa się z symboli, których pary obrazują różnice między przedmiotami, wyrażone w

jednostkach miary. Punkt zerowy zwykle jest umowny (np. Temperatura topnienia lodu w skali temperatur Celsjusza).

Pozwala na stwierdzenie o ile natężenie zmiennej X dla obiektu A jest większe (mniejsze) od natężenia zmiennej dla

obiektu B. Długość i szerokość geograficzna w stopniach, skale do mierzenia temperatury powietrza (Celsjusza,

Fahrenheita), surowe wyniki testowania osiągnięć szkolnych uczniów, wyniki uzyskane w testach inteligencji

werbalnej i niewerbalnej, percepcji wzrokowej, świadomości fonologicznej itp. Jest skalą o wysokim stopniu

użyteczności dla pomiaru dydaktycznego. Może być dodatkowo wyrażona normami typu standardowego np. W

postaci skali z znormalizowanej, skali T, skali stenowej.

17.1.4 SKALA STOSUNKOWA/ILORAZOWA

(ratio, absolute scale) Składa się z symboli, których pary przedstawiają stosunki wartości przedmiotów. Skala ta ma

bezwzględne zero wartości zmiennej. Bywa nazywana skalą metryczną. Pozwala dodatkowo na stwierdzenie, że

natężenie zmiennej X dla obiektu A jest k razy większe niż natężenie tej zmiennej dla obiektu B. Długość, szerokość,

wysokość przedmiotów wyrażona w jednostkach miar SI (m, cm, mm, km) lub innych (mila, cal); testy szybkości,

wiek niemowląt wyrażony w dniach życia, liczba dzieci w rodzinie Jest skalą o wysokim stopniu użyteczności dla

pomiaru dydaktycznego.

Pozwala dostrzec bardziej precyzyjnie różnice intraindywidualne i interindywidualne w zakresie osiągnięć szkolnych

uczniów.

17.2 WIELKOŚCI FIZYCZNE

Wielkości fizyczne - taka własność ciała lub zjawiska, którą można porównać ilościowo z taką samą własnością

innego ciała lub zjawiska.

Wielkości podstawowe - podane przez podanie sposobu ich pomiaru

Wielkości pochodne - wyrażane za pomocą wielkości podstawowych

Przykłady wielkości fizycznych:

Długość, prędkość, praca, napięcie, temperatura, natężenie prądu, czas, liczność materii

Przykłady wielkości, których nie zaliczamy do wielkości fizycznych:

Barwa, kształt, zapach

Page 114: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 114

Pomiar wielkości fizycznej polega na wyznaczaniu stosunku liczbowego danej wielkości do wielkości tego samego

rodzaju przyjętej za jednostkę. Jednostki wielkości podstawowych - jednostki podstawowe - mogą być przyjęte

dowolnie, jednostki wielkości pochodnych - jednostki pochodne - definiuje się za pomocą jednostek podstawowych.

L.p Wielkość fizyczana

Jednostka

Symbol

Wielkości podstawowe

1. Długość metr m

2. Masa kilogram kg

3. Czas sekunda s

4. Liczność materii mol mol

5. Natężenie prądu elektrycznego

amper A

6. Temperatura termodynamiczna

kelwin K

7. Światłość kandela cd

Wielkości uzupełniające

8. Kąt płaski radian rad

9. Kąt bryłowy steradian sr

18. POMIARY NAPIĘĆ, PRĄDÓW, REZYSTANCJI I IMPEDANCJI. (DR Z.

RUCKI)

18.1 NATĘŻENIE PRĄDU I NAPIĘCIE

Pomiar napięcia - V - stałego ( DC ) lub zmiennego ( AC ) - tą wielkość mierzymy woltomierzem. Przyrząd (

woltomierz ) wpinamy do układu, zawsze równolegle do elementu na którym mierzymy napięcie. Przykłady

włączenia woltomierza przy pomiarze napięcia stałego i zmiennego pokazane są na rys. 1 i 2.

Woltomierz powinien mieć bardzo duży opór wewnętrzny aby odczyt miernika był dokładny.

Pomiar prądu - A - stałego ( DC ) lub zmiennego ( AC ) - tą wielkość mierzymy amperomierzem. Przyrząd (

amperomierz ) wpinamy do układu, zawsze szeregowo z elementem, przez który płynie mierzony prąd. Przykłady

włączenia amperomierza przy pomiarze prądu stałego i zmiennego pokazane są na rys. 3 i 4.

Oporność wewnętrzna amperomierza powinna dążyć do 0.

18.2 POMIAR REZYSTANCJI

Page 115: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 115

Za pomocą omomierza - należy go wyzerować .W tym celu należy zewrzeć jego zaciski i za pomocą pokrętła

doprowadzić jego wskazówkę do zera omomierz należy wyzerować przed każdym pomiarem i po każdym pomiarze

zakresu. Pomiar rezystancji za pomocą omomierza cyfrowego odczytuje się bezpośrednio.

Metodą techniczną - polega na zmierzeniu napięcia na oporniku oraz natężenia prądu płynącego przez opornik, a

następnie wyliczeniu rezystancji ze wzoru R=U/I. Rozróżnia się dwa układy pomiarowe: układ poprawnie mierzonego

prądu i układ poprawnie mierzonego napięcia.

W obydwu układach pomiarowych występuje błąd metody. Aby ten błąd był możliwie mały należy –układ a)

stosować do pomiaru rezystancji dużych –układ b) stosować do pomiaru rezystancji małych.

18.3 POMIAR IMPEDANCJI

Pomiar impedancji, sprowadza sie do okreslenia wartosci jej składowych:

Rezystancji R oraz reaktancji X lub modułu Z i kata fazowego ϕ.

Do podstawowych metod pomiaru impedancji zaliczamy : metodę techniczna, metodę mostkowa, metodę

rezonansowa.

Metoda techniczna pomiaru impedancji Z polega na:

- pomiarze: napięcia U i prądu I za pomocą woltomierza i amperomierza,

- pomiarze mocy czynnej P za pomocą watomierza,

- obliczeniu:

*modułu, na podstawie prawa Ohma |Z| = U/I,

*argumentu ϕ=arc cos(P/(UI)) gdzie UI=S – moc pozorna,

*składowej czynnej R=P/I2

*składowej biernej X = Z2 – R2

Dla wyznaczenia elementów składowych schematu zastępczego impedancji dokonywany będzie pomiar kata

fazowego przy pomocy oscyloskopu. Dokonując pomiaru napięcia U, prądu I i kąta fazowego ϕ wykonujemy

obliczenia:

- modułu, na podstawie prawa Ohma |Z| = U/I,

- składowej czynnej R = |Z|cos ϕ 5

- składowej biernej X = |Z|sin ϕ

19. PRZYRZĄDY CYFROWE. PODSTAWOWE PARAMETRY

PRZETWORNIKÓW A/C I ICH WPŁYW NA WŁAŚCIWOŚCI

PRZYRZĄDÓW CYFROWYCH. (DR Z. RUCKI) Przyrząd cyfrowy – wynikiem jest liczba podana w systemie dziesiętnym złożona z kilku cyfr wraz z podaniem

położenia przecinka a czasami znaku + lub -. Przyrząd cyfrowy charakteryzuje się zbiorem dyskretnym wskazań

wyników pomiaru.

Najważniejszymi właściwościami przetworników A/C są parametry określające ich dokładność i szybkość

przetwarzania. Dokładność przetwarzania jest ograniczona przez błędy powstające w procesie przetwarzania, które

można ogólnie podzielić na błędy cyfrowe i analogowe, co wynika z charakteru samego przetwornika, mającego

cechy zarówno układu analogowego, jak i cyfrowego.

Błąd cyfrowy przetwornika A/C jest uwarunkowany liczbą bitów słowa wyjściowego. Błąd cyfrowy, czyli zdolność

rozdzielcza przetwornika, stanowi granicę jego dokładności wynikającą z samej istoty procesu dyskretyzacji

(kwantowania) napięcia wejściowego przy przetwarzaniu go na wielkość cyfrową. W prawidłowo zaprojektowanym

przetworniku długość słowa wyjściowego jest tak dobrana, że wartość błędu analogowego jest mniejsza od błędu

cyfrowego. Zwiększanie długości słowa ponad granicę wynikającą z wielkości błędu analogowego nie ma sensu, gdyż

nie poprawia już dokładności przetwarzania. Tak więc, przy prawidłowo wyznaczonych parametrach przetwornika,

Page 116: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 116

wartość katalogowej rozdzielczości powinna określać jego dokładność. Inne błędy nie powinny przekraczać wartości

odpowiadającej najmniej znaczącemu bitowi (LSB).

Oprócz najważniejszych wymienionych parametrów przetwornika A/C związanych z jego dokładnością i szybkością

definiuje się też inne właściwości o charakterze eksploatacyjnym, jak np.:

Maksymalny zakres i polaryzacja napięcia wejściowego,

Impedancja wejściowa,

Rodzaj kodu słowa wyjściowego,

Obciążalność wyjść,

Rodzaj zasilania.

20. OSCYLOSKOP ELEKTRONICZNY I JEGO ZASTOSOWANIA. (DR Z.

RUCKI) Oscyloskop jest przyrządem stosowanym najczęściej do obserwacji na ekranie przebiegu napięcia w funkcji czasu.

Poza tym stosowany może być do pomiaru napięcia, prądu, czasu, częstotliwości, kąta przesunięcia fazowego, mocy,

wyznaczenia charakterystyk diod i tranzystorów. Obecnie produkowane są oscyloskopy:

- analogowe;

- z lampą pamiętającą;

- próbkujące;

- cyfrowe.

Najbardziej rozpowszechnione są oscyloskopy analogowe. W nich obraz przebiegu rysowany jest na ekranie lampy

oscyloskopowej w czasie rzeczywistym, tzn. Plamka świetlna porusza się na ekranie w takt zmian przebiegu i upływu

czasu. Szybkość zmian ograniczona jest jedynie bezwładnością elektronów. Budowa lampy na poniższym rysunku:

ZASADA DZIAŁANIA LAMPY OSCYLOSKOPOWEJ:

Obwód żarzenia podgrzewa do wysokiej temperatury katodę, która emituje elektrony. Między katodą i anodą powstaje

pole elektryczne, w którym ujemnie naładowane elektrony emitowane z katody są przyciągane do anody. Czym

większe jest napięcie anody, tym silniej przyciągane są elektrony. Na drodze między katodą, a anodą elektrony

nabierają prędkości, są skupiane w cienką wiązkę, po czym uderzają w ekran pokryty specjalną substancją zwaną

luminoforem. Elektrony uderzając w luminofor tracą swą energię, a energia ta zamienia się na światło, zwykle koloru

zielonego. Między katodą, a główną anodą umieszczone są dodatkowe elektrody, między innymi siatka, które

umożliwiają regulację ilości elektronów biegnących do anody. Ewentualne dodatkowe anody tworzą tak zwane

soczewki elektronowe, umożliwiające takie ukierunkowanie strumienia elektronów, inaczej mówiąc ich

zogniskowanie, że trafiają one w jedno miejsce ekranu, tworząc świecący punkt (plamkę) o średnicy poniżej 1

milimetra.

Page 117: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 117

Uproszczony schemat blokowy:

21. POMIARY CIŚNIENIA TĘTNICZEGO KRWI; METODY, APARATURA

(DR B. JUROSZEK)

21.1 POMIARY CIENIENIA KRWI

Nieinwazyjnego pomiaru ciśnienia skurczowego dokonano po raz pierwszy w 1896 roku, kiedy to Scypion Riva-

Rocci skonstruował manometr rtęciowy, a rozkurczowego - w 1905 roku [1, 3]. Od tej pory powszechnie używa się

także określenia tzw. Metody tonów Korotkowa. Od lat 30. XX wieku pośredni pomiar ciśnienia tętniczego jest

powszechnie stosowany w praktyce klinicznej.

Badanie polega na pomiarze w sposób pośredni lub bezpośredni ciśnienia w dużych tętnicach. Zwykle pomiar

ciśnienia wykonywany jest w tętnicy ramiennej. Wartości ciśnienia tętniczego krwi zmieniają się pulsacyjnie w czasie

cyklicznej pracy serca. Przy pomiarze ciśnienia tętniczego krwi wyróżnia się ciśnienie maksymalne, czyli skurczowe

oraz minimalne, czyli rozkurczowe.

Do pomiaru ciśnienia tętniczego krwi używa się przyrządu zwanego sfigmomanometrem z zastosowaniem metody

osłuchowej (Korotkowa). Sfigmomanometr składa się z opaski gumowej (mankietu) z komorą powietrzną, z

manometru (rtęciowego, sprężynowego lub elektronicznego) i ręcznej pompki lub kompresora, połączonych ze sobą

gumowymi drenami. Nowoczesne, elektroniczne przyrządy do pomiaru ciśnienia wykorzystują najczęściej do pomiaru

metodę oscylometryczną.

Pomiar ciśnienia powietrza w mankiecie uciskającym poprzez tkanki tętnicę pozwala odzwierciedlić ciśnienie

panujące w naczyniu. Jeśli ciśnienie w mankiecie osiąga wartość, która znajduje się w przedziale między wartością

ciśnienia skurczowego a wartością ciśnienia rozkurczowego, to powoduje ono zamknięcie całkowite tętnicy w fazach

rozkurczu serca i pulsacyjne otwieranie w fazach skurczu serca. Krew przepływa wtedy przez uciśniętą tętnicę

okresowo i z dużą szybkością, wywołując powstawanie wirów, wibracji. Powoduje to powstawanie tonów, które są

słyszalne w słuchawkach lub mogą być odbierane przez elektroniczny rejestrator tych dźwięków. Tony te, zwykle

zgodne z akcją serca, zaczynają powstawać, gdy wartość ciśnienia w mankiecie spadnie poniżej wartości ciśnienia

skurczowego, i znikają, kiedy ciśnienie w mankiecie obniży się na tyle, że jest niższe od ciśnienia rozkurczowego w

tętnicy. Podczas obniżania ciśnienia w mankiecie dla ustalenia wartości ciśnienia skurczowego i rozkurczowego

ważny jest moment usłyszenia pierwszego tonu i moment całkowitego zaniku tonów.

Z uwagi na to, że pośredni pomiar ciśnienia tętniczego krwi jest nieinwazyjny, stosowany jest w medycynie

powszechnie. Jednak żadna z nieinwazyjnych metod pomiaru ciśnienia nie jest uważana za idealną. Najmniej

zawodne są pomiary ciśnienia przy użyciu manometru rtęciowego. W niektórych sytuacjach znajduje

Zastosowanie metoda inwazyjna (krwawa), polegająca na bezpośrednim pomiarze ciśnienia krwi w tętnicy po jej

nakłuciu.

Page 118: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 118

Według zalecenia Światowej Organizacji Zdrowia i Międzynarodowego Towarzystwa Nadciśnieniowego z 1999 roku

(WHO/ISH 1999) przyjmuje się dla celów praktycznych i klinicznych wartości 140 mmhg dla ciśnienia skurczowego i

90 mmhg dla ciśnienia rozkurczowego jako wartości wskazujące na nadciśnienie tętnicze. Nieprawidłowość może

dotyczyć tylko jednego rodzaju ciśnienia lub też obu. Za "optymalne" ciśnienie tętnicze uważa się wartość 120/80 mm

Hg.

21.2 METODY POMIARU CIŚNIENIA TĘTNICZEGO KRWI

Rozróżnia się dwie główne metody pomiaru ciśnienia krwi:

− metodę bezpośrednią; jest to inwazyjna metoda, polegająca na umieszczeniu igły lub cewnika w świetle tętnicy i

połączeniu ich z kalibrowanym przetwornikiem ciśnienia,

− metodę pośrednią; nieinwazyjną, bezkrwawą metodę, polegającą na wywieraniu przez mankiet okludujący

zmiennego ciśnienia na zewnętrzną ściankę tętnicy tak długo, aż dojdzie do zrównania się ciśnienia w mankiecie z

ciśnieniem wewnątrz tętnicy.

Pośrednia metoda pomiaru ciśnienia tętniczego krwi występuje w dwóch odmianach w zależności od tego, czy pomiar

wykonywany jest na podstawie całkowitego zamknięcia tętnicy, czy w czasie ciągłego przepływu krwi przez tętnicę.

1. Kryterium całkowitego zamknięcia tętnicy polega na napompowaniu mankietu okludującego powyżej ciśnienia

skurczowego; następnie obniżając stopniowo ciśnienie powietrza w mankiecie różnymi sposobami ustala się moment

ponownego przepływu krwi poniżej uciskającego mankietu. Identyfikacja tego momentu odbywa się metodą:

osłuchową, palpacyjną, napływową, pletyzmograficzną, sfigmograficzną, ultradźwiękową. Na tej podstawie można

oznaczyć ciśnienie skurczowe. Ciśnienie rozkurczowe wyznacza się natomiast metodą osłuchową, ultradźwiękową lub

pletyzmograficzną.

2. Kryterium przepływu ciągłego w tętnicy polega na wykryciu i zmierzeniu wielkości oscylacji ciśnienia w

mankiecie powstałych pod wpływem przepływających fal tętna. Wielkość tych oscylacji jest rejestrowana w czasie

skokowego lub ciągłego upuszczania powietrza z mankietu z poziomu powyżej ciśnienia skurczowego do poziomu

poniżej ciśnienia rozkurczowego. Należą tu metody: oscylometryczna i sfigmooscylograficzna.

21.3 CHARAKTERYSTYKA METODY OSŁUCHOWEJ

Metoda osłuchowa jest standardową, powszechnie stosowaną metodą pośrednią mierzenia ciśnienia krwi. Wszystkie

ogólne zasady pomiaru tą metodą, łącznie z wymiarami mankietów są obowiązujące dla pozostałych pośrednich

metod mierzenia ciśnienia krwi. Aparat pomiarowy, który nazywa się sfigmomanometrem, składa się z mankietu

okludującego, urządzenia pompującego i upuszczającego powietrze oraz z manometru.

1. Manometr może działać na różnych zasadach (rys. 21.1):

− manometr rtęciowy składa się ze szklanej pionowej rurki połączonej ze zbiornikiem rtęci. Skala rurki manometru

wykalibrowana jest od 0 do 300 mm Hg w odstępach co 2 mm Hg;

− manometr sprężynowy, czyli aneroid jest mniej dokładny niż manometr rtęciowy. Przyczyną tego są wrażliwe na

wstrząsy i uderzenia metalowe dźwignie aneroidu, które nawet mogą zacinać się w czasie pracy manometru;

− manometr elektroniczny, wykonany najczęściej w postaci krzemowego czujnika ciśnienia, jest stosowany w

urządzeniach mikrokomputerowych wyznaczających ciśnienie krwi automatycznie.

Page 119: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 119

Rysunek 21.1 Różne mierniki to wyznaczania ciśnienia tętniczego krwi: a) rtęciowy, b) sprężynowy, c)

elektroniczny

2. Mankiet składa się z gumowej poduszki napełnianej powietrzem, która jest umieszczona w płóciennym

nierozciągliwym pokrowcu. Pokrowiec jest pokryty specjalnym przylepnym materiałem, co ułatwia umocowanie

mankietu na ramieniu pacjenta. Wymiary gumowej poduszki mankietu decydują o wiarygodności wyniku pomiaru

ciśnienia krwi. Mankiet o nieodpowiednich wymiarach w stosunku do obwodu ramienia jest przyczyną

systematycznego błędu pomiaru. W oparciu o eksperymenty na analogu tętnicy stwierdzono, że ciśnienie powietrza z

wnętrza mankietu jest przenoszone na uciskaną tętnicę z najmniejszymi stratami wtedy, gdy długość mankietu

obejmuje cały obwód ramienia. Mankiet za wąski daje wyniki pomiaru ciśnienia krwi za wysokie, natomiast mankiet

za szeroki lub/i za długi (czyli mankiet za duży) daje wyniki pomiaru ciśnienia krwi za niskie.

3. Urządzenie pompujące i upuszczające powietrze z mankietu. W jego skład wchodzą: pompka z zaworem oraz

gumowe dreny. System ten powinien dawać możliwość pompowania i upuszczania powietrza z mankietu zarówno

powoli jak i szybko. Dreny łączące mankiet z manometrem powinny być sztywne. Zapobiega to ich niedrożności

wskutek załamywania się lub zapadania. Upuszczanie powietrza z mankietu jest regulowane przez zawór pompki.

Zamknięty zawór winien utrzymywać ciśnienie w mankiecie na stałym poziomie. Częściowe otwarcie zaworu

pozwala na kontrolowane zmniejszanie wartości wskazań manometru.

4. Słuchawka lekarska. Zwykle używa się fonendoskopu. Ponieważ tony Korotkowa są względnie niskiej

częstotliwości, dlatego do ich wysłuchania należy używać lejka fonendoskopu, a nie membrany. W czasie

wysłuchiwania tonów Korotkowa można wyróżnić 5 faz:

I faza – pojawianie się słabych tonów o charakterze stuków, których głośność stopniowo wzrasta w miarę upuszczania

powietrza z mankietu,

II faza – tony przybierają charakter szmeru lub świstu,

III faza – tony stają się ”chropawe” a ich intensywność wzrasta,

IV faza – oznacza moment, gdy tony nagle ulegają ściszeniu, stają się miękkie, dmuchające, stłumione,

V faza – oznacza poziom ciśnienia, przy którym słyszy się ostatni ton, po którym następuje całkowite zniknięcie

tonów (cisza).

Page 120: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 120

Rysunek 21.2 Tony Korotkowa na tle skali ciśnieniomierza rtęciowego

Ciśnienie skurczowe odpowiada pierwszemu słyszalnemu tonowi Korotkowa, czyli I fazie. Ciśnienie rozkurczowe u

dzieci przypada na IV fazę (ściszenie) tonów Korotkowa, a u dorosłych na V fazę (zniknięcie) tonów Korotkowa. W

razie słabej słyszalności tonów Korotkowa można wzmocnić ich głośność dwoma sposobami:

a) Po założeniu mankietu pacjent unosi ramię nad głowę, następnie opuszcza je i dopiero wtedy pompuje się

mankiet i mierzy się ciśnienie krwi w sposób zwykły,

b) Po napompowaniu mankietu pacjent zaciska i otwiera dłoń kilka razy, po czym odbywa się pomiar.

Poprawne wykonywanie pomiaru ciśnienia w oparciu o wysłuchiwanie tonów Korotkowa powinno przebiegać

następująco:

1) Uprzedzenie pacjenta, że w czasie pomiaru odczuje ucisk mankietu napompowanego powietrzem,

2) Pomiar obwodu ramienia pacjenta w połowie jego długości i dobór mankietu o długości równej obwodowi

ramienia,

3) Ułożenie ramienia pacjenta w pozycji poziomej (wygodnie podpartego na poziomie serca, czyli środkowej

części mostka),

4) Założenie mankietu w taki sposób, żeby jego środek przypadał na tętnicę ramieniową a więc po wewnętrznej

stronie ramienia. Dolny brzeg mankietu winien znajdować się 1-2 cm powyżej dołu łokciowego,

5) Oznaczenie orientacyjnie ciśnienia skurczowego metodą palpacyjną; przed ponownym napompowaniem

mankietu musi nastąpić przerwa około 15 - 30 s,

6) Przyłożenie lejka fonendoskopu w miejscu maksymalnego tętnienia tętnicy ramieniowej w zgięciu łokciowym,

7) Szybkie napompowanie mankietu do poziomu około 30 mm Hg powyżej stwierdzonego palpacyjnie ciśnienia

skurczowego,

8) Powolne upuszczanie powietrze z mankietu z szybkością 2-3 mm Hg/s,

9) Oznaczenie ciśnienia skurczowego w momencie wysłuchania dwóch pierwszych następujących bezpośrednio

po sobie tonów Korotkowa,

10) Oznaczenie ciśnienia rozkurczowego w momencie ściszenia tonów Korotkowa (IV faza) u dzieci i w momencie

zniknięcia tonów Korotkowa (V faza) u dorosłych,

11) Szybkie wypuszczenie powietrza z mankietu przy pełnym otwarciu zaworu,

12) Zanotowanie ciśnienia skurczowego i rozkurczowego z zaznaczeniem ramienia, na którym dokonano pomiaru.

Page 121: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 121

Dodatkowe uwagi i zalecenia:

− pomiar ciśnienia krwi winien być wykonany w ciepłym i cichym pomieszczeniu,

− przed pomiarem pacjent winien wypocząć 3-5 min. W pozycji leżącej, albo siedzącej,

− ciśnienie krwi wykazuje indywidualne wahania w zależności od pory dnia, posiłku, niepokoju, napięcia, reakcji

obronnej, palenia tytoniu, temperatury, pory roku,

− przerwa pomiędzy pomiarami winna wynosić conajmniej 1-2 minuty, w celu uzyskania całkowitego spływu krwi

żylnej,

− w przypadku braku V fazy tonów Korotkowa ciśnienie rozkurczowe należy określać na podstawie IV fazy tonów

Korotkowa.

Ciśnienie skurczowe i rozkurczowe można także wyznaczyć automatycznie. Wtedy identyfikacja tonów Korotkowa

odbywa się za pomocą mikrofonu umieszczonego bezpośrednio w mankiecie okludującym tak, aby dotykał do środka

tętnicy ramieniowej w zgięciu łokciowym, podobnie jak słuchawka. Układ decyzyjny, za pomocą czujnika śledzi

ciśnienie w mankiecie. Odpowiednie wartości tego ciśnienia zostają zapamiętane jako skurczowe i rozkurczowe.

Źródłem błędów instrumentalnych jest tor pomiaru ciśnienia (czujnik wraz z układem kondycjonującym

przetwornikiem AC) oraz tor identyfikacji tonów Korotkowa (mikrofon wraz z układem kondycjonującym i

ewentualnie przetwornikiem AC).

Źródła błędów poza instrumentalnych to:

− niewycentrowanie środka mankietu na tętnicę ramieniową jest przyczyną zawyżenia wyników pomiaru. Ażeby

uzyskać zamknięcie tętnicy należy zastosować wyższe ciśnienie w mankiecie, gdyż tętnicę uciska nie poduszka

gumowa, ale odcinek, płóciennego pokrowca mankietu,

− luźne założenie mankietu jest przyczyną wyższych wyników pomiaru. W tej sytuacji całkowite zaciśnięcie tętnicy

również wymaga wyższego ciśnienia powietrza w mankiecie,

− uniesienie ramienia z mankietem powyżej poziomu serca obniża wynik pomiaru ciśnienia krwi. Obniżenie ramienia

poniżej poziomu serca podwyższa wynik pomiaru. Fakt ten tłumaczy się ciśnieniem hydrostatycznym, albo efektem

grawitacji. Jeżeli pomiar ciśnienia krwi odbywa się w pozycji leżącej pacjenta, wtedy ramię ułożone wzdłuż klatki

piersiowej znajduje się ściśle na poziomie serca i ta pozycja nie wymaga korekty w ułożeniu ramienia. Gdy pacjent

siedzi i opiera ramię na blacie stołu, wtedy ramię znajduje się nieco wyżej niż nadgarstek i to jest właściwa pozycja.

Gdy nie można ułożyć ramienia na poziomie serca, wtedy otrzymany wynik ciśnienia krwi należy skorygować: na

każdy 1 cm uniesienia lub obniżenia ramienia powyżej, lub poniżej poziomu serca, należy do uzyskanego wyniku

pomiaru dodać (lub odjąć) 0.8 mm Hg,

− zimny fonendoskop lub zimne ręce mierzącego powodują podwyższenie wyników pomiaru,

− zbyt silne uciskanie tętnicy lejkiem fonendoskopu sprawia, że tony Korotkowa są słyszalne poniżej ciśnienia

rozkurczowego,

− zbyt wysokie pompowanie mankietu np. Do 300 mm Hg, wywołuje ból, niepokój pacjenta i podwyższa wyniki

pomiaru. Należy określić palpacyjnie maksymalny poziom wstępnego pompowania, który wynosi ok. 30 mm Hg

powyżej spodziewanego ciśnienia skurczowego,

− przerwa osłuchowa występująca u chorych z nadciśnieniem i objawia się niesłyszalnością tonów Korotkowa między

ciśnieniem skurczowym (I faza), a ciśnieniem rozkurczowym (IV, V faza) w zakresie około 40 mmhg. Może ona być

przyczyną poważnych błędów w mierzeniu ciśnienia krwi polegających na zbyt niskim oszacowaniu ciśnienia

skurczowego, albo podwyższeniu ciśnienia rozkurczowego. Błędu tego można uniknąć przez pompowanie powietrza

ok. 30 mm Hg powyżej spodziewanego ciśnienia skurczowego określonego metodą palpacyjną,

− zbyt szybkie upuszczanie powietrza z mankietu zwłaszcza u chorych z niska częstotliwością akcji serca jest

przyczyną błędu systematycznego polegającego na zaniżaniu ciśnienia skurczowego i zawyżaniu ciśnienia

rozkurczowego,

− zbyt powolne spuszczanie powietrza z mankietu może powodować zastój krwi żylnej w kończynie poniżej mankietu

i wzrost ciśnienia rozkurczowego. Dlatego zaleca się, aby powietrze z mankietu upuszczać z szybkością 2 mm Hg/s,

Page 122: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 122

− w przypadku gdy czynność akcji serca jest niemiarowa dokładne oznaczenie ciśnienia nie jest możliwe, ponieważ

zarówno rzut skurczowy serca jak i ciśnienie krwi zmieniają się z uderzenia na uderzenie serca. Jeżeli występują

liczne skurcze przedwczesne, albo migotanie przedsionków należy pomiar ciśnienia krwi powtarzać i wyliczyć

średnią z co najmniej trzech pomiarów. Ciśnienie skurczowe wylicza się jako średnią z serii I fazy, a ciśnienie

rozkurczowe jako średnią z serii zarejestrowanych IV i V fazy tonów Korotkowa. Wynik pomiaru ciśnienia krwi w

takich przypadkach jest przybliżony,

− zastosowanie u osób otyłych mankietów o standardowych rozmiarach, które w stosunku do ich obwodu ramienia są

za małe, daje fałszywe wyniki pomiarów (tzw. Nadciśnienie mankietowe). Dlatego u osób otyłych należy mierzyć

obwód ramienia i przestrzegać zasad dobierania mankietów i posługiwać się specjalnym mankietem o długości 35 cm

i 42 cm Nie poleca się u osób otyłych mierzyć ciśnienia krwi na przedramieniu, ponieważ wtedy otrzymuje się wyniki

ciśnienia rozkurczowego fałszywie wysokie,

− u chorych w stanie wstrząsu tętnienie tętnicy ramieniowej jest zmniejszone lub nieobecne, a tony Korotkowa słabo

słyszalne lub niesłyszalne. Dlatego ciśnienie krwi oznaczane we wstrząsie metodą osłuchową często jest niemożliwe,

lub jego wartości są znacznie zaniżone. Do oznaczania ciśnienia krwi we wstrząsie, należy używać metody

ultradźwiękowej, oscylometrycznej, sfigmooscylograficznej lub bezpośredniej,

− u osób starszych, ze zmianami miażdżycowymi w tętnicach, trzeba użyć znacznie wyższego ciśnienia w mankiecie,

żeby zacisnąć tętnice o grubych, sztywnych i twardych ścianach. U tych osób uzyskuje się podwyższone wyniki

ciśnienia skurczowego. Po napompowaniu mankietu powyżej ciśnienia skurczowego wyczuwa się palpacyjnie twardą

tętnicę promieniową mimo to, że nie jest ona wypełniona krwią.

21.4 METODA OSCYLOMETRYCZNA

Oscylometria jest to metoda pomiaru ciśnienia krwi albo sposób wykrycia przepływu krwi, na podstawie rejestracji

zmian objętości kończyny w czasie skurczu i rozkurczu serca. Oscylacje tętna są nazywane tętnem objętościowym.

Największe oscylacje stwierdza się w tętnicach znajdujących się blisko serca, a więc o dużym przekroju, zaś w

tętnicach distalnych (o małym przekroju) oscylacje są mniejsze.

Pomiar ciśnienia krwi metodą oscylometryczną opiera się na kryterium ciągłego przepływu; polega na wykryciu i

zmierzeniu wielkości oscylacji ciśnienia w mankiecie, powstających pod wpływem przepływających fal tętna.

Amplituda tych oscylacji jest rejestrowana po każdym skokowym upuszczeniu powietrza z mankietu, z poziomu

powyżej spodziewanego ciśnienia skurczowego, do poziomu poniżej ciśnienia rozkurczowego. Następnie sporządza

się wykres oscylogramu: na osi odciętych ciśnienie w mankiecie w odstępach 10 mm Hg, na osi rzędnych

odpowiadające mu wartości amplitudy oscylacji. Na oscylogramie początkowe wartości amplitudy oscylacji są niskie,

potem wartość ich wzrasta, osiąga maksimum i w końcu następuje spadek wartości amplitudy oscylacji. Największe

wartości amplitudy oscylacji odpowiadają ciśnieniu średniemu (rys. 3 – dolna krzywa). Norma ciśnienia średniego

oznaczonego metodą oscylometryczną dla dorosłych wynosi 80-110 mm Hg.

Ciśnienie skurczowe w metodzie oscylometrycznej przypada na pierwsze wyraźne zwiększenie amplitudy oscylacji,

zaś ciśnienie rozkurczowe wyznacza moment pierwszego nagłego zmniejszenia największych oscylacji. Nie zawsze

wykres oscylogramu zachowuje się w ten sposób np. Wzrost lub spadek amplitudy oscylacji jest równomierny i wtedy

ciśnienia skurczowego i rozkurczowego nie można oznaczyć. Metodą oscylometryczną można więc oznaczyć

ciśnienie średnie i niezbyt precyzyjnie ciśnienie skurczowe i rozkurczowe !

Za ciśnienie średnie Pm

przyjmuje się wartość, przy której fale tętna mają najwyższą amplitudę. Ciśnienie

rozkurczowe Ps wyznacza punkt przecięcia się dolnej krzywej oscylogramu z poziomem 40 % maksymalnej wartości

amplitudy fali tętna, natomiast ciśnienie rozkurczowe Pd – punkt przecięcia się dolnej krzywej oscylogramu z

poziomem 60 % maksymalnej wartości amplitudy fali tętna, tak jak to pokazano na rys. 3. Wyniki pomiaru ciśnienia

krwi metodą oscylometryczną są zgodne z wynikami uzyskanymi w metodzie bezpośredniej.

Page 123: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 123

Rysunek 21.3 . Sposób wyznaczania ciśnienia krwi metodą oscylometryczną. Górna krzywa schodkowa

obrazuje zmiany ciśnienia powietrza w mankiecie, co 10 mm Hg; Środkowa krzywa przedstawia wykres

zarejestrowanych amplitud fal tętna; Dolna krzywa – zarejestrowane fale t

Metoda oscylometryczna jest obecnie w pełni zautomatyzowana. Ciśnienia można oznaczać w różnych miejscach na

ręce (rys. 4):

1. Na przedramieniu, jak w metodzie osłuchowej,

2. Na nadgarstku,

3. Na kciuku.

Amplituda oscylacji ciśnienia w mankiecie towarzyszących fali tętna stanowi zwykle pojedyncze procenty ciśnienia

średniego Pm, Oznacza to, że najwyższa ich wartość pojawi się w mankiecie umieszczonym na ramieniu, natomiast na

kciuku - najmniejsza. Toteż czujnik ciśnieniomierza tego ostatniego musi charakteryzować się największą czułością,

co sprawia, że urządzenie mierzące ciśnienie na kciuku jest podatne na zakłócenia (nawet dźwięki mowy, nieznaczne

ruchy palca itp.).

Schemat blokowy ciśnieniomierza przedstawia rys. 5. Czujnik śledzi ciśnienie w mankiecie oraz jego oscylacje.

Wartości obu ciśnień w mankiecie (dużego i małego, odpowiadającego oscylacji) są zapamiętywane w dwóch

pamięciach. Przeliczone wartości amplitudy oscylacji (40% i 60% maksymalnej wartości amplitudy oscylacji)

wskazują momenty, w których należy odczytać wartości ciśnienia w mankiecie. Odpowiada to wartości ciśnienia

skurczowego i rozkurczowego.

Page 124: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 124

Rysunek 21.4 Schemat blokowy urządzenia do nieinwazyjnego pomiaru ciśnienia tętniczego krwi metodą

oscylometryczną. Linią przerywana dorysowano mikrofon, którego obecność w prezentowanym schemacie

obrazuje realizowaną metodę osłuchową

Rysunek 21.5 Schemat ciśnieniomierza firmy Texas Instruments

Urządzenie śledzi jakość wykonanych pomiarów. Toteż automatycznie odrzucane są błędne wyniki pomiarów, jeśli

tylko:

− częstotliwość rytmu <35 lub >200 skurczów/min,

− ciśnienie rozkurczowe <40 lub >160 mm Hg,

− ciśnienie skurczowe <60 lub >280 mm Hg,

− różnica między ciśnieniem skurczowym a rozkurczowym <10 mm Hg lub >150 mm Hg.

Page 125: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 125

Źródłem błędów instrumentalnych jest nie tylko czujnik służący do pomiaru ciśnienia w mankiecie oraz śledzący

oscylacje tego ciśnienia a także cały tor od układów kondycjonujących sygnał analogowy aż do przetworzenia sygnału

ciśnieniowego do postaci cyfrowej. Współczynniki przeliczeniowe podane jako As = 40% i B

d = 60%, które służą do

wyznaczenia amplitud oscylacji odpowiadających wartościom ciśnienia skurczowego i rozkurczowego, zaszywa się w

części procesorowej. Mają one znaczenie statystyczne, bowiem wyznacza się je na podstawie badań populacyjnych

pacjentów (tabela 1). Należy wiedzieć, że wartości te mogą się różnić w ciśnieniomierzach produkowanych przez

różnych producentów. Fakt ten sprawia, że wyniki pomiaru ciśnień uzyskane z różnych ciśnieniomierzy nie muszą

być zbieżne.

Tabela 1. Współczynniki As, B

d stosowane do wyznaczenia ciśnienia skurczowego (A

s) i rozkurczowego (B

d) krwi,

wg [2]

Autorzy prac Współczynniki

As, % B

d, %

Sapiński 40 60

Ball Ilovera 50 60

Ball Ilovera 50÷54 59÷67

Ursino 46÷64 (średnio 52) 60÷82 (średnio 70)

Geddes 45÷57 (średnio 55) 69÷89 (średnio 82)

Moraes 29÷64 (średnio 56) 50÷85 (średnio 76)

Drzewiecki 59 72

Kim 45÷57 74÷82

Nissila 25÷50 80

Ten rodzaj "błędu" nie można zaliczyć do grupy błędów instrumentalnych. Nie jest to także błąd pozainstrumentalny

w rozumieniu tych, podanych dla metody osłuchowej. Metoda oscylometryczna jest metodą statystyczną, a więc

przybliżoną. Zatem nie jest wskazane, aby urządzenia tego typu stosowane były w praktyce lekarskiej (szpital,

przychodnia). Są one przeznaczone raczej do "użytku domowego".

Dla poprawnego wyznaczenia wartości ciśnienia nabywca takiego urządzenia powinien zgłosić się do lekarza i

porównać wskazania swojego "osobistego" ciśnieniomierza z wynikami uzyskanymi w metodzie osłuchowej.

Pozostałe źródła błędów pozainstrumentalnych są podobne jak w metodzie osłuchowej.

22. BADANIA UKŁADU ODDECHOWEGO: METODY I APARATURA (DR B.

JUROSZEK)

22.1 CHARAKTERYSTYKA PARAMETRÓW SPIROMETRYCZNYCH

Jedną z metod diagnozowania układu oddechowego jest badanie spirometryczne, które polega na kontroli objętości

wydychanego (lub wdychanego) gazu i prędkości jego przepływu. Do najbardziej wartościowych diagnostycznie

należy tzw. Test natężonego wydechu. Polega on na tym, że pacjent nabiera do płuc maksymalną objętość powietrza,

a następnie wydmuchuje go z największą siłą i szybkością, co zwykle trwa 4 do 6 sekund. Ważnym jest sposób, w jaki

zmienia się objętość gazu V(t).

Page 126: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 126

Na tej podstawie wyznacza się parametry oddechowe (spirometryczne) w postaci wartości objętości oraz chwilowej

bądź średniej wartości prędkości przepływu gazu. Wszystkie te parametry są miarą sprawności wentylacji płuc.

Warunki, w jakich znajduje się gaz w płucach znacznie różnią się od warunków otoczenia, w których następuje

pomiar: np. Temperatura i wilgotność w płucach jest wyższa niż w otoczeniu (na zewnątrz). Z tego powodu wyniki

pomiarów spirometrycznych koryguje się poprzez wprowadzenie odpowiednich współczynników przeliczeniowych

tak, aby uzyskać znormalizowane (w sensie warunków fizycznych) wartości parametrów. Te dopiero można porównać

z wartościami należnymi (czyli normami) dla danego pacjenta.

Page 127: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 127

Warunki pomiarów parametrów spirometrycznych

Gaz oddechowy znajdujący się w płucach charakteryzują następujące parametry fizyczne: temperatura, ciśnienie,

wilgotność oraz skład chemiczny. Rzeczą zrozumiałą jest, że skład chemiczny zależy od tego, czy gaz wchodzi do

płuc z zewnątrz, bogaty w tlen, czy też wychodzi z płuc przyczyniając się do usunięcia zbędnego dla organizmu

dwutlenku węgla. Zmierzona wartość objętości gazu wydechowego zależy od pozostałych parametrów fizycznych,

które zgodnie z prawami gazowymi ją określają. Należy zwrócić uwagę na fakt, że gaz w płucach jest ogrzany do

temperatury ciała (+37°C), a wydostając się na zewnątrz do otoczenia ochładza się i zmniejsza swą objętość. Także

zmienia się jego ciśnienie i wilgotność (w płucach jest on nasycony parą wodną). Te cechy otoczenia mogą zmieniać

się w szerokim zakresie, w wyniku czego zmieniać się będzie objętość płucna oglądana na zewnątrz.

W różny sposób precyzuje się warunki pomiarów spirometrycznych, jednak najczęściej są to:

ATPS – aktualna temperatura i ciśnienie oraz nasycenie gazu parą wodną w czasie pomiaru,

BTPS – temperatura 37°C (temperatura ciała), ciśnienie zewnętrzne (otoczenia) normalne (760 mm Hg), nasycenie

parą wodną: są to warunki, w których gaz (powietrze oddechowe) znajduje się w płucach.

W celu odpowiedniej normalizacji wyników pomiaru stosuje się następujący wzór przeliczeniowy:

Page 128: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 128

Gdzie:

PB [hpa] – ciśnienie atmosferyczne panujące w otoczeniu,

PH2O [hpa] – ciśnienie pary wodnej w temperaturze otoczenia,

T0 [°C] – temperatura otoczenia.

Błędy metody uwarunkowane wpływem oporu przepływowego przetwornika spirometrycznego na badany układ

oddechowy

Podczas realizacji natężonego wydechu pacjent zmuszony jest do wykonania wysiłku i przesunięcia porcji gazu z płuc

na zewnątrz przez rurociąg pomiarowy, który stawia opór przepływającemu medium. Zaistniałą sytuację łatwo

przedstawić w oparciu o model elektryczny układu oddechowego. Rurociąg połączony jest szeregowo z drogami

oddechowymi, a w pierwszym rzędzie z tchawicą. Stanowi to analogię do układu pomiaru prądu za pomocą

szeregowo włączonego w obwód amperomierza. W tym przypadku wiadomo, że wynikający stąd błąd metody będzie

tym mniejszy, im mniejsza będzie rezystancja wewnętrzna amperomierza w porównaniu z rezystancją obwodu, do

którego został włączony.

Wprawdzie analogiczna sytuacja występuje przy badaniu układu oddechowego to jednak należy się liczyć ze

specjalnym efektem dodatkowym, występującym jedynie podczas badania takiego właśnie obiektu, jakim są płuca.

Mianowicie w przypadku niektórych schorzeń występuje zamknięcie światła niektórych dróg oddechowych. Ich

otwarcie może nastąpić tylko wtedy, gdy w płucach zostanie wytworzone wyższe (niż normalnie) ciśnienie napędowe.

A taka właśnie sytuacja ma miejsce wtedy, gdy rurociąg pomiarowy stawia znaczny opór. W wyniku tego może

nastąpić odblokowanie zamkniętych dotąd pęcherzyków płucnych, co spowoduje zwiększenie się objętości gazu

wydostającego z płuc. Jest to sytuacja wymuszona, a uzyskane rezultaty nie obrazują rzeczywistego stanu płuc.

Opór przetwornika spirometrycznego współdziała z oporem układu oddechowego w pełnym zakresie trwania

natężonego wydechu. Toteż wszystkie parametry spirometryczne, w których ujawnia się wpływ oporu

przepływowego mogą w trakcie pomiaru ulegać zmianie w zależności od relacji, jaka istnieje między oporami

badanego obiektu i przetwornika pomiarowego.

23. CHARAKTERYSTYKI SYGNAŁÓW EKG EMG EEG I SPOSOBY ICH

POMIARÓW. PRZYKŁADOWA APARATURA DO TYCH CELÓW. (DR B.

JUROSZEK)

23.1 POMIAR ELEKTRYCZNOŚCI W ORGANIZMIE CZŁOWIEKA

Sygnały bioelektryczne spełniają w organizmie człowieka zarówno funkcje informacyjne, jak i koordynacyjne.

Właśnie dlatego są one jednym z najczulszych wskaźników stanu fizjologicznego organizmu. Sumę napięć

pochodzących od komórek poszczególnych organów lub części ciała można mierzyć i odpowiednio je interpretując,

wykrywać choroby np. Pęcherza moczowego, żołądka, macicy, języka, gałki ocznej, krtani, mięśni, a przede

wszystkim serca i mózgu.

23.2 ELEKTROKARDIOGRAM (EKG)

Serce kurczy się pod wpływem bodźców elektrycznych, które powstają w

specjalnych komórkach układu przewodzącego serca i rozprzestrzeniają się na

mięśnie przedsionków i komór. Elektrokardiogram zwykle nazywany EKG jest to

zarejestrowana elektryczna aktywność serca przy pomocy elektrod podłączonych

do kończyn i do skóry klatki piersiowej na odpowiedniej

Stacjonarny układ od badania

EKG

Page 129: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 129

Wysokości. Takie ustawienie elektrod pozwala zbadać przebieg bodźców

elektrycznych przez różne części serca. Mierzone napięcia między elektrodami są

bardzo małe, ich wartość waha się od ułamka do 5 miliwoltów, muszą więc być

wzmocnione i zarejestrowane.

Prawidłowy wykres napięcia odpowiadający jednemu cyklowi pracy serca posiada

sześć charakterystycznych załamków oznaczonych jeszcze przez twórcę

elektrokardiografu literami P, Q, R, S, T, U, które powinny występować w

określonych odległościach i na odpowiedniej wysokości. Kształt wykresu

napięcia, odległości między charakterystycznymi punktami i amplitudy załamków

pozwalają wnioskować o stanie

Mięśnia sercowego. EKG pozwala również

określić czas trwania poszczególnych zjawisk

w sercu. Śledząc przebieg krzywej EKG,

lekarz uzyskuje informacje o różnego rodzaju

arytmiach, chorobach przedsionków i komór, wykrywa uszkodzenia serca

powstałe w wyniku przebytych chorób, np. Niewyleżanej grypy, rozpoznaje

zapalenie mięśnia sercowego i przebyty zawał. Na podstawie zapisu EKG można

również ocenić wielkość komór serca.

W celu uzyskania dokładniejszych informacji stosuje się EKG Holtera. Pacjent

otrzymuje na jedną dobę aparat wielkości małego magnetofonu kasetowego

połączony z przyklejonymi do ciała w odpowiednich miejscach elektrodami.

Komputerowa analiza zapisu pozwala ocenić pracę serca w różnych różnych

stanach emocjonalnych i

podczas wysiłku.

Obecnie EKG można wykonać nawet przez telefon za pomocą

specjalnego przenośnego aparatu cyfrowego. Aparaty te rejestrują i

zapamiętują wyniki badań EKG w wewnętrznej pamięci, a następnie

mogą być przesyłane do lekarza poprzez telefon komórkowy, sieć

stacjonarną analogową (modem lub Internet), lub przez mikrofon

dowolnego telefonu analogowego.

Aparaty przenośne mogą spełniać rolę aparatu typu eventholter. W

tym przypadku aparat rejestruje w sposób ciągły pracę serca

pacjenta i wpisuje wynik badania do pamięci buforowej aparatu

pracującej w pętli. Długość pętli jest programowana przez lekarza

stosownie do indywidualnych potrzeb pacjenta (od kilku sekund do

16 minut). W ten sposób pacjent może wykonywać badania w

dowolnym czasie np. W ciągu doby co godzinę lub co kilka minut

przez kilka kolejnych dób.

WERSJA II

Elektrokardiogram (przebieg EKG), to zapis zmian napięć elektrycznych powstających w mięśniu sercowym.

Źródłem tej energii elektrycznej jest każda żyjąca komórka mięśnia sercowego. Napięcie elektryczne w pojedynczej

komórce wynika ze zmianami szybkości przenikania przez jej błonę jonów sodu, potasu i wapnia. Powstające w

mięśniu sercowym różnice potencjałów są przewodzone przez tkanki na powierzchnię skóry, gdzie przy pomocy

elektrod można je zarejestrować (poziom w pojedynczych mv) w postaci elektrokardiogramu.

Potencjały elektryczne generowane przez serce odbiera się za pomocą odprowadzeń, które nazwano

„jednobiegunowymi” i „dwubiegunowymi”.W odprowadzeniach jednobiegunowych elektrodą badającą jest elektroda

dodatnia, którą umieszcza się w miejscu badanego potencjału. Drugą elektrodą jest elektroda obojętna o napięciu

równym 0V. Odprowadzenia jednobiegunowe mierzą więc bezwzględny potencjał w jednym punkcie badanego pola

elektrycznego. W odprowadzeniach dwubiegunowych elektrody umieszczone są w punktach o różnym potencjale i

rejestrują różnice potencjałów między dwoma punktami.

• Standardowy elektrokardiogram jest to spoczynkowy zapis EKG, obejmujący 12

Odprowadzeń

EKG zdrowego człowieka

Nieprawidłowe EKG

Aparat EKG dostosowany do przesyłania

wyników przez telefon

Page 130: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 130

- 3 odprowadzenia kończynowe dwubiegunowe

- 3 odprowadzenia kończynowe jednobiegunowe

- 6 odprowadzeń przedsercowych jednobiegunowych

Wykres pracy serca jest tworzony poprzez połączenie załamków, odcinków i odstępów. Załamek jest to wychylenie

linii izoelektrycznej w górę lub w dół. Odcinek stanowi fragment linii izoelektrycznej łączącej sąsiadujące załamki.

Natomiast odstęp to suma załamków i odcinków.

Załamek P jest odzwierciedleniem depolaryzacji mięśni przedsionków. Przyjmuje wartości dodatnie lub ujemne w

zależności od podłączenia odprowadzenia.

Odcinek PQ czas przewodzenia pobudzenia z węzła przedsionkowo-komorowego do Pęczka Hisa.

Zespół QRS jest wynikiem depolaryzacji komór.

Odcinek ST Odzwierciedla początkową fazę repolaryzacji komór.

Załamek T Odpowiada końcowej fazie repolaryzacji komór.

Badanie wykonuje się za pomocą elektrokardiografu, na który składa się wzmacniacz i zestaw elektrod

umieszczonych na odpowiednich odprowadzeniach. Przykładowe

Odprowadzenia kończynowe dwubiegunowe:

- odprowadzenie pierwsze rejestruje różnicę potencjałów pomiędzy lewym przedramieniem (+) a prawym

przedramieniem (-)

- odprowadzenie drugie rejestruje różnicę potencjałów pomiędzy lewym podudziem (+) a prawym przedramieniem (-)

Odprowadzenie trzecie rejestruje różnicę potencjałów pomiędzy lewym podudziem (+) a lewym przedramieniem (-)

Odprowadzenia kończynowe jednobiegunowe rejestrują wartość potencjału w danym punkcie powierzchni ciała.

Elektroda badająca (+) umieszczona jest na jednej z kończyn, elektrodę obojętną stanowi połączenie elektrod z

pozostałych dwóch kończyn (modyfikacja Goldbergera). Tworzenie elektrody obojętnej zapewnia konstrukcja

współczesnych elektrokardiografów.

Odprowadzenia jednobiegunowe w modyfikacji Goldbergera oznacza się:

- odprowadzenie avr – z prawej kończyny górnej

- odprowadzenie avl – z lewej kończyny górnej

- odprowadzenie avf – z lewej kończyny dolnej

EKG HOLTEROWSKIE Próbkowanie adaptacyjne przeprowadza się przy zmiennej częstotliwości próbkowania.

Podczas rejestracji sygnału częstotliwość próbkowania jest weryfikowana w czasie rzeczywistym i dostosowywana do

aktualnie zapisywanego sygnału. W ten sposób uzyskujemy dokładny zapis sygnału EKG (nie pomijamy żadnego z

fragmentów krzywej EKG, co może się zdarzyć przy jednej, z góry ustalonej częstotliwości próbkowania).

Próbkowanie adaptacyjne znalazło zastosowanie w elektrokardiografii Holterowskiej, ze względu na to, ze rejestracja

sygnału w tego typu badanie trwa 24 godziny i pacjent wykonuje podczas niego codzienne czynności. Zatem

częstotliwość pracy serca ulega zmianie wraz ze zmianą aktywności badanego. W takim wypadku ciągła weryfikacja

częstotliwości próbkowania pozwala na rejestrację przebiegów EKG z dużą dokładnością i mamy pewność, że żaden

fragment zapisu istotny dla diagnozy nie zostanie pominięty, a niektóre zakłócenia dzięki temu wyeliminowane.

Page 131: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 131

Rysunek 23.1. Wzmacniacz EKG ze sterowaniem na lewą nogę

23.3 ELEKTROENCEFALOGRAFIA (EEG)

Page 132: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 132

Badanie elektroencefalograficzne (w skrócie EEG) polega na rejestracji

czynnościowych prądów mózgu człowieka, które charakteryzują się

niewielkim napięciem (od kilku do kilkuset mikrowoltów). Częstotliwość

tych prądów waha się od 0,5 Hz do 50 Hz. Do rejestracji tych niewielkich

potencjałów służą aparaty encefalograficzne.

Badanie EEG rozpoczyna się od umieszczenia na głowie pacjenta 20

elektrod pomiarowych. Podczas operacji można je umieścić bezpośrednio

na powierzchni kory mózgowej lub nawet wprowadzić w głąb mózgu.

Wzmacniając odbierane sygnały około miliona razy, rejestruje się różnice

potencjałów między każdą parą elektrod. Każda konfiguracja elektrod ma

swoje znaczenie i przydatność diagnostyczną. Wynik badania uzyskuje się

w postaci czterech fal o różnej częstotliwości wyładowań i różnych

amplitudach, a każdy rodzaj fali świadczy o innej aktywności kory

mózgowej. U dorosłego człowieka przy całkowitym odprężeniu dominują

fale alfa o częstotliwości 8-13 Hz i napięciu 50-150 mv, które zanikają na

przykład wtedy, gdy otwiera się oczy. Fale beta występują u ludzi

aktywnych, pobudzonych i najwyraźniej są odbierane z okolic czołowo-

środkowych. Charakteryzują się częstotliwością 14-24 Hz i potencjałami

10-16 mv. Fale theta

O częstotliwości 4-7 Hz i

amplitudzie 50-100 mv często świadczą o tym, że w mózgu dzieje się

coś złego. Wreszcie fale delta o parametrach 0,5-3 Hz i 100-200 mv,

występują podczas snu. Ich obecność u dorosłego człowieka w stanie

czuwania zawsze świadczy o procesie patologicznym, podobnie jak

występowanie potencjałów szczytowych, charakteryzujących się

szybkim narastaniem i spadkiem napięcia.

Do uzyskania rzetelnego wyniku badania konieczna jest długa

trwająca od 20 do 30 minut rejestracja. Zdarza się, że zapis

spoczynkowy nie ujawnia żadnych nieprawidłowości, natomiast

odchylenia od normy pojawiają się dopiero wtedy, gdy zastosuje się

tzw. Metody aktywacji, na przykład kilkuminutową hiperwentylację,

czyli szybkie i głębokie oddechy, lub powtarzające się bodźce

świetlne. Pomocny bywa również zapis wykonany podczas snu.

Metoda ta jest bardzo przydatna, między innymi przy wykrywaniu

padaczki, guzów nowotworowych, krwiaków, urazów i obszarów

niedotlenienia mózgu. Jest też nieodzowna, gdy trzeba stwierdzić

śmierć mózgową, równoznaczną ze zgonem człowieka. Zdarza się

bowiem, że wszystkie narządy wewnętrzne działają jeszcze sprawnie,

a tylko płaski zapis EEG świadczy, że człowiek przekroczył granicę między życiem i śmiercią.

WERSJA II

Badanie EEG polega na rejestracji (przy pomocy elektrod umieszczonych na skórze głowy) czynnościowych prądów

mózgu człowieka, pochodzących od aktywności neuronów kory mózgowej, które charakteryzują się niewielkim

napięciem (od kilku do kilkuset mikrowoltów). Zapis takiego badania nazywa się elektroencefalogramem. Jeśli

elektrody umieści się bezpośrednio na korze mózgu (np. Podczas operacji)badanie nosi nazwę elektrokorytkografii.

Częstotliwość tych prądów waha się od 0,5 Hz do 50 Hz. Do rejestracji tych niewielkich potencjałów służą aparaty

encefalograficzne.

EEG charakteryzuje się bardzo niską amplitudą rejestrowanego zapisu. Typowe EEG nie przekracza ok. 100 µv.

Najwyższe wartości napięcia EEG, rejestrowane w czasie napadów padaczkowych mają zwykle kilkaset

mikrowoltów. W porównaniu z dobrze znanym sygnałem EKG jest to więc badanie o amplitudzie sygnału dziesiątki

razy mniejszej.

Można również podać charakterystyczny dla EEG zakres częstotliwości, dla rutynowo rejestrowanych zapisów jest to

przedział od 1 Hz do kilkudziesięciu Hz. W zapisie EEG człowieka wyróżnia się kilka rytmów, dla których jednym z

parametrów charakterystycznych jest właśnie częstotliwość. I tak rytm delta zawiera się w granicach 1 – 4 Hz, theta 4

– 8 Hz, alfa 8 – 13 Hz i beta powyżej 13 Hz. Rytmy te występują u ludzi w różnych warunkach i w różnym wieku.

Stanowisko pomiaru EEG

Stanowisko pomiaru EEG

Page 133: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 133

Inną cechą charakterystyczną EEG jest oporność elektrod rejestrujących. Dla dobrych zapisów EEG powinna ona być

utrzymywana poniżej 5 kohm.

Elektroencefalograf urządzenie do badania zmian elektrycznych w mózgu (zmian jego aktywności) za pomocą

dwóch elektrod przyłożonych do czaszki lub mózgu połączonego z urządzeniem wzmacniającym i zapisującym

częstotliwość fal

W standardowym badaniu umieszcza się 19 elektrod należących do systemu 10-20, zalecanego przez

Międzynarodową Federację Neurofizjologii Klinicznej IFCN:

Osiem elektrod nad każdą półkulą

Trzy elektrody w linii pośrodkowej

Są one oznaczane:

Siedem elektrod nad korą płatów czołowych: Fp1, Fp2, F3, F4, F7, F8, Fz

Trzy elektrody na granicy płatów ciemieniowych i czołowych: C3, C4, Cz

Trzy elektrody nad płatami ciemieniowymi: P3, P4, Pz

Cztery elektrody nad płatami skroniowymi: T3, T4, T5, T6

Dwie elektrody nad płatami potylicznymi: O1, O2

Oraz dwie elektrody referencyjne przymocowane do płatka ucha A1, A2

Prawidłowy elektroencefalogram osoby dorosłej w czuwaniu przy zamkniętych oczach składa się z dominującej

rytmicznej, regularnej czynności alfa prawidłowo zróżnicowanej przestrzennie, tzn. O amplitudzie malejącej od

potylicy ku przodowi; w odprowadzeniach przednich- czołowych dominuje niskonapięciowa czynność beta.

W warunkach fizjologicznych powstają fale mózgowe o częstotliwości w zakresie 1-100 Hz oraz amplitudzie od 5 do

kilkuset µv:

W przypadku jakiejkolwiek patologii (np. Zniszczone komórki lub upośledzone przewodzenie chemiczne) będzie się

opóźniać lub przyspieszać szybkość ich przepływu, zwiększać lub zmniejszać amplituda, zmieniać ich kształt lub

konfiguracja.

Fale delta

Fale delta (δ) mają częstotliwość do 4 Hz. Obserwowane są głównie w 3. I 4. Stadium snu (stadium NREM).

Fale teta

Fale theta (θ) mają częstotliwość od 4 do 8 Hz. Aktywność theta może być zaobserwowana podczas stanów

hipnotycznych takich jak trans, hipnoza, lekki sen. Związane są z 1. I 2. Stadium snu NREM. Odmienny rodzaj fal

theta jest związany z aktywnością poznawczą ─ w szczególności uwagą a także procesami pamięciowymi (tzw. Rytm

fmθ - frontal midline theta). Jest on obserwowany głównie w przyśrodkowej części przedniej części mózgu.

Page 134: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 134

Fale alfa

Fale alfa (α) mają częstotliwość od 8 do 13 Hz. Ich amplituda wynosi około 30-100 µv. Fale alpha są dobrze widoczne

przy braku bodźców wzrokowych (w warunkach zamkniętych oczu u osoby badanej). Ich stłumienie następuje

podczas percepcji wzrokowej. Fale alfa związane są również ze stanem relaksu i obniżonym poziomem aktywności

poznawczej.

Fale beta

Fale beta (β) mają częstotliwość od 12 do około 30 Hz, mają amplitudę poniżej 30 µv. Obrazują one zaangażowanie

kory mózgowej w aktywność poznawczą. Fale beta o małej amplitudzie występują podczas koncentracji uwagi.

Dodatkowo, mogą być wywołane przez różne patologie oraz substancje chemiczne takie jak benzodiazepiny.

Fale gamma

Fale gamma (γ) występują w zakresie częstotliwości około 26–100 Hz.

Przy przejściu ze stanu bezsenności (czuwania) przez stadium 1 (drzemka), 2 (lekki sen), do stadium 3 i 4 (głęboki

sen) zanika aktywność alfa i częstotliwość zapisu obniża się. W stadium II występuje aktywność theta oraz zespoły K

i wrzeciona snu. W stadium 3 i 4 występują fale delta o niskich częstotliwościach. Po okresie głębokiego snu zapis

może przejść do stadium REM, w którym występują sny. Taki cykl powtarza się wielokrotnie podczas całego snu,

zmienia się jednak czas trwania poszczególnych stadiów.

23.4 ELEKTROMIOGRAFIA (EMG)

Page 135: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 135

Mięsień kurczy się, gdy jest drażniony elektrycznie, a podczas

skurczu powstaje w nim prąd. Ten fakt jest podstawą badań

elektromiograficznych (w skrócie EMG), czyli rejestrację

czynności elektrycznej mięśni. Czynność ta związana jest ze

zdolnością przenikania jonów sodu i potasu przez błonę komórki.

Wskutek nierównomiernego rozmieszczenia jonów sodu i potasu

w obrębie komórki mięśniowej - dochodzi do polaryzacji ładunku

elektrycznego wnętrza komórki w stosunku do błony

komórkowej. Potencjał polaryzacji, wynoszący w spoczynku

około 80 mv, ulega zmianom w zależności od stanu

czynnościowego mięśnia.

Podczas badania stosuje się albo elektrody powierzchniowe, które

umieszcza się na skórze nad mięśniem, albo elektrody igłowe,

które wkłuwa się w mięsień. Można też, co rzadko się wykonuje,

wkłuć się w pojedyncze włókno, czyli komórkę mięśniową. U

osób zdrowych, pozostających w spoczynku, aparatura rejestruje

ciszę elektryczną, co oznacza, że nie występują żadne zjawiska elektryczne. Wystarczy jednak lekki skurcz, żeby

odebrać tzw. Potencjał jednostki ruchowej. W zależności od rodzaju rejestrowanych potencjałów można dociec, jak

działają poszczególne elementy badanego układu. W miarę zwiększania siły skurczu pojawia się coraz więcej

potencjałów z różnych jednostek ruchowych. Przy maksymalnym wysiłku powstaje tzw. Zapis interferencyjny, w

którym nie można już rozróżnić pojedynczych potencjałów.

Lekarz przeprowadzający badanie najpierw musi wytypować właściwe

mięśnie do zdiagnozowania obserwowanych nieprawidłowości, musi też

ustalić, jaka jest maksymalna siła skurczu dla konkretnej osoby. Dopiero

potem rozpoczyna właściwe badanie, w trakcie którego wkłuwa elektrody

w różne punkty mięśnia (jest od 20 do 30). Wiele jest też parametrów, na

które musi zwracać uwagę. Obserwuje więc aktywność elektryczną w

trakcie spoczynku, sposób narastania liczby potencjałów w miarę

zwiększania się wysiłku, przy jakim wysiłku pojawia się zapis

interferencyjny, wreszcie charakterystykę impulsu - jego kształt, czas

trwania, amplitudę, częstotliwość wyładowań. Może ponadto zbadać

szybkość rozchodzenia się impulsów w nerwach, ale żeby to zrobić, trzeba

zarejestrować potencjały pojawiające się w wyniku elektrycznej stymulacji

odpowiedniego nerwu.

Elektromiografię w codziennej pracy wykorzystują lekarze ortopedzi,

reumatolodzy, rehabilitanci, najważniejszy jednak polem zastosowań tej

metody diagnostycznej są choroby nerwowo-mięśniowe. EMG pozwala

zbadać stan unerwienia mięśnia, dostarcza dowodów odnerwienia, potrafi

wychwycić procesy związane z odbudowywaniem uszkodzonego

unerwienia, wskazuje na stopień uszkodzenia mięśnia i nerwu. Generalnie

można powiedzieć, że badanie daje odpowiedź na pytanie, czy

obserwowane objawy chorobowe wynikają z uszkodzenia w ośrodkowym

układzie nerwowym, uszkodzenia nerwów obwodowych czy też samego

mięśnia. A to jest dobrą podstawą do podjęcia decyzji co do rodzaju leczenia.

Mimo tak dużych możliwości EMG, czasem nie udaje się na jej podstawie postawić trafnej diagnozy. Nie uzyska się

bowiem wiarygodnego wyniku bez dobrej współpracy pacjenta, od którego zależy precyzyjne "dawkowanie" siły

skurczu. Właśnie dlatego elektromiografia zwykle zawodzi w przypadku małych dzieci.

Opracowano na podstawie artykułu Klary Szatkiewicz Pod prądem, Wiedza i Życie, nr 8/1998

Badanie elektromiograficzne opiera się na rejestracji czynności elektrycznej mięśni. Czynność ta związana jest ze

zdolnością przenikania jonów sodu i potasu przez błonę komórki. Wskutek nierównomiernego rozmieszczenia jonów

sodu i potasu w obrębie komórki mięśniowej - dochodzi do polaryzacji ładunku elektrycznego wnętrza komórki w

stosunku do błony komórkowej. Potencjał polaryzacji, wynoszący w spoczynku około 80 mv, ulega zmianom w

zależności od stanu czynnościowego mięśnia. Przy pomocy elektromiografów z użyciem elektrod igłowych

Pomiar EMG

Na dole zapis z pojedynczej jednostki

ruchowej występujący przy lekkim

skurczu mięśnia, a u góry tzw. Zapis

interferencyjny, w którym nie można

odróżnić pojedynczych potencjałów,

występujący przy maksymalnej sile

skurczu

Page 136: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 136

rejestrowane są zmienne bioprądy z mięśni w spoczynku i podczas wysiłku. W badaniu EMG ocenia się spadek

amplitudy kolejnych potencjałów mięśnia podczas drażnienia unerwiającego ten mięsień nerwu bodźcami o różnej

częstotliwości. W mięśniu zdrowym, podczas stymulacji z częstotliwością 1 - 10 Hz, amplituda i pole kolejnych

potencjałów nie ulegają istotnym zmianom.

Rejestracja potencjałów :

Ruchowych 100-500 Hz

Czuciowych 300-400 Hz

Składowe sygnału:

Stała (określenie komórek, włókien mięśniowych, 40 mv)

Zmienna (od mięśni)

Pasmo odbioru: 0-20 khz

Potencjały czynnościowe: pojedyncze μv do 5 mv, a często i więcej. Są to sygnały losowe, stochastyczne.

24. SZTUCZNA WENTYLACJA: METODY I APARATURA. (DR B.

JUROSZEK) Sztuczna wentylacja – proces mechanicznego lub ręcznego wspomagania czynności oddechowych u człowieka.

Sztuczna wentylacja płuc może być pośrednia (ręczne zgniatanie i rozciąganie klatki piersiowej) albo

bezpośrednia (wtłaczanie gazów oddechowych do płuc przez ratownika, np. metodą usta-usta, usta-nos, usta-usta-nos

oraz za pomocą różnego rodzaju wentylatorów płucnych).

Wentylacja mechaniczna to metoda leczenia, w której urządzenie medyczne zwane respiratorem zastępuje

czynność oddechową chorego.

Cel mechanicznej wentylacji:

- uzyskanie zadanych zmian objętości powietrza oddechowego z określoną częstotliwością

- zapewnienie składu powietrza wypełniającego płuca

Parametry:

- objętość powietrza

- szybkość przepływu

- rytm oddechowy

- czas poszczególnych faz oddechu

- ciśnienie szczytowe wdechu

- pauza na szczycie wdechu

- ciśnienie w końcowej fazie

Cechy płuc – rezystancja i pojemność- decydują jakie będzie ciśnienie napędzające respiratora.

Schemat blokowy respiratora:

Page 137: Zagadnienia Dyplom2013 Publ

Studenci Inżynierii Biomedycznej Zagadnienia do egzaminu inżynierskiego 2013

Strona | 137

Funkcje respiratora:

- odpowiedni kształt fali p i v

- max wartość p lub v wdechu

- kontrola i alarm w przypadku przekroczenia wartości granicznych p i v

- ustalenie częstotliwości oddychania

- ustalenie czasu wdechu

- ustalenie pauzy

- ustalenie max v przy wydechu

- możliwość podjęcia samodzielnej pracy płuc co 2, 5, 10 oddechów

25. MOŻLIWOŚCI WYKORZYSTANIA MIKROKONTROLERÓW DO

STEROWANIA I OBRÓBKI DANYCH W PRZYRZĄDACH

ANALITYCZNYCH I TERAPEUTYCZNYCH. (DR G. SMOŁALSKI)

(PUSTO)