ćw.11. opis ćwiczenia

26
1 Ćwiczenie nr 11 Cyfrowa kamera fotograficzna Pytania kontrolne: 1. Schemat blokowy aparatu fotograficznego. 2. Co to jest liczba przesłony i jaki związek ma z jasnością obiektywu? Która liczba przesłony (2,8 czy 5,6) gwarantuje większy strumień światła i ilokrotnie? 3. Cechy odwzorowania wiernego, wzór soczewkowy, powiększenie liniowe i kątowe. Na czym polega zoom optyczny i zoom cyfrowy? 4. Jak realizowana jest migawka w aparacie cyfrowym? Co to jest efekt czerwonych oczu? 5. Jak definiuje się rozdzielczość? Co to jest kompresja? LABORATORIUM OPTOELEKTRONIKI OBRAZOWEJ

Transcript of ćw.11. opis ćwiczenia

1

Ćwiczenie nr 11

Cyfrowa kamera fotograficzna

Pytania kontrolne:

1. Schemat blokowy aparatu fotograficznego.

2. Co to jest liczba przesłony i jaki związek ma z jasnością obiektywu? Która

liczba przesłony (2,8 czy 5,6) gwarantuje większy strumień światła i ilokrotnie?

3. Cechy odwzorowania wiernego, wzór soczewkowy, powiększenie liniowe i

kątowe. Na czym polega zoom optyczny i zoom cyfrowy?

4. Jak realizowana jest migawka w aparacie cyfrowym? Co to jest efekt

czerwonych oczu?

5. Jak definiuje się rozdzielczość? Co to jest kompresja?

LABORATORIUM OPTOELEKTRONIKI OBRAZOWEJ

2

11. Cyfrowa kamera fotograficzna

11.1. Budowa i zasada działania aparatu fotograficznego

Cyfrowy aparat fotograficzny jest urządzeniem niewielkich rozmiarów pozwalającym na

fotografowanie obrazów, wykorzystując jako materiał światłoczuły czujniki, obecnie

najczęściej CCD lub CMOS. Obraz wędruje do pamięci aparatu, skąd zazwyczaj

transmitowany jest do wyświetlacza LCD oraz na nośnik pamięci, którym może być karta

CompactFlash, SmartMedia, MemoryStick itp.. Są także inne sposoby magazynowania

danych – dyskietka, mała płyta CD-R lub rozpowszechniony głównie w kamerach wideo

nośnik MultiMediaCard.

Podstawową różnicą pomiędzy aparatami fotograficznymi, a ich cyfrowymi odpowiednikami,

jest element światłoczuły. W aparacie analogowym światło padające przez obiektyw aparatu

na film wywołuje na jego światłoczułej powierzchni nieodwracalną reakcję chemiczną.

Rys. 11.1. Schemat blokowy cyfrowego aparatu fotograficznego

W cyfrowych aparatach fotograficznych obraz rzutowany jest przez układ optyczny na

przetwornik światłoczuły CCD lub CMOS. Obraz w aparacie cyfrowym rejestrowany jest na

elemencie światłoczułym jedynie przez chwilę, po czym sygnał świetlny zostaje zamieniony

na impulsy elektryczne. Taki sposób rejestracji wprowadza możliwość natychmiastowego

podglądu wykonanego ujęcia z możliwością jego wstępnej edycji czy usunięcia.

Analogowe dane opisujące luminancję każdego punktu obrazu (składowe: czerwona, zielona

lub niebieska) trafiają do przetwornika analogowo cyfrowego.

przetwornik

A/C

procesor

sterujący

oraz

pamięć

wewnętrzna

pamięć

półprzewodnikowa

dysk miniaturowy

obiektyw

Przetwornik

CCD / CMOS

bezpośrednie złącze

SCSI

(w aparatach

atelierowych)

Zapis do pamięci

(w aparatach na PC-Card

przenośnych)

3

Po przetworzeniu do postaci cyfrowej dane zapisywane są w wewnętrznej pamięci

operacyjnej aparatu. Następnie w procesie interpolacji barw układy elektroniczne aparatu

estymują dla każdego punktu dwie brakujące składowe koloru, uwzględniając przy tym

wartości punktów sąsiadujących. Ponieważ w wyniku interpolacji objętość danych

graficznych zwiększa się trzykrotnie, przed zapisem na karcie pamięci obraz poddawany jest

kompresji stratnej np. JPEG.

W tym przypadku cała obróbka zachodzi w aparacie, który zapisuje zdjęcia w postaci

standardowego pliku graficznego, możliwego do obejrzenia nawet na komputerze z

procesorem 80486. Sygnał będący odwzorowaniem widzianego przez obiektyw obrazu

zapisywany jest zwykle na kartach pamięci półprzewodnikowej formatu PC Cards o

pojemności od 4MB do ponad 1GB (w najnowszych rozwiązaniach). Często stosuje się

również pamięci pośrednie (buforowe) wykonane jako półprzewodnikowe typu błyskowego

(flash memory).

W urządzeniach atelierowych (podłączonych na stałe do komputera) rzadko stosuje się zapis

na nośniku umieszczonym w aparacie. Cyfrowa postać obrazu jest od razu wyprowadzana do

komputera np. przez złącze SCSI w celu przygotowania go do druku.

O jakości zdjęcia cyfrowego decydują nie tylko czysto techniczne parametry, jak np.

rozdzielczość elementu światłoczułego, rozmiar matrycy, czy liczba rejestrowanych barw

przez układ światłoczuły. Znaczący wpływ na ostateczną jakość uzyskanej fotografii ma

umiejętne wykorzystanie możliwości tkwiących w optyce aparatu: możliwości obiektywu,

odpowiedni dobór czasu i parametrów naświetlania, a także sprawne posługiwanie się funkcją

autofocus.

Rys. 11.2. Budowa cyfrowego aparatu fotograficznego

Obiektyw

Zasadniczym elementem układu optycznego cyfrowego aparatu fotograficznego jest

obiektyw. Obiektywy w ap. cyfrowych są z reguły znacznie prostsze niż w klasycznych

aparatach fotograficznych, często przymocowane na stałe lub zintegrowane z konstrukcją

urządzenia. Jednak dostępne są również modele umożliwiające swobodne dobieranie

obiektywu.

4

Obiektyw aparatu fotograficznego, mimo że przeważnie zbudowany jest co najmniej z kilku,

a czasem nawet kilkunastu, elementów optycznych (soczewek lub soczewek i luster), może

być w uproszczeniu traktowany jako pojedyncza soczewka skupiająca (tzw. soczewka gruba),

odwzorowująca wewnątrz aparatu rzeczywisty obraz przedmiotu. Zależność między

położeniem przedmiotu a i położeniem jego obrazu (względem odpowiednich ognisk),

ogniskową f obiektywu oraz powiększeniem liniowym M i kątowym M wynika ze wzorów

soczewkowych:

a b = f2 , M = -b/f , M = 1/M

Jeżeli więc przedmiot znajduje się w dużej odległości od obiektywu (w „nieskończoności”),

to jego obraz powstaje niemal w ognisku i tutaj jest umieszczona w klasycznym aparacie

błona światłoczuła. Natomiast, jak widać ze wzoru, ostry obraz przedmiotu znajdującego się

w niewielkiej odległości, powstanie w większej niż poprzednio odległości od obiektywu,

czyli za płaszczyzną błony. Dla uzyskania optymalnej ostrości obrazu na elemencie

światłoczułym konieczne jest odpowiednie zwiększenie odległości obrazowej, czyli

wysunięcie całego obiektywu. Ręcznie odbywa się to zwykle przez obracanie pierścienia

oprawy zaopatrzonego w gwint. W aparatach typu kompakt z systemem Autofocus służy do

tego celu mechanizm sprężynowy, natomiast w aparatach lustrzanych wyposażonych w ten

system służy do tego celu silnik elektryczny, przeważnie wbudowany w korpus aparatu i

połączony z oprawą obiektywu za pomocą sprzęgła. Wyjątek stanowią produkty firm Canon

Sigma i nowy Nikon, które zdecydowały się na wyposażenie w silnik każdego obiektywu.

Zakres przesuwania jest proporcjonalny do ogniskowej obiektywu. W obiektywach

długoogniskowych jest więc on dość duży, co utrudnia szybkie nastawianie ostrości. Ostatnio

wiele firm stosuje w obiektywach tego typu tak zwane wewnętrzne ogniskowanie. Polega ono

na tym, że zamiast wysuwania całego obiektywu, dla nastawienia ostrości obrazu zmienia się

położenie wzajemne niektórych elementów jego układu optycznego.

W ten sposób całkowita długość oprawy pozostaje nie zmieniona, a ponieważ przesuw

elementów wewnątrz obudowy obiektywu jest niewielki, nastawienie ostrości odbywa się

bardzo szybko. W prospektach firmowych obiektywy takie są oznaczane angielskim

określeniem: „internal focusing”.

Większość aparatów zawiera obiektywy o zmiennej ogniskowej. W najprostszych

aparatach optyka pozwala uzyskać tylko dwukrotną zmianę ogniskowej (istnieją oczywiście

także egzemplarze w ogóle pozbawione opcji zoom). W bardziej zaawansowanych aparatach

cyfrowych układy optyczne pozwalają uzyskać ośmiokrotną, dziesięciokrotną lub nawet

czternastokrotną zmianę ogniskowej (i powiększenia obrazu).

Dobrej jakości obiektyw powinien być jasny (parametr f/D określany ilorazem ogniskowej i

średnicy otworu przysłony powinien być możliwie mały) i pozwalać na wykonywanie zdjęć z

jak największym otworem przysłony (przysłona zwykle zamyka się w granicach f/2,8 do

f/11). Możliwe jest wtedy wykorzystywanie aparatu w gorszych warunkach oświetleniowych

(np. wieczorem, w pochmurny dzień) bez konieczności użycia lampy błyskowej. Swoboda w

operowaniu wielkością przesłony umożliwia wpływ na głębię ostrości – strefę (przedział

odległości), w której obrazy fotografowanych obiektów są ostre. Im mniejszy otwór

przesłony, tym większa głębia ostrości.

Ogniskowa standardowego obiektywu (kąt widzenia analogiczny jak oka ludzkiego)

klasycznego aparatu fotograficznego (klatka 24x36 mm) wynosi około 50 mm. Jeżeli aparat

wyposażony jest w zoom to wartość ogniskowej wynosi od 38 do 115 mm, a nawet od 20 do

400 mm. Aparaty cyfrowe wyposażane są zazwyczaj w przetworniki analizujące o mniejszej

przekątnej niż typowa klisza, i ich obiektywy mają proporcjonalnie krótsze ogniskowe. Np.

kamera HP M407 z przetwornikiem 1/2” ma 3x zoom z ogniskową zmieniającą się w

5

granicach 6-18 mm. Najjaśniejsze obiektywy mają modele stało ogniskowe, co wynika z ich

prostszej konstrukcji optycznej. Istnieją również obiektywy zapewniające dobry tryb makro,

wykorzystywany do makrofotografii. Minimalna odległość obiektywu od fotografowanego

przedmiotu wynosi wtedy zaledwie 1 lub 2 centymetry. Uzyskanie podobnych rezultatów za

pomocą tradycyjnego aparatu fotograficznego wymaga użycia specjalnych akcesoriów (tzw.

pierścieni pośrednich) lub specjalistycznych obiektywów i jest znacznie bardziej kłopotliwe.

Migawka

Innym charakterystycznym elementem układu optycznego jest migawka, która występuje

częściej w profesjonalnych urządzeniach cyfrowych. W aparatach bez migawki czas

ekspozycji (naświetlania) fotodetektorów regulowany jest elektronicznie np. przez odczyt z

określoną częstotliwością zgromadzonych w nich ładunków elektrycznych.

W aparatach cyfrowych stosowane są dwie metody naświetleń układu światłoczułego.

W droższych modelach wykorzystuje się mechanizm znany z konstrukcji analogowych, czyli

fizycznie zamontowaną w aparacie migawkę, otwierającą się na czas określony przez

fotografującego, lub przez automatykę aparatu. W tańszych modelach układ światłoczuły

poddawany jest naświetleniu cały czas, a pod pojęciem „czas otwarcia migawki” rozumie się

czas, przez jaki matryca CCD lub CMOS będzie rejestrować dane ujęcie. Generalna zasada

jest prosta – im krótszy czas otwarcia migawki, tym większa szansa, że fotografowane

obiekty będą ostre i nieporuszone.

Niestety, krótszy czas otwarcia migawki to także mniej światła docierającego do

elementu światłoczułego, co z kolei może spowodować, że wykonywane zdjęcie będzie nie

doświetlone. Dodatkowo chcąc uzyskiwać dobre i ostre zdjęcia, warto stosować się także do

następującej reguły: maksymalny czas naświetlania powinien być odwrotnie proporcjonalny

do jasności (lecz proporcjonalny do liczby przesłony f/D) obiektywu.

Przesłona

Z informacji podanych powyżej wynika, że czynnikiem decydującym o jakości uzyskanych

zdjęć jest wartość, czy też liczba przesłony f/D (iloraz ogniskowej i średnicy otworu

przysłony). O ile czas otwarcia migawki decyduje o tym, jak długo światło pada na element

światłoczuły, to liczba przesłony informuje o wielkości otworu, przez który światło pada na

ten element. Oczywiste jest, że aby zdjęcie nie wyszło prześwietlone lub nie doświetlone,

ilość padającego na układ światłoczuły światła musi być stała. Inaczej mówiąc, ekspozycja

musi pozostać niezmienna bez względu na regulację parametrów aparatu. Łatwo zauważyć

prostą zależność. Im dłuższy będzie czas otwarcia migawki, tym mniejszy powinien być

otwór przesłony (a większa liczba f/D).

11.2. Podstawowe pojęcia związane z cyfrowymi aparatami fotograficznymi

Autofocus

Automatyczny system, który wykorzystuje silnik elektryczny wbudowany w obiektyw

lub korpus aparatu dla uzyskania takiego wysunięcia obiektywu, które zapewnia ostrość

naświetlanego obrazu. Odległość od fotografowanego obiektu ustalana jest na podstawie np.

pomiaru różnicy faz fali wysyłanej przez aparat i odbitej od obiektów lub na podstawie

różnicowania kontrastów obrazu na przetworniku.

Nastawianie ostrości obrazu w systemie AF przebiega dwuetapowo i jest zależne od typu

aparatu. W aparatach z celownikiem lunetkowym nie ma możliwości bezpośredniej kontroli

ostrości obrazu, dlatego w pierwszym etapie układ pomiarowy ustala samoczynnie odległość

przedmiotową, a w drugim etapie, po przetworzeniu tej informacji przez elektroniczny układ

sterujący, mechanizm wykonawczy nastawia odpowiednio obiektyw. Natomiast w aparatach

6

lustrzanych układ pomiarowy AF analizuje bezpośrednio ostrość obrazu odwzorowanego

przez obiektyw i na tej podstawie koryguje za pomocą silnika nastawienie obiektywu. Jak

więc widać, odbywa się to podobnie jak przy nastawianiu ręcznym. Systemy AF stosowane w

cyfrowych aparatach fotograficznych są analogiczne do systemów stosowanych w kamerach

wideo (patrz ćw. 9).

Rozdzielczość

Łączna liczba punktów składających się na zarejestrowany obraz. Im więcej pikseli

tym zdjęcie jest wyraźniejsze, większe co do formatu i objętości. Teraz podstawowym

standardem dla aparatów cyfrowych jest rozdzielczość 1600x1200 pikseli. Im wyższa

rozdzielczość, tym większe możliwości aparatu. Wyższa rozdzielczość gwarantuje lepszą

jakość obrazu i daje większe możliwości późniejszego przetwarzania pliku (kadrowania,

skalowania, retuszu). Rozdzielczość aparatu cyfrowego związana jest bezpośrednio z

rozmiarem matrycy CCD lub CMOS. Im więcej elementów światłoczułych zawiera matryca,

tym lepszą jakość zdjęć można uzyskać.

Rozdzielczość zdjęć wyrażana może być również w następujących jednostkach:

- dpi (dots per inch) liczba kropek na cal wykonanego zdjęcia,

- lpi (lines per inch) liczba rozróżnialnych linii na cal,

- liczba linii na kadr (stosowana często w telewizji)

W ćwiczeniu rozdzielczość określana jest jako liczba rozróżnialnych linii na kadr

wykonanego zdjęcia. Pomiar rozdzielczości polega tutaj na określeniu liczby linii w kadrze

przy fotografowaniu wzorcowego testu.

Zoom optyczny

Zdolność zbliżenia obrazu za pomocą regulacji optyki aparatu. W aparatach cyfrowych dość

popularne są zoomy 3 krotne (3x).

Spotykane są również (dość rzadko) zoomy 14x np. w aparacie Sony MVC FD91.

Zoom cyfrowy

Stratne jakościowo zbliżenie obrazu, polegające na wycięciu fragmentu z całości zdjęcia i

elektronicznym powiększeniu go. Powiększenie cyfrowe jest możliwe dzięki interpolacji

(sztucznego powielenia pikseli) lub udostępnienia tego mechanizmu jedynie w niższych

rozdzielczościach oferowanych przez aparat (wykorzystywany jest wtedy powstały w ten

sposób „zapas” pikseli okupiony niższą rozdzielczością). Zatem zoom cyfrowy prawie zawsze

powoduje (pośrednio lub bezpośrednio) spadek jakości danego zdjęcia.

Ekspozycja

Ilość światła, którego działaniu poddaje się materiał światłoczuły, regulowana czasem

otwarcia migawki oraz przesłoną obiektywu.

W aparatach cyfrowych czułość elementów CCD/CMOS jest regulowana.

Zwiększenie czułości powoduje wzrost zakłóceń rejestrowanych przez matrycę światłoczułą.

Dobór czułości jest praktycznie zawsze sprawą kompromisu, jednak przy dobrym oświetleniu

należy ustawić najniższą wartość ISO.

Kompresja obrazu Algorytm zmniejszania rozmiaru pliku ze zdjęciem kosztem utraty jakości obrazu. Kompresję

obrazu stosuje się w celu zmniejszenia rozmiaru pliku zawierającego zdjęcie, a także w celu

zapewnienia krótkiego czasu zapisu obrazu do pamięci. Kompresja może być stała lub

progresywna. Im większy stopień kompresji tym plik jest mniejszy, czyli możemy zapisać

7

większą liczbę zdjęć, lecz gorsza jakość zdjęcia. Kompresja nie jest odwracalna, tzn.

skompresowanego zdjęcia nie można odtworzyć w formie przed kompresją, stąd konieczność

świadomego wyboru trybu kompresji przed wykonaniem zdjęcia. Ma to znaczenie przy

zdjęciach wymagających powiększenia małego fragmentu obrazu. Często stosowany algorytm

JPEG bazuje na założeniu, że informacja o jasności danego punktu obrazu jest znacznie

ważniejsza od informacji o kolorze tego punktu (co wynika z fizjologicznych uwarunkowań

ludzkiego wzroku).

Efekt czerwonych oczu

Efekt pojawiający się na zdjęciach barwnych przy fotografowaniu osób za pomocą lampy

błyskowej, umieszczonej blisko osi obiektywu (dotyczy wszystkich lamp wbudowanych do

aparatu). Uwidacznia się on w postaci czerwonej plamki w centralnej części oka

portretowanej osoby. W większości aparatów cyfrowych istnieje możliwość zredukowania

tego efektu, dzięki funkcji tzw. przed błysku. Polega to na wstępnym mignięciu lampy

błyskowej tuż przed wykonaniem zdjęcia. Silny strumień światła powoduje zwężenie źrenic

fotografowanej osoby dzięki czemu niepożądany efekt jest minimalizowany.

8

9.2. Elementy i układy składające się na cyfrową kamerę wideo

9.2.1. Obiektyw

Obiektywy wszystkich kamer (poza najprostszymi) złożone są z kilku soczewek zwanych

elementami. Ich zadaniem jest kierowanie (drogą załamania) światła tak, aby jak najwierniej

odwzorować filmowaną scenę na elemencie światłoczułym (błonie lub sensorze). Celem

projektantów obiektywów jest minimalizacja aberracji (błędów odwzorowania) przy użyciu

jak najmniejszej liczby elementów. Przedni element obiektywu ma kluczowy wpływ na jego

jakość. Jego krzywizna jest dobrana w taki sposób, aby kąt padania i kąt załamania promieni

były jednakowe. Jest to łatwe do osiągnięcia w obiektywach stałoogniskowych ale bardzo

trudne w obiektywach typu zoom (zmiennoogniskowych). Przedni element pokryty jest

specjalnymi powłokami mającymi na celu; 1) poprawę gładkości, 2) poprawę własności

transmisyjnych (powłoki antyrefleksyjne), 3) zmniejszenie podatności na flarę od słońca, 4)

poprawę własności kolorystycznych. Większość dzisiejszych obiektywów jest wielokrotnie

powlekana (ang. multi coated) oraz posiada element będący filtrem UV. Regulacja ostrości

(ogniskowanie) polega na zmianie odległości między soczewkami a sensorem lub na zmianie

odległości między poszczególnymi grupami elementów.

padające światło diafragma (apertura)

błona światłoczułalub sensor cyfrowy

elementy obiektywu

Rys. 9.2 Budowa obiektywu.

Najczęściej stosowanymi do wykonywania soczewek materiałami są; szkło, szkło kwarcowe,

fluoryt, plastik i german. Plastik umożlwia formowanie elementów asferycznych, których

wykonanie w szkle byłoby trudne lub nawet niemożliwe. Nie stosuje się go do wykonywania

elementów przednich ze względu na podatność na zarysowania. Producenci często nazywają

plastik stosowany w obiektywach 'żywicą optyczną'.

Wewnątrz obiektywu znajduje się również przysłona (apertura)

o zmiennej średnicy. Jest to mechanizm regulacji ilości

przechodzącego przez obiektyw światła. Obecnie najczęściej

stosuje się przysłonę irysową. Składa się ona z tzw. listków,

których liczba świadczy często o jakości obiektywu. Większa

ilość listków pozwala lepiej odwzorować pożądany, okrągły

kształt apertury, co daje wysokiej jakości bokeh – rozmycie tła

zarejestrowanego obrazu.

Rys. 9.3. Prostokątna przysłona

widoczna wewnątrz obiektywu

cyfrowej kamery video

9

Odległość ogniskowa (w skrócie ogniskowa): jest to odległość od płaszczyzny głównej

(przedmiotowej lub obrazowej) układu soczewek do skojarzonego z nią ogniska. W sytuacji

gdy obraz z kamery jest ostry, jej sensor znajduje się niemal w ognisku obiektywu. Odległość

ogniskowa jest głównym parametrem obiektywu i nie zależy od rodzaju aparatu bądź kamery

do której jest zamocowany. Wyrażana jest w milimetrach [mm].

Pole widzenia (ang. field of view - FOV) jest to kątowy wycinek danej sceny możliwy do

zarejestrowania przez sensor kamery. Zależy od dwóch parametrów: odległości ogniskowej

obiektywu oraz fizycznych rozmiarów sensora.

Rys. 9.4. Pole widzenia kamery lub aparatu fotograficznego

Pole widzenie nie jest cechą samego obiektywu i może być określone jedynie gdy znany jest

rozmiar sensora. Aby opisać pole widzenia w pionie, poziomie i po przekątnej podaje się

odpowiedni kąt widzenia.

f

KarctgFOV

22

gdzie: K – średnica, długość lub szerokość sensora, f – odległość ogniskowa nominalna bądź

efektywna

Z wzoru (9.1) wynika, że gdy odległość ogniskowa rośnie, pole widzenia kamery maleje.

Odległość ogniskowa soczewki ludzkiego oka wynosi ~50mm. Obiektywy o ogniskowej

~50mm zastosowane w aparatach z kliszą o rozmiarach 24 x 36 mm2, nazywane są

normalnymi, bowiem ich pole widzenia jest zbliżone do oka ludzkiego. Jeśli ogniskowa jest

krótsza, mówi się że obiektyw jest szerokokątny, a jeśli dłuższa – jest to teleobiektyw. W

tabeli 9.1 zestawiono kąty widzenia w pionie, poziomie i po przekątnej odpowiadające

typowym odległościom ogniskowym obiektywów. Jak już wspomniano, pole widzenia zależy

również od rozmiaru sensora i wszystkie wartości w tabeli są słuszne dla tzw. aparatów

małoobrazkowych (o wymiarach klatki 36 x 24mm).

Tabela 9.1. Kąty widzenia małoobrazkowego aparatu fotograficznego dla

wybranych odległości ogniskowych.

ogniskowa [mm] 13 15 18 24 28 35 50 70 85 135 200 300 600

Po przekątnej (°) 118 111 100 84.1 75.4 63.4 46.8 34.4 28.6 18.2 12.4 8.25 4.13

Pionowo (°) 85.4 77.3 67.4 53.1 46.4 37.8 27.0 19.5 16.1 10.2 6.87 4.58 2.29

Poziomo (°) 108 100.4 90.0 73.7 65.5 54.4 39.20 28.8 23.9 15.2 10.3 6.87 3.44

(9.1)

10

Ekwiwalentna odległość ogniskowa – jest to ogniskowa obiektywu aparatu

małoobrazkowego, przy której pole widzenia jest takie jak pole widzenia danej kamery (z

innym obiektywem i sensorem).

Przelicznik ogniskowej (ang. crop factor) – jest to współczynnik, który pomnożony przez

odległość ogniskową obiektywu danej kamery daje ekwiwalentną odległość ogniskową.

sensoradanegoprzekatna

owegomaloobrazkaparatukliszyklatkiprzekatnaogniskowejkprzeliczni

Proporcje pojedynczej klatki kliszy aparatu małoobrazkowego (tzw. kliszy „35mm”) to 3:2

(36mm na 24mm), tymczasem wiele sensorów obecnie stosowanych w kamerach, ma

proporcje 4:3, lub 16:9. Dlatego też przelicznik wyznacza się dla przekątnej.

Jasność obiektywu – liczba F

Liczba F (określana potocznie mianem 'jasności') wyraża odległość ogniskową obiektywu w

odniesieniu do średnicy przysłony (tzw. apertury). Jest wielkością bezwymiarowa opisaną

wzorem:

D

ffF /#

gdzie: f – odległość ogniskowa, D – średnica przysłony

Oznaczenie "f/#" traktowane jest jak jeden symbol a jego poszczególne wartości zapisuje się

zastępując znak # liczbą (np. f/11 gdy odległość ogniskowa jest 11 razy większa niż średnica

przysłony). Im większa jest liczba F tym mniej światła trafia na powierzchnię sensora. Aby

dwukrotnie zmniejszyć ilość padającego, średnica apertury musi zmaleć 2 =1,41 raza.

Dlatego do oznaczenia obiektywów używa się standardowej skali liczb F. Jest to w

przybliżeniu geometryczny szereg liczb, potęg 2 : f/1, f/1.4, f/2, f/2.8, f/4, f/5.6, f/8,

f/11, f/16, f/22, f/32, itp. Wartości są zaokrąglone w celu uproszczenia zapisu.

f/1,4 f/2 f/2,8 f/4 f/5,6 f/8

Rys. 9.5. Sposób oznaczania apertury obiektywu za pomocą ‘liczby F’

Jak już wspomniano, zmiana jasności obiektywu od danej wartości liczby F do sąsiedniej

wartości z szeregu powoduje dwukrotną zmianę ilości padającego na sensor światła. W

fotografii mówi się wtedy o zmianie o „1 EV – jedną wartość ekspozycji” (z ang. exposure

value).

(9.3)

(9.2)

11

9.2.2. Migawka

W każdej kamerze konieczna jest możliwość kontrolowania czasu ekspozycji. W przypadku

aparatów fotograficznych z wyższej półki migawka jest mechaniczna i ma postać kurtyny

przesuwającej się w płaszczyźnie obrazowej nad powierzchnią sensora, pozwalając

precyzyjnie kontrolować czas naświetlania. W przypadku kamer cyfrowych migawka jest

najczęściej elektroniczna. Czas otwarcia migawki wyraża się w normalny sposób – w

sekundach, jednak wartości zapisuje się w postaci ułamków zwykłych; 1/25s, 1/320s,

1/4000s. W przypadku aparatów fotograficznych czas ten dobiera się indywidualnie przed

każdą ekspozycją. Kamera cyfrowa natomiast musi rejestrować sekwencje obrazów

utrzymując odpowiednie tempo – np. 25 klatek na sekundę. Czas otwarcia migawki nie może

w tym przypadku przekroczyć 1/25 sekundy. Układ automatycznej ekspozycji kamery dobiera

pozostałe parametry (aperturę obiektywu i czułość ISO sensora) w taki sposób, aby warunek

ten był spełniony.

W sensorach CMOS elektroniczna migawka działa w sposób następujący: kolejne wiersze

sensora są resetowane jeden po drugim począwszy od góry. Gdy proces obejmie kilka wierszy

(ich liczba zależy od czasu ekspozycji) rozpoczyna się odczyt w jednakowy sposób – wiersze

odczytywane są kolejno począwszy od góry z taką samą szybkością z jaką przebiega

resetowanie. Okres integracji (akumulacji ładunków) stanowi czas ekspozycji i jest równy

opóźnieniu między resetem oraz odczytem danego wiersza zatem zmieniając te dwie wartości

można sterować czasem ekspozycji. Z racji tego że proces integracji przesuwa się po sensorze

przez pewien okres czasu (podobnie jak dla migawki szczelinowej aparatu fotograficznego),

na obrazie pojawiają się charakterystyczne zniekształcenia:

Rys. 9.6. Skoszenie – efekt uboczny działania opadającej migawki

Jeśli pojazd porusza się podczas ekspozycji z dużą prędkością to jego dach może podlegać

odczytowi wcześniej niż koła, co daje efekt widoczny na rysunku powyżej.

9.2.3. Sensor kamery i matryca Bayera

Sensor znajdujący się w kamerze wideo, wykonany jest w jednej z dwóch technologii: CMOS

lub CCD. Oba typy sensorów bazują obecnie na komórkach MOS (choć spotykane są również

sensory CCD oparte na tranzystorach bipolarnych). Akumulują one w pikselach pewną ilość

ładunku proporcjonalną do natężenia oświetlenia dokonując w ten sposób próbkowania

obrazu. Gdy ekspozycja dobiegnie końca, w przypadku najprostszych sensorów CCD ładunek

zgromadzony w danym pikselu jest przesuwany wzdłuż rejestru, do sąsiedniego piksela w

następnym wierszu. Zawartość kolejnych wierszy trafia do rejestru przesuwnego tzw.

wyjściowego, na wyjściu którego dokonywana jest konwersja ładunku na napięcie. W

12

przypadku sensora CMOS konwersja odbywa się wewnątrz każdego piksela co stanowi

podstawową różnicą między obiema technologiami.

CCD CMOS

konwersja fotonówna elektrony

konwersja ładunku

na napięcie

9.7. Porównanie sensorów CMOS i CCD

Siatka Bayera

Aby uzyskać obraz barwny na matrycę sensorów nakładany jest

dyskretny filtr optyczny (DFO) w formie siatki filtrów RGB.

Siatka Bayera (od nazwiska wynalazcy - dr. Bryce'a E. Bayera z

firmy Kodak) przedstawiona została na rys. 9.8. Często nazywana

jest siatką GRGB lub RGGB albo też siatką typu „zielona

szachownica” ponieważ zawiera 50% zielonych, 25% czerwonych

i 25% niebieskich filtrów elementarnych. Filtry te pokrywają całą

powierzchnię aktywną sensora. Jej konstrukcja wynika z faktu, że

ludzkie oko jest bardziej czułe i widzi z lepszą rozdzielczością

kolor zielony. Zorganizowanie siatki w ten sposób sprawia że

obraz jest bardziej szczegółowy i mniej podatny na szum. Obraz ‘prosto’ z sensora z siatką

Bayera różni się znacznie od obrazu ostatecznego. Fakt że każdy piksel jest przykryty filtrem

przepuszczającym tylko fragment spektrum oznacza, że znaczna część energii światła nie

dochodzi do sensora. Ponadto, każdy piksel zawiera tylko część informacji o kolorze w

danym punkcie. Resztę informacji uzyskuje się przez analizę sąsiednich pikseli. Służą do tego

tzw. algorytmy demozaikujące.

Rys. 9.9. a) obraz nieprzetworzony z sensora z siatką Bayera,

b) obraz ostateczny po procesie demozaikowania.

Rys. 9.8. Siatka Bayera

a) b)

13

Istnieje wiele typów algorytmów demozaikujących; najbliższego sąsiada, interpolacji

dwuliniowej, interpolacji dwusześciennej itd. . Różnią się one szybkością działania, jakością i

zastosowaniem (np. dany algorytm może być zoptymalizowany pod kątem lepszej jakości

wydruku).

9.2.4. Układ automatycznego ustawiania ostrości (ang. AF – autofocus) Dużym udogodnieniem dla operatora kamery jest układ automatycznej regulacji ostrości..

Rys. 9.10a. Schemat ultradźwiękowego układu Auto Focus. Stosowane są trzy rodzaje takiego układu: ultradźwiękowe, z wiązką promieniowania podczerwonego i z czujnikiem CCD. W układzie ultradźwiękowym, przedstawionym na rys. 9.10a, AF korzysta z typowych rozwiązań stosowanych w echosondach. Z przetwornika piezoelektrycznego, umieszczonego w małym tubusie obok obiektywu kamery, jest wysyłana skupiona wiązka fal ultradźwiękowych w środek obszaru obserwowanego przez kamerę. Fala ultradźwiękowa odbita od przedmiotu wraca z opóźnieniem do odbiornika, którym jest ten sam przetwornik. Odpowiedni układ elektryczny określa czas opóźnienia i zmienia tę informację na sygnał sterujący silnik ostrości obiektywu. Wadą tego systemu jest błędne ustawianie ostrości przy obserwacji przedmiotów znajdujących się np. za szybą, od której odbija się fala ultradźwiękowa lub też w przypadku filmowania obiektu umieszczonego nie w centralnej, ale w bocznej części kadru. Układ AF z wiązką promieniowania podczerwonego „Infrared Auto-Focus" wykorzystujący zjawisko odbicia fal podczerwonych przedstawiono na rys. 9.10b.

Wiązka promieniowania podczerwonego emitowana przez diodę LED Jest skierowana wzdłuż osi obiektywu kamery do przedmiotu. Po odbiciu od przedmiotu jest odbierana przez drugi obiektyw należący do odbiornika podczerwieni znajdującego się pod obiektywem kamery. Odbita wiązka pada następnie na zespół fotodiod A i B (ang. Split Photodiode). Zespół ten może przesuwać się w górę i w dół, przy czym jest mechanicznie sprzężony z pierścieniem ostrości obiektywu. Jeśli wiązka odbierana pada na jedną tylko fotodiodę, to silnik ostrości przesuwa zespół fotodiod aż do osiągnięcia jednakowego podziału tej wiązki w obu diodach A i B. Następuje zrównanie sygnałów elektrycznych z obu fotodiod i silnik zatrzymuje się. Do wzmocnienia sygnałów z fotodiod i sterowania silnika służą: wzmacniacz, komparator amplitudy oraz układ sterujący. Zaletą układu z wiązką promieniowania podczerwonego jest jego niezależność od stopnia oświetlenia przedmiotów. Pracuje on poprawnie nawet w ciemności.

CCD

silnik

ostrości

układ sterowania

silnika

nadajnik

odbiornik

układ pomiaru

czasu

opóźnienia

ultradźwiękowy

przetwornik

piezoelektryczny

obiektyw

14

Rys. 9.10b. Schemat układu Auto Focus z wiązką promieniowania podczerwonego. Układ AF z czujnikiem CCD zawiera 24 pary fotodiod działających na zasadzie przesuwania ładunku elektrycznego. Fotodiody są rozmieszczone szeregowo i tworzą liniowy czujnik świetlny CCD o długości 5mm. Strumień świetlny z obiektywu kamery zostaje rozdzielony na dwie części przez półprzeźroczyste lusterko, przy czym 70% strumienia dochodzi do przetwornika, a 30% do czujnika CCD rys. 9.10c.

Rys. 9.10c. Układ Auto Focus z czujnikiem CCD.

CCD

silnik

ostrości

układ sterowania

silnika

odbiornik

podczerwieni

(fotodiody A i B)

nadajnik

podczerwieni

(dioda LED)

komparator

amplitudy

CCD

silnik

ostrości

układ sterowania

silnika

mikroprocesor

czujnik

CCD

półprzeźroczyste lustro

lustro

70%

30%

15

Każda para diod jest wyposażona w mikroskopijną soczewkę skupiającą. Wyjścia fotodiod są odpowiednio połączone tworząc dwie grupy A i B (rys. 9.10d).

Rys. 9.10d. Zespół fotodiod A i B.

Rys. 9.11. Zasada działania dalmierza z dwiema grupami fotodiod CCD. Działanie takiego układu jest podobne do działania optycznego dalmierza w aparatach fotograficznych, zawierającego dwa, odwrotnie ułożone względem siebie, pryzmaty. Obraz widziany w wizjerze aparatu jest przecięty na pół i przy regulacji ostrości obiektywu obie połówki obrazu schodzą się aż do zaniku przecięcia. Funkcję dwóch pryzmatów spełniają w opisywanym układzie CCD dwie grupy fotodiod (rys. 9.11.). Strumień świetlny z obiektywu pada na mikrosoczewki, a stąd na fotodiody. Przy dobrze ustawionej ostrości płaszczyzna zogniskowania obrazu leży dokładnie na powierzchni czujnika CCD i fotodiody obu grup A i B dają identyczne sygnały wizyjne powodujące w efekcie wynik zerowy na wyjściu układu (rys. 9.11a.). Przy źle ustawionej ostrości płaszczyzna zogniskowania obrazu wypada przed

A

B

A

B

A

B

X

X

X

X

X

X

U

U

U

t

t

t

A B

B A

a).

b).

c).

A1B1 A10B10

Fotodiody czujnika CCD

16

lub za czujnikiem CCD. Powstają wówczas sygnały błędu A i B jak na rys. 9.11.b i c. Sygnały te dochodzą do mikroprocesora wytwarzającego odpowiednie sygnały sterujące silnik ostrości obiektywu, który dopóty obraca pierścień ostrości, dopóki nie nastąpi zrównanie sygnałów A i B. Układ AF z czujnikiem CCD nie działa niestety prawidłowo lub w ogóle przestaje działać, jeżeli obserwowany obiekt nie zawiera żadnych szczegółów, np. gdy kamerę skieruje się na białą ścianę lub kontrastowe poziome pasy lub gdy oświetlenie jest zbyt słabe. W tych przypadkach należy przejść na ręczne sterowanie ostrością. Zaletą układu CCD jest możność stosowania go przy dowolnym obiektywie, również przy teleobiektywie. Zarówno układ AF z wiązką promieniowania podczerwonego, jak i z czujnikiem CCD działają bezpośrednio przez obiektyw kamery, stąd też spotyka się dla nich określenia TTL (ang. Through The Lens) lub TCL (ang. Through The Camera Lens). Ostatnim osiągnięciem jest układ Piezo Auto Focus CCD, w którym czujnik CCD zamocowano na płytce piezoelektrycznej. W przypadku nieostrego obrazu mikroprocesor wytwarza odpowiednie napięcie na tej płytce powodując natychmiastowe ustawienie czujnika CCD w płaszczyźnie zogniskowania. Jednocześnie mikroprocesor ustala, o jaki kąt należy obrócić pierścień ostrości obiektywu kamery, i wysyła odpowiednie napięcie sterujące do silnika ostrości, który po chwili ustawia prawidłową ostrość obrazu w kamerze. W układzie Piezo AF zamiast poszukiwania optimum, jak to było w poprzednim układzie AF z CCD, następuje jednorazowy, docelowy obrót pierścienia do położenia ustalonego przez mikroprocesor. Zwiększa to precyzję i szybkość osiągnięcia ostrości obrazu. 9.2.5. Temperatura barwowa i balans bieli Czystość bieli jest parametrem kolorowego obrazu telewizyjnego, na który wyjątkowo uczulony jest wzrok człowieka. Nawet niewielki dodatek jakiegokolwiek koloru zanie-czyszczającego biel jest dostrzegalny przez obserwatora. Bardzo krytycznie jest oceniany

Tabela 9.2. Temperatury barwowe typowych źródeł światła

Oznaczenie Temperatura

barwowa [K] Źródło światła

10000 Czyste niebieskie niebo

9000

8000

Zachmurzone niebo

7000

6000 Letni dzień, południe. Lampy błyskowe.

5000 Ranek lub wieczór

4000 Świetlówka fluorescencyjna

3000 Żarówki halogenowe i wolframowe

2000 Ogień, świece

1000

także kolor skóry na twarzy, rękach itp. Prawidłowe odtwarzanie bieli przez kamerę telewizyjną daje równocześnie poprawne odtwarzanie wszystkich kolorów. Główny zatem wpływ na czystość bieli w kamerze ma wyrównanie poziomów u trzech składowych sygnałów RGB. Stąd też pochodzi określenie równowaga bieli (ang. White Balance). Podobnie jak w kolorowej fotografii, uzyskanie wiernego odtworzenia kolorów oraz prawidłowej bieli zależy od zabarwienia światła oświetlającego filmowaną scenę. Parametrem charakteryzującym to zabarwienie jest temperatura barwowa. Temperatura barwowa określa odcień bieli i jest wyrażana w Kelvinach. Odpowiada ona temperaturze do której należy

17

podgrzać ('do białości') ciało doskonale czarne aby emitowało białe światło o danym odcieniu. Nieco na przekór intuicji; wyższe temperatury barwowe (>5000K) reprezentują kolory 'chłodne', niższe natomiast (2700-3000K) – ciepłe. Im jest ona niższa, tym światło pozornie białe jest bardziej zabarwione kolorem czerwonym, a im wyższa - kolorem niebieskim. Dla porównania w Tab. 9.2 podano temperatury barwowe kilku znanych ogólnie źródeł światła.

Z przytoczonych przykładów widać, z jak dużą rozpiętością temperatury barwowej może spotkać się kamera telewizyjna. Aby dobrać w kamerze właściwą równowagę bieli przy aktualnym oświetleniu, stosuje się układy ręcznej lub automatycznej regulacji. Dawniej, w tanich kamerach, dla uproszczenia, używany był przełącznik np. dla 4 różnych warunków: oświetlenie żarowe, świetlówka, słońce, niebo zachmurzone. Rozwiązanie takie dawało tylko przybliżone wyniki i nie zapewniało prawidłowej równowagi bieli dla dowolnego oświetlenia. Zwiększenie dokładności ustawienia równowagi bieli zapewnia układ automatyki, który samoczynnie dobiera tę równowagę po skierowaniu kamery na białą powierzchnię, np. ścianę, kartkę papieru itp. i naciśnięciu przycisku układu automatyki równowagi bieli w kamerze. Aby zwolnić operatora kamery z obowiązku pamiętania o konieczności korygowania równowagi bieli, wprowadzono układ ACT (ang. Auto Colour Tracking) przedstawiony na rys. 9.12. Działa on w sposób ciągły, nawet bez konieczności przerywania nagrań przy przechodzeniu z oświetlenia np. słonecznego na elektryczne. Półprzewodnikowy czujnik kolorów ma dwie fotodiody, jedną czułą na światło o odcieniu niebieskim, a drugą, o odcieniu czerwonym. Czujnik ten analizuje nieustannie dochodzące do niego światło i przenosi dane do układu macierzowego RGB, który automatycznie koryguje równowagę bieli. Układ ACT działa podobnie jak zmysł wzroku, dzięki któremu można rozpoznawać kolory przedmiotów przy różnym zabarwieniu oświetlenia.

Rys. 9.12. Automatyczny układ równowagi bieli ACT.

CCD

UY

układ

macierzy

RGB

koder

sygnału

UY

UR

UB

UR-Y UB-Y

Uwy

filtr R

Filtr B fotodiody

sygnały

równowagi

bieli

mleczna

szyba

obiektyw

18

9.2.6. Czułość ISO i szum

Czułość sensora kamery to miara tego jak wrażliwy jest on na światło. Skrót 'ISO' pochodzi

od nazwy specyfikacji; ISO 12232:1998 opracowanej przez Międzynarodową Organizację

Normalizacyjną. Pojęcie to funkcjonowało przez długi czas w fotografii analogowej jako

‘szybkość filmu’. Mało czułe (wolne) klisze, o małym ISO wymagają większej ekspozycji

(dłuższego czasu otwarcia migawki lub większej apertury) niż klisze szybkie żeby w tych

samych warunkach zarejestrować jednakowo jasny obraz. Typowe wartości ISO to: 64, 100,

200, 400, 800, 1600 itp. Podczas gdy kiedyś wymagało to wymiany rolki filmu, współczesne

kamery cyfrowe potrafią zmieniać czułość sensora na bieżąco poprzez regulację wzmocnienia

sygnału z sensora. Niestety ze wzrostem czułości rośnie też ilość szumu widocznego na

obrazie.

W przypadku klisz fotograficznych obecność szumu wynikała z faktu, że ziarna srebra

musiały być większe dla klisz o większej czułości. Natomiast w przypadku kamer i aparatów

cyfrowych można wyróżnić dwa rodzaje szumu:

Typ I (szum stały): wynikający z różnych odpowiedzi poszczególnych pikseli,

Typ II (szum losowy): wynikający z fluktuacji czułości danego piksela w czasie.

ISO 100 ISO 400

R G B R G B

Rys. 9.13. Wpływ czułości ISO na szum w składowych R,G i B obrazu cyfrowego

Szum stały

Wynika z różnej czułości poszczególnych pikseli na światło. Jest najbardziej widoczny przy

dłuższym czasie ekspozycji i dużym wzmocnieniu (wysokim ISO), dlatego też przeszkadza w

filmowaniu scen nocnych. Ten rodzaj szumu jest superpozycją dwóch składowych; jedna

przypomina ziarno kliszy fotograficznej i posiada stosunkowo małą amplitudę, druga składa

się z jasnych, rozproszonych 'pików' określanych mianem 'gorących pikseli'. Nie należy ich

mylić z ‘martwymi pikselami’, które są defektami sensora i występują niezależnie od czasu

ekspozycji. W fotografii szum stały jest zwalczany przez odjęcie 'czarnej klatki' (utworzonej

bezpośrednio po właściwej ekspozycji przy zamkniętej migawce) od właściwego zdjęcia. Nie

jest to możliwe w przypadku kamery cyfrowej gdzie ekspozycje następują jedna po drugiej.

19

Szum losowy Szum losowy jest obecny zawsze, niezależnie od czasu ekspozycji czy czułości. Polega na

tym, że ten sam piksel może daje nieco inną odpowiedź za każdym razem gdy wystawiony

jest na działanie takiego samego światła. Czynniki które mają wpływ na szum losowy to:

Fluktuacja ilości fotonów padających na obszar aktywny piksela Np,

Fluktuacja ilości wygenerowanych elektronów Ne,

Losowe efekty w procesie wzmocnienia i przetwarzania C/A sygnału.

Pierwsze dwa z efektów opisuje rozkład Poisson'a i dlatego nazywane są wspólnie szumem

Poisson'a. Zgodnie z tym rozkładem; jeśli piksel jest oświetlony tak, aby wygenerować 1000

fotoelektronów to fluktuacje wyniosą 10001/2

=31e- (3,1%), natomiast przy dziesięciokrotnie

słabszym oświetleniu (100 fotoelektronów) będzie to 1001/2

=10e- (aż 10%). Amplituda szumu

losowego zwiększa się ze wzrostem wzmocnienia. Istnieje wiele algorytmów służących do

jego usuwania, jednak każdy z nich prowadzi do utraty szczegółowości obrazu, ponieważ

wszystkie polegają na uśrednianiu wartości sąsiednich pikseli.

9.3. Rozdzielczość

9.3.1. Podstawowe pojęcia

Kamera wideo jest przykładem systemu analizującego obraz. Dokonuje ona próbkowania

rejestrowanej sceny w czasie (w tempie np. 25 klatek na sekundę) oraz w przestrzeni. Ta

druga operacja polega na przyporządkowywaniu poszczególnym punktom obrazowym –

pikselom (znajdującym się w płaszczyźnie obrazowej, na powierzchni sensora) odpowiednich

punktów przedmiotowych.

Zdolność rozdzielcza analizatora obrazu to jego zdolność do rozróżniania (rozdzielania)

szczegółów przedmiotu, innymi słowy zdolność do mierzenia kątowej separacji punktów

przedmiotowych.

Rozdzielczość jest to minimalna odległość pomiędzy dwoma rozróżnialnymi elementami

obrazu. Nie należy jej utożsamiać z liczbą pikseli sensora, ponieważ rzadko kiedy jest on

‘najwęższym gardłem’ całego systemu.

9.3.2. Dyfrakcja – zjawisko ograniczające rozdzielczość

Jakość obiektywu ma kluczowe znaczenie dla rozdzielczości całego systemu. Dla dużych

apertur (np. f/1, f/1.8, itp...) maksymalna rozdzielczość obiektywu ograniczają aberracje. W

przypadku mniejszych apertur i obiektywów bardzo wysokiej jakości (takich gdzie aberracje

są kompensowane np. z pomocą soczewek asferycznych i/lub s. o niskiej dyspersji)

ograniczenie rozdzielczości wynika z dyfrakcji.

Równoległe promienie światła przechodzące przez aperturę rozchodzą się i interferują ze

sobą, ponieważ w drodze do ekranu przebywają różne odległości i występują między nimi

przesunięcia fazowe.

Zjawisko to jest tym silniejsze im mniejsza jest średnica apertury w stosunku do długości

światła. W efekcie interferencji, obrazem pojedynczego punktu przedmiotowego jest obraz

dyfrakcyjny zwany dyskiem Airy'ego. Jego średnica (mierzona od środka do pierwszego

minimum) służy do określenia maksymalnej teoretycznej rozdzielczości obiektywu.

20

0.0

0.2

0.4

0.6

0.8

1.0

Rys. 9.14. Dysk Airy'ego

Kryterium Rayleigh'a określa limit rozdzielczości obiektywu. Obrazy dwóch sąsiadujących

punktów przedmiotowych uznaje się za rozdzielone gdy maksimum główne (dysku Airy'ego)

pierwszego obrazu pokrywa się z pierwszym minimum drugiego obrazu, stąd:

D

fxoraz

f

x

D

22,1,22,1sin

gdzie: – rozdzielczość kątowa, x - odległość dwóch dysków Airy’ego na ekranie, f –

odległość ogniskowa, D – apertura (średnica przesłony). Odległość ‘x’ odpowiada rozmiarowi najmniejszego przedmiotu który obiektyw jest w

stanie odwzorować. Jest to również średnica najmniejszego punktu do którego obiektyw jest w

stanie zogniskować skolimowaną wiązkę światła. Wielkość ta jest proporcjonalna do długości fali

λ, zatem niebieskie światło może zostać zogniskowane do mniejszego punktu niż czerwone. Dyfrakcja ogranicza rozdzielczość obiektywu (a więc i całego systemu), gdy:

- średnica maksimum głównego dysku Airy'ego jest porównywalna z rozmiarem piksela

sensora,

- dwa dyski Airy'ego znajdują się wzajemnie w odległości bliższej niż ta wynikająca z

kryterium Rayleigh'a.

Rys. 9.15. Trzy przypadki wzajemnego położenia dysków Airy'ego.

9.3.2. Funkcja przenoszenia modulacji MTF

Funkcja MTF służy do opisu rozdzielczości przestrzennej systemu lub któregoś z jego

komponentów. Przedstawia ona zmianę współczynnika modulacji (który opisuje kontrast) w

dziedzinie częstotliwości przestrzennych. Częstotliwość przestrzenna szczegółów obrazu jest

odpowiednikiem częstotliwości (w dziedzinie czasowej) dźwięku. Wysoki ton (dźwięk o

(9.4)

21

dużej częstotliwości, powodujący szybkie drgania membrany głośnika) można porównać do

układu prążków o dużej częstotliwości przestrzennej.

MTF

1

częstotliwść przestrzenna

0,1

0,5

MTF10

częstotliwośćNyquista

aliasing

wyostrzanie,artefakty

MTF50

granicarozdzielczości

dobra ostrośći kontrast

Rys. 9.16a. Przykładowa krzywa MTF

Standardową jednostką służącą do opisu rozdzielczości w systemach telewizyjnych jest

[LW/PH], czyli liczba linii na wysokość obrazu (ang. line widths per picture height). Dla

wygody przyjęło się nazywać tą jednostkę ‘liczbą linii telewizyjnych’ (np. 200 linii TV).

Współczynnik modulacji jest to wartość funkcji MTF dla danej częstotliwości przestrzennej

i wyraża kontrast. Może być bezwymiarowy (np. 0,5) lub wyrażony w procentach (np. 50%).

Na rysunku 9.16b przedstawiono sinusoidę o rosnącej częstotliwości przestrzennej. Górna

połówka posiada stały kontrast (to przypadek wyidealizowany). Dolna połówka ilustruje efekt

przejścia sygnału przez system optyczny (opisany pewną funkcją MTF). Jak widać kontrast

dolnej sinusoidy maleje ze wzrostem częstotliwości przestrzennej.

Rys. 9.16b. Przykład wpływu systemu optycznego na kontrast

9.3.4. Interpretacja wykresów MTF

Poniższe zestawienie zawiera wielkości które można odczytać z wykresu MTF i służące do

oceny jakości systemu optycznego pod kątem rozdzielczości:

MTF10 - Kryterium Rayleigh'a - jest to częstotliwość przestrzenna dla której kontrast

obrazu spada do poziomu 10% swojej początkowej wartości. W przypadku większości

obiektywów ten spadek kontrastu wynika z względnie słabej jakości szkła i

występujących w nim aberracji. W przypadku obiektywów ograniczonych dyfrakcją

odpowiada wynika on z kryterium Rayleigh’a.

22

MTF50 – jest to częstotliwość przestrzenna dla której kontrast obrazu spada o połowę.

Wielkość tą uznaje się za wyznacznik ostrości obrazu. Niekiedy zamiast MTF50 używa

się wielkości MTF50P (p-peak) w przypadku kamer i aparatów w których zastosowano

agresywny algorytm cyfrowego wyostrzania obrazu. Krzywe MTF takich urządzeń

posiadają charakterystyczne maksimum widoczne na rysunku 9.15.

Częstotliwość Nyquist'a – Według twierdzenia o próbkowaniu Nyquist'a sygnał ciągły

może być wiernie odtworzony z sygnału dyskretnego wtedy, gdy był próbkowany z

częstotliwością co najmniej dwa razy większą od granicznej częstotliwości swojego

widma. Jak już wspomniano, kamera cyfrowa dokonuje próbkowania rejestrowanej sceny.

Częstotliwość graniczną próbkowania nazywa się częstotliwością Nyquist'a i oznacza fn.

Jest to największa częstotliwość przestrzenna szczegółów, które matryca kamery zdolna

jest zarejestrować.

pikselcyklupikselarozmiarfn /5,02

1

Sensor cyfrowy potrzebuje minimum 2 pikseli do zarejstrowania jednej pary linii (jednego

cyklu). Odpowiada to maksymalnej częstotliwości równej ½ cyklu/piksel. Wartość ta

stanowi teoretyczny limit rozdzielczości sensora.

Rys. 9.17. Próbkowanie

Ponieważ maksymalna częstotliwość przestrzenna dla sensora wynosi 0,5 cyklu/piksel, to

rozdzielczość kamery może być opisana ilością pikseli sensora tylko w przypadku, gdy

wartość MTF10 występuje przy częstotliwości wyższej niż fn.

Aliasing

Jeśli sygnał próbkowany zawiera składowe o częstotliwości większej od fn , to każda z nich

wystąpi w zrekonstruowanym sygnale jako tzw. 'alias' o częstotliwości niższej niż fn.

Przykładowo, jeśli sygnał audio próbkowany jest z częstotliwością 8000 próbek na sekundę,

poprawne odwzorowane będą wszystkie jego składowe o f<4000 Hz. Jeśli próbkowany

sygnał zawiera składową o częstotliwości 4900 Hz, będzie ona obecna w zrekonstruowanym

sygnale jako niechciany alias o f=3100Hz. Analogicznie - w rejestrowanym obrazie szczegóły

(informacje) o częstotliwościach większych niż fn są aliasowane do niższych częstotliwości

przyczyniając się do powstawania moiry (Rysunek 9.18). Aby zapobiec powstawaniu takich

zniekształceń obrazu należy odfiltrować niechciane częstotliwości za pomocą filtru

antyaliasingowego zanim trafią na sensor. Filtr jest elementem którego MTF spada

(9.20)

23

gwałtownie w pobliżu częstotliwości Nyquist'a. Zwykle znajduje się on za obiektywem, tuż

przed sensorem kamery.

Rys. 9.18 a) poprawne próbkowanie, b) aliasing przestrzenny w postaci mory

Aliasing jest jednym z głównych czynników ograniczających rozdzielczość kamer cyfrowych,

ponieważ uzyskanie filtrów antyaliasingowych o stromej charakterystyce (dużej dobroci Q) w

systemach optycznych jest bardzo trudne.

a) b)

24

11.5 Stanowisko pomiarowe i metodyka pomiarów

Pomiar parametrów cyfrowego aparatu fotograficznego możliwy jest na stanowisku

pokazanym na rysunku 11.8. Na ławie optycznej umieszczono w odpowiednich uchwytach

aparat cyfrowy, test rozdzielczości (rys. 11.9.) z możliwością zmiany położenia względem

aparatu oraz lampę oświetlającą test.

Test oświetlony jest od tyłu przez mleczną płytę pleksi, co zapobiega powstawaniu cieni.

Badając rozdzielczość w funkcji różnych parametrów wybraną planszę odsuwamy zawsze na

taka odległość, aby wypełniała cały kadr obrazu.

Rys. 11.8. Stanowisko pomiarowe do testowania kamer cyfrowych.

300

400

500

600

700

200

200

300

400

500

600

700

200

200

700

200

300

400

500

600

750

800

900

1000

1100

1200

1300

300

400

500

600

700

200

200

300

400

500

600

700

200

200

200

200

300

400

500

600

7001300

1200

1100

1000

900

800

750

1300

1200

1100

1000

900

800

750

200

300

400

500

600

700

1300

1200

1100

1000

900

800

750

200

300

400

500

600

700

Rys.11.9. Test rozdzielczości kamer cyfrowych

25

Program ćwiczenia 11

Porównanie rozdzielczości zdjęć wykonanych aparatami C200, M525, PS945 i Sony

H9: - zamocować aparat do statywu fotograficznego,

- ustawić statyw jak najbliżej stołu naprzeciwko ławy optycznej (aparat powinien

znajdować się na wysokości plansz testowych,

- umieścić test 4 w widełkach, w razie potrzeby przykręcić test odpowiednimi

śrubami, załączyć lampę oświetlającą test od tyłu,

- włączyć aparat i usytuować test w takiej odległości, aby wypełniał cały kadr w

pionie,

- wykonać zdjęcie testu aparatem M525 przy najlepszej jakości obrazu i bez lampy

błyskowej, z autofokusem (AF), w trybie macro,

- zgrać zdjęcia na komputer i odczytać rozdzielczość.

Wyznaczenie zależności rozdzielczości aparatu M525 w funkcji odległości od testu

pomiarowego, przy trybie macro i auto:

- zamocować aparat M525 do statywu fotograficznego,

- ustawienia aparatu: jakość 6MP (normal), bez lampy błyskowej, AF, tryb macro

lub auto, inne domyślne.

- wykonać zdjęcia kolejno testów 2, 3, 4 i 5 pamiętając, żeby test wypełniał cały

kadr w pionie, a lampa oświetlała test od tyłu (test 5 na przedpokoju sfotografować

ze statywu, fotografowanie testu nr 5 należy wykonać na koniec ćwiczenia,

wcześniej wykonując wszystkie ćwiczenia przy stole pomiarowym).

Pomiar wpływu jakości obrazu na rozdzielczość zdjęć (aparat M525):

- zamocować aparat M525 do statywu fotograficznego,

- umieścić test 4 w widełkach i załączyć lampę oświetlającą test od tyłu,

- wykonać zdjęcia kolejno dla pięciu ustawień rozdzielczości: 6MP Best, 6MP

(normal), 4MP, 2MP i VGA,

- ustawienia: bez lampy błyskowej, AF, tryb macro, inne domyślne.

Pomiar wpływu zoomu na rozdzielczość zdjęć (aparat M525): - zamocować aparat M525 do statywu fotograficznego,

- wykonać zdjęcia dla czterech ustawień zoomu optycznego (test 4) i pięciu

ustawień zoomu cyfrowego (test 5)

- ustawienia: bez lampy błyskowej, AF, tryb macro do 40cm, powyżej tryb auto,

inne domyślne.

Uwaga! Podobnie jak w pozostałych ćwiczeniach, wyznaczenia rozdzielczości obrazów dokonuje

się za pomocą plansz testowych. Plansze podobne do stosowanych w telewizji, pozwalają na określenie

rozdzielczości pionowej LV i poziomej LH, w liniach (telewizyjnych) na kadr, umownie o szerokości

równej wysokości (kwadratowy). W związku z tym wysokość obrazu planszy w wizjerze powinna

dokładnie odpowiadać rozmiarowi pionowemu ekranu LCD. Dopasowanie uzyskuje się przed dobór

właściwej odległości planszy od obiektywu.

W przypadku gdy trzeba określić liczbę linii rozdzielanych w poziomie dla pełnej szerokości kadru,

LHF., rozdzielczość poziomą LH należy pomnożyć przez współczynnik kształtu ekranu F = H/V, gdzie

H i V są odpowiednio szerokością i wysokością ekranu. Dzięki takiej formule określania

rozdzielczości, można stosować te same plansze testowe dla przetworników o różnych formatach.

26

Ocena zniekształceń geometrycznych: - zamocować aparat M525 do statywu fotograficznego,

- umieścić test 1 w widełkach i obrócić go by stała się widzialna plansza na jego

rewersie, nie podświetlać lampą od tyłu,

- ustawienia: z lampą błyskową, AF, tryb macro, inne domyślne,

- usytuować obraz tak, by strzałki wskazywały granice kadru na wyświetlaczu

(niebieska ramka powinna obejmować krawędź kadru w aparacie),

- odczytać rodzaj i wartość (w mm) zniekształcenia.

Pomiar minimalnej odległości dla trybu Auto i Macro:

- dla ustawień z poprzedniego punktu zmierzyć minimalną odległość, dla której

działa autofocus w modzie Auto i Macro.

Ze względu na czytelność zalecane jest załączenie do sprawozdania wniosków w formie drukowanej