SOUND DESIGN I

44
Wojciech Blażejczyk SOUND DESIGN I materialy pomocnicze Spis treści: 1. Sound design – wprowadzenie 2. Syntezatory 3. Tworzenie dźwięków o określonej wysokości 4. Tworzenie dźwięków o nieokreślonej wysokości 5. Inne metody syntezy 6. Tworzenie dźwięków zmiennych w czasie 7. Efekty modulacyjne 8. Morfing dźwięku 9. MIDI i sekwencer 10. Bibliografia 11. Plan zajęć

Transcript of SOUND DESIGN I

Page 1: SOUND DESIGN I

Wojciech Błażejczyk

SOUND DESIGN I

materiały pomocnicze Spis treści:

1. Sound design – wprowadzenie 2. Syntezatory 3. Tworzenie dźwięków o określonej wysokości 4. Tworzenie dźwięków o nieokreślonej wysokości 5. Inne metody syntezy 6. Tworzenie dźwięków zmiennych w czasie 7. Efekty modulacyjne 8. Morfing dźwięku 9. MIDI i sekwencer 10. Bibliografia 11. Plan zajęć

Page 2: SOUND DESIGN I

1. SOUND DESIGN – WPROWADZENIE

Sound design można zdefiniować jako różnego rodzaju twórcze działania z dźwiękiem (zarówno przetwarzanie, generowanie jak i montaż), których celem jest stworzenie dźwięków nowych, oryginalnych i ich wykorzystanie w muzyce i formach audiowizualnych. Sound design jest ważnym elementem dźwięku w filmie, krótkich formach audiowizualnych takich jak reklama, logo czy czołówka programu telewizyjnego, w teatrze, słuchowisku radiowym, grach komputerowych, stronach internetowych, a także w muzyce. W odróżnieniu od muzyki elektronicznej, sound design nie stanowi formy autonomicznej.

Określenie sound design nie posiada oficjalnego (tzn. akceptowanego przez całe środowisko ludzi pracujących z dźwiękiem) polskiego odpowiednika. Najodpowiedniejszym określeniem wydaje się „kompozycja dźwięku” – wprowadzili je Józef Patkowski i Krzysztof Szlifirski w odniesieniu do muzyki elektroakustycznej, skomponowanej przez nich do filmów Sposób bycia i Niebo bez słońca. W odniesieniu do sound design’u określenia „kompozycja dźwięku” użyła Joanna Napieralska w filmie „Z odzysku” (2006 r.). Inne używane określenia to „efekty specjalne”, „dźwiękowe efekty specjalne”, „produkcja dźwięku”, „projekt dźwięku”. W innych krajach nieanglojęzycznych pojęcia sound design zwykle nie tłumaczy się.

Pierwszy raz pojęcie sound design pojawiło się w roku 1959 na plakacie spektaklu Hammersmith w London’s Lyric Theatre (w odniesieniu do Davida Collisona, twórcy efektów dźwiękowych w przedstawieniu). W przemyśle filmowym określenie sound design’er w napisach końcowych pojawiło się pierwszy raz w 1969 roku w odniesieniu do Waltera Murch’a, twórcy dźwięku w filmie F. F. Coppoli The Rain People.

Powyższa definicja sound design’u wskazuje na 2 cechy szczególne, odróżniające go od tworzenia ścieżki dźwiękowej w tradycyjnym rozumieniu oraz – z drugiej strony – od komponowania muzyki:

1) twórcze, kreatywne działanie, wychodzące poza ramy zwykłego rzemiosła

polegającego na prawidłowym podłożeniu efektów dźwiękowych do obrazu. 2) operowanie dźwiękami raczej niemuzycznymi, pozbawionymi elementów melodii, czy

harmonii. Granice te są płynne i często trudno jednoznacznie oddzielić sound designer’a od kompozytora czy reżysera dźwięku w filmie, często też role te powierzone są jednej osobie. Można powiedzieć, że sound design jest kategorią pośrednią pomiędzy muzyką a dźwiękiem.

Metody tworzenia sound design’u można podzielić na 3 kategorie:

1) nagrywanie tradycyjnych efektów dźwiękowych i atmosfer, a następnie ich łączenie, montaż i przetwarzanie przy pomocy wszelkich dostępnych narzędzi dla osiągnięcia nowych jakości brzmieniowych. Zaletą tej metody jest żywość, naturalność, ale istotnym problemem jest trudność oderwania brzmienia dźwięku ostatecznego od brzmienia dźwięku pierwotnego;

2) generowanie dźwięków i ich kształtowanie przy użyciu instrumentów elektronicznych – zaletą tej metody jest duża możliwość kształtowania dźwięku, ale wadą duża statyczność i trudna do uniknięcia sztuczność;

3) nagrywanie i przetwarzanie dźwięków akustycznych instrumentów muzycznych lub przedmiotów wykorzystanych jak instrumenty. Najczęściej wykorzystuje się nietypowe techniki, preparacje, nietypowe techniki mikrofonizacji. Zaletą tej metody jest możliwość wykreowania bogatych, dynamicznie zmieniających się, żywych dźwięków, które mogą być nagrywane synchronicznie z obrazem

Page 3: SOUND DESIGN I

GENEZA Na rozwój sound design’u duży wpływ wywarły następujące zjawiska:

1) rozwój kinematografii: - coraz większe wymagania co do dźwięku w związku z rozwojem technologii, - rozwój filmów science fiction oraz animacji; - tworzenie zaawansowanych wizualnych efektów specjalnych, które muszą znaleźć odzwierciedlenie w dźwięku,

- rozwój technologii 3D 2) rozwój nurtów sonorystycznych w muzyce współczesnej, nowe zastosowania

instrumentów, nowe techniki gry, zdobycze bruitystów (intonarumori); akusmatyczne podejście do dźwięku (termin stworzony przez Pierre Schaeffera w odniesieniu do muzyki konkretnej, oznaczający oderwanie dźwięku od jego źródła);

3) powstanie i rozwój muzyki elektronicznej, którą można uznać za autonomiczną formąę sound design’u;

4) rozwój niektórych gatunków muzyki rozrywkowej – ambientu, drone music, elektroniki;

5) rozwój technologii, umożliwiający tworzenie zaawansowanych dźwięków przy pomocy komputera, a także umożliwiający implementację sound design’u np. do gier komputerowych i stron WWW;

6) powstanie nowych form audiowizualnych (reklama) i mediów (internet), które zmuszają twórców udźwiękowienia do oryginalności w celu zatrzymania uwagi widza.

SOUND DESIGN W FILMIE

Pojęcie sound design w odniesieniu do sztuki filmowej ma 2 znaczenia:

1) sound design’erem określa się osobę odpowiedzialną za artystyczną i technologiczną stronę dźwięku w filmie, co odpowiada roli reżysera dźwięku w filmie (supervising sound editor), z tą różnicą, że tytułu sound design używa się w odniesieniu do filmów, w których dźwięk jest czymś więcej niż wiernym odtworzeniem realiów dźwiękowych; pełni ważną funkcję dramaturgiczną lub zawiera elementy nierzeczywiste (efekty, atmosfery, tła)

2) w węższym znaczeniu sound design oznacza kompozycję dźwiękowych efektów specjalnych. Można tu wyróżnić1: - dźwięki przedmiotów, postaci i zjawisk występujących w filmie, ale niespotykanych w świecie rzeczywistym (pojazdy przyszłości, potwory, nieistniejące gatunki zwierząt, zjawiska magiczne itd.). Dźwięki te tworzy się zwykle przetwarzając efekty dźwiękowe z fonotek lub nagrane, łącząc je z innymi lub używając w zaskakującym kontekście;

- dźwięki ilustrujące subiektywne przeżycia bohaterów, ich emocje i stan psychiczny (często są one używane w sposób bardzo dyskretny lub polegają na przekształceniu niektórych dźwięków otoczenia);

- dźwięki związane z dramaturgią filmu – zwykle są to dźwięki stanowiące tło (klastery, plamy dźwiękowe), współgrające z muzyką (powinny być tworzone w odniesieniu do muzyki), wprowadzające napięcie, poczucie grozy itd.

- dźwięki w scenach odrealnionych (np. sceny wizji sennych lub halucynacji), gdzie sound design – obok elementów obrazu – stanowi istotny element oddzielenia tych scen od scen realistycznych

- dźwięki ilustrujące wszelkie specjalne efekty w obrazie, takie jak figury montażowe, zwolnienie obrazu, przenikanie, plansza tytułowa etc.

1 por. praca magisterska Rafała Smolenia Sound design w kinie amerykańskim – szczególny rodzaj reżyserii

dźwięku w filmie, s. 41.

Page 4: SOUND DESIGN I

Obecnie w kinie światowym przeważa zastosowanie określenia sound designer do osób tworzących dźwiękowe efekty specjalne. W przypadku filmów o większym budżecie zwykle zatrudniany jest specjalista od tworzenia specjalnych efektów dźwiękowych. Zdarza się także (jak w filmie Incepcja Christophera Nolana z 2010 r.) że w napisach końcowych obok kompozytora muzyki pojawia się funkcja ambient music design.

Jeden z czołowych amerykańskim sound design’erów, David Sonnenheim, wskazując na swoje inspiracje w tworzeniu sound design’u, zwraca uwagę na funkcje dźwięku analogiczne do środków poetyckich:

- podobieństwo (obiektywne podobieństwo akustyczne między 2 różnymi dźwiękami, np. ryk lwa i odgłos burzy);

- hiperbola (celowe wyolbrzymienie dźwięku); - metafora (sugestia dźwiękowa – np. niski dudniący dźwięk sugerujący atmosferę

grozy); - symbol i alegoria (reprezentacja danego dźwięku przez inny, symbolizujący go, np.

bicie dzwonu oznaczające śmierć); - ironia (użycie dźwięku stanowiącego przeciwieństwo oczekiwań widza, np. śmiech

dzieci w dramatycznym momencie filmu); - paradoks (zaprzeczenie, użycie dźwięku niezgodnie z logiką); - animizacja (nadanie przedmiotowi cech istoty ożywionej – np. ryk zwierzęcia jako

odgłos silnika); - metonimia (ukazanie szczegółu informującego o całości); - eufemizm (użycie dźwięku zastępczego dla uniknięcia pokazania właściwej sceny,

np. ciągły dźwięk urządzenia monitorującego akcję serca zamiast ukazania śmierci postaci).

SOUND DESIGN W MUZYCE W muzyce współczesnej część muzyki elektronicznej może być uznana za rodzaj sound design’u, tyle że o charakterze autonomicznym. Warsztat kompozytora jest często zbieżny z warsztatem sound design’era: programy do montażu dźwięku, zaawansowane przetwarzanie dźwięku, syntezatory, wykorzystanie dźwięku nagranego. Wielu kompozytorów posługuje się bardzo zaawansowanymi narzędziami (lub ma do tego asystentów-programistów), umożliwiającymi programowanie dźwięku lub tworzenie własnych algorytmów (np. MAX-MSP, SuperCollider, CSound, AudioSculpt). Także w muzyce rozrywkowej muzycy i realizatorzy tworzą sound design. Można tu wyróżnić kilka płaszczyzn:

1) wykorzystanie instrumentów elektronicznych (syntezatorów, samplerów) w sposób kreatywny do tworzenia nowych brzmień, na których muzycy grają w tradycyjny sposób;

2) wykorzystanie syntezatorów, samplerów i looperów do tworzenia na żywo skomplikowanych struktur dźwiękowych, stanowiących samodzielny element utworu;

3) przetwarzanie dźwięków instrumentów (np. gitary elektrycznej) oraz głosu.

Zdarza się, że na płycie obok nazwisk muzyków znajduje się się nazwisko osoby określonej jako sound design’er – np. Michael Brook na płycie U2 The Joshua Tree, Chris Thomas na płycie Pink Floyd The Dark Side of the Moon, Brian Eno na płycie Paula Simona Surprise.

Page 5: SOUND DESIGN I

SOUND DESIGN W REKLAMIE

Ze względu na krótki czas trwania oraz intensywność przekazu, film reklamowy stanowi duże wyzwanie dla reżysera dźwięku. Aby przykuć uwagę widza, często stosuje się oryginalne, pomysłowo użyte dźwięki, często działające na widza poprzez skojarzenia czy metaforę, jest tu więc sporo miejsca na sound design. Ponadto w tego typu krótkich formach często pojawia się wiele plansz z nazwami producenta czy towaru, które wymagają podkreślenia dźwiękiem, podobnie jak szybki montaż.

SOUND DESIGN W GRACH KOMPUTEROWYCH Od kilku lat, w związku z rozwojem mocy obliczeniowej komputerów, dźwięk stanowi

coraz istotniejszy element gier komputerowych. Dźwięk w grze od filmowego różni przede wszystkim fakt, że jest on interaktywny – zależy od rozwoju wydarzeń, realizowanego przez gracza scenariusza. W związku z tym musi być przygotowany w ten sposób, żeby możliwe było jego synchronizowanie z różnymi wariantami przebiegu akcji.

Pojedyncze dźwięki w grze mogą być:

1) jednorazowe (one-off sound) – są wyzwalane w odpowiednim momencie zgodnie np. z ruchem bohatera (powinny być możliwie najkrótsze);

2) zapętlone (looping) – ze względu na oszczędność pamięci wiele atmosfer czy dźwięków ambientowych jest zapętlonych;

Muzyka i dźwięki ambientowe w grach często są dzielone na warstwy (np. tło,

perkusja, melodia, smyczki), które odtwarzane są synchronicznie, ale poszczególne warstwy są wyciszane lub włączane w zależności od rozwoju akcji, co pozwala uciec od repetytywności, pomimo iż wszystkie warstwy są w pętli, oraz stworzyć wrażenie narastania muzyki.

W związku z futurystycznym często charakterem scenografii gier oraz licznymi pojawiającymi się w nich potworami tudzież zombie, wiele efektów dźwiękowych i atmosfer ma charakter sound design’u. Co więcej, w grze (zwłaszcza typu FPP – First Persone Perspective, czyli akcja z punktu widzenia bohatera) większe niż w filmie znaczenie mają dźwięki pozakadrowe, naprowadzając gracza na odpowiednią drogę czy sygnalizując pojawienie się zagrożenia. Przy dużych budżetach dźwięk do gier (np. wybuchy) bywa nagrywany na kilka mikrofonów, co umożliwia kreowanie przestrzeni przez odpowiedni algorytm w czasie gry w zależności od odległości bohatera od danego zdarzenia dźwiękowego. W grach typu FPP ruchy gracza zmuszają oprogramowanie do ciągłej zmiany lokalizacji dźwięku otaczającego gracza. Interaktywność gry jest problemem technicznym, ale daje duże możliwości oddziaływania na gracza dźwiękiem.

Z technicznego punktu widzenia do integracji dźwięku z silnikiem gry (engine) służą zwykle oddzielne oprogramowania (np. Fmod czy Wwise). Dźwięk powinien być przygotowany w bezstratnym formacie audio, ale w konsoletach jest kodowany do stratnych formatów: XMA dla Playstation 3 i MP3 dla Xbox 360. Należy pamiętać, że gracze często podłączają konsolety do odtwarzaczy DVD, dzięki czemu mogą słuchać dźwięku dookólnego.

Page 6: SOUND DESIGN I

SOUND DESIGN W INTERNECIE Coraz większa szybkość łączy umożliwia tworzenie ambitnego udźwiękowienia stron

internetowych. Sound design w Internecie można podzielić na 2 kategorie:

1) dźwięki interfejsu użytkownika (kliknięcie myszką, otwarcie zakładki, whoosh przy przejściu na inną podstronę, zmiana panoramy dźwięku w zależności od położenia myszy etc.)

2) dźwięki ambientowe lub muzyka, stanowiące tło muzyczne. Często ze względu na przepustowość stosuje się pętle. Aby uniknąć męczącej repetytywności, można zastosować odpowiednie obwiednie i kilka punktów zapętlenia – dźwięk będzie się powtarzał od różnych punktów, z różnym przenikaniem, dzięki czemu uzyskuje się wrażenie zmienności. Inną (ale zaawansowaną obliczeniowo) metodą jest zastosowanie zmiennej prędkości odtwarzania oraz odtwarzanie dźwięków od tyłu.

SOUND DESIGN W TEATRZE

W odniesieniu do teatru sound design zwykle oznacza przygotowanie efektów dźwiękowych, najczęściej realistycznych, ale zdarzają się też sytuacje, gdy potrzebne są dźwięki stworzone specjalnie na potrzeby przedstawienia.

Poniższe materiały stanowią podbudowę teoretyczną dla zajęć praktycznych, które są podstawą prowadzonych zajęć.

Page 7: SOUND DESIGN I

2. SYNTEZATORY Syntezator to urządzenie służące do generowania dźwięku. Na syntezatorze gra się przy

użyciu urządzenia sterującego (najczęściej klawiatury, ale rolę urządzenia sterującego może spełniać dowolny sterownik MIDI). Syntezatory składają się z modułów, które mogą być w dowolny sposób łączone. Podstawowe moduły to:

• VCO – (ang. Voltage Controlled Oscillator) – generator sterowany napięciem, stosujący

określoną metodę syntezy; • VCF – (ang. Voltage Controlled Filter) - filtr sterowany napięciem; • VCA – (ang. Voltage Controlled Amplifier) – wzmacniacz sterowany napięciem; • LFO – (ang. Low Frequency Oscillator) – generator wolnych przebiegów; • EG – (ang. Envelope Generator) – generator obwiedni ADSR; • moduł kształtowania przebiegu (waveshaper) – umożliwia zmianę kształtu fali,

wprowadzenie przesterowania. Budowa modułowa umożliwia dowolne łączenie powyższych elementów, co daje ogromne

możliwości tworzenia brzmień. Sygnały sterujące określa się mianem CV – (ang. Control Voltage) – napięcie sterujące.

Schemat syntezatora analogowego. Linią przerywaną zaznaczono sygnały sterujące, ciągłą – sygnały audio.

ADSR

VCO

(oscylator) VCA

(wzmacniacz)

VCF

(filtr)

ADSR ADSR

klawiatura sterująca LFO

Page 8: SOUND DESIGN I

VCF

W syntezatorach mamy zwykle do czynienia z następującymi rodzajami filtrów: • highpass – HPF (górnoprzepustowy, zwykle 12 lub 24 dB/oktawę) • lowpass – LPF (dolnoprzepustowy, zwykle 12 lub 24 dB/oktawę) • bandpass – BPF (pasmowy, zwykle 12 dB/oktawę) • notch filter (wycinający) • peak filter („pikowy”) • comb filter – działa na zasadzie wprowadzania krótkich opóźnień do sygnału, dzięki

czemu uzyskuje się filtr grzebieniowy. Comb filter o wartościach dodatnich oznacza podbicie, a o wartościach ujemnych – obcięcie.

Filtry posiadają zwykle 2 regulatory:

• frequency (częstotliwość) • resonance (rezonans) – w przypadku HPF, LPF i BPF zwiększenie rezonansu

wprowadza podbicie częstotliwości odcięcia (środkowej).

Zmiany wartości resonance w przypadku HPF

Zmiany wartości resonance w przypadku BPF W przypadku filtru typu notch zwiększenie rezonansu oznacza zwiększenie dobroci filtru:

Page 9: SOUND DESIGN I

Zmiany wartości resonance w przypadku filtru typu notch. Funkcja velocity sensitive umożliwia zmianę częstotliwości filtra w zależności od szybkości

naciśnięcia klawisza. Funkcja keyboard tracking umożliwia zmianę częstotliwości filtra w zależności od rejonu

klawiatury.

Filtr z suwakami regulującymi częstotliwość i rezonans, możliwością wyboru rodzaju filtra oraz pokrętłem śledzenia klawiatury (kbd – keyboard tracking) (Syntezator wirtualny Subtractor firmy Propellerheads).

LFO

Generator wolnych przebiegów to oscylator wytwarzający przebiegi o częstotliwościach poniżej pasma słyszenia [0-20 Hz], o wybranym kształcie. Umożliwia uzyskanie efektu wibrato (gdy steruje częstotliwością VCO), tremolo (gdy steruje amplitudą VCO), a także wszelkich cyklicznych zmian sygnału, np. częstotliwości filtra, szerokości impulsu w przypadku PWM czy wartości saturacji sygnału w module weveshaping. Do syntezatora można podłączyć zewnętrzny LFO.

LFO z regulacją częstotliwości (rate), intensywności czyli amplitudy (amount), wyborem kształtu przebiegu, miejsca przeznaczenia oraz możliwością synchronizacji z tempem utworu (Sync) (Syntezator wirtualny Subtractor firmy Propellerheads).

Page 10: SOUND DESIGN I

EG – obwiednia ADSR

Generator obwiedni w momencie wciśnięcia klawisza (trigger) wytwarza pojedynczy przebieg o następujących fazach:

Obwiednia ADSR

Odwrócona (inverted) obwiednia ADSR

Obwiednia może zostać nałożona na wzmacniacz (Amp Envelope), filtr (Filter Envelope) lub dowolny inny parametr podlegający modulacji (Modulation Envelope).

Page 11: SOUND DESIGN I

ANG attack decay sustain release PL faza

narastania faza opadania

stan ustalony

faza wybrzmiewania

Amp Envelope

czas osiągnięcia maksymalnej wartości amplitudy

[ms]

czas przejścia amplitudy od wartości maksymalnej do określonej przez sustain

[ms]

wartość amplitudy dla stanu ustalonego

[dB]

czas wybrzmiewania po puszczeniu klawisza (note off) (osiągnięcia amplitudy =0)

[ms]

Filter Envelope

czas osiągnięcia częstotliwości wyższej (niższej) od ustawionej o określoną (przez parametr envelope to filter) wartość

[ms]

czas powrotu częstotliwości od osiągniętej w fazie narastania do ustalonej dla fazy sustain [ms]

częstotliwość dla stanu ustalonego [Hz]

czas osiągnięcia na powrót częstotliwości ustalonej po puszczeniu klawisza (note off)

[ms]

Modulation Envelope

czas osiągnięcia wartości danego parametru wyższej (niższej) od ustawionej o określoną (przez parametr amount) wartość

[ms]

czas powrotu wartości parametru od osiągniętej w fazie narastania do ustalonej dla fazy sustain

[ms]

wartość parametru dla stanu ustalonego

czas osiągnięcia na powrót ustawionej wartości parametru po puszczeniu klawisza (note off)

[ms]

Istnieją generatory obwiedni o dodatkowych fazach:

• delay (czas od wciśnięcia klawisza do momentu wyzwolenia obwiedni), • hold (czas przytrzymania danego parametru na maksymalnym poziomie osiągniętym w

fazie narastania) Wtedy pełna obwiednia wygląda następująco:

delay → attack → hold → decay → sustain→ release

Rozszerzona obwiednia DAHDSR

Page 12: SOUND DESIGN I

Obwiednia filtru wraz z pokrętłem amount oraz przełącznikiem odwrócenia działania (invert). (Syntezator wirtualny Subtractor firmy Propellerheads).

Rozszerzona obwiednia wzmacniacza z możliwością zapętlenia pierwszych 4 faz (loop), wyłączenia wyzwalania przez klawiaturę (gate trigger) w celu włączenia zewnętrznego źródła wyzwalania obwiedni przez gate input oraz możliwością synchronizacji z tempem utworu (tempo sync). (Syntezator wirtualny Thor firmy Propellerheads).

FUNKCJE KLAWIATURY STERUJĄCEJ Polifonia (Polyphony) – ilość głosów (voice), czyli liczba dźwięków, które mogą być

równocześnie zagrane. Pierwsze syntezatory były monofoniczne, obecnie każdy syntezator ma co najmniej 16 głosów. Liczbę głosów najczęściej można zdefiniować. Każdy głos jest przez procesor syntezatora przetwarzany oddzielnie (oddzielna obwiednia).

Portamento – funkcja wprowadzająca płynne przejście wysokości dźwięku pomiędzy

kolejnymi granymi dźwiękami. Parametr „portamento” określa długość czasu dojścia od wysokości poprzedniego dźwięku do wysokości aktualnie wciśniętego dźwięku.

Tryby pracy klawiatury (Keyboard Mode):

• Mono – tryb monofoniczny. Wciśnięcie drugiego klawisza powoduje wyłączenie pierwszego.

• Poly – tryb polifoniczny. W zależności od ustawionej polifonii, odpowiednia ilość

głosów może być jednocześnie odtwarzana. • Legato - w trybie mono przy grze legato obwiednia (wzmacniacza, filtra itd.) jest wyzwalana (trigger) tylko przy wciśnięciu pierwszego klawisza, kolejne dźwięki zagrane legato nie wyzwalają na nowo obwiedni. Obwiednia jest wyzwalana przy każdym dźwięku przy grze staccato.

- w trybie poly obwiednia jest wyzwalana przy każdym wciśnięciu klawisza, chyba że wciśnie się liczbę klawiszy przekraczającą ilość głosów w polifonii. Wtedy poprzednio zagrane dźwięki są wyłączane, a ponadliczbowe dźwięki grane są bez wyzwalania obwiedni (np. przy 3-głosowej polifonii, obwiednia jest wyzwalana przy

Page 13: SOUND DESIGN I

zagraniu legato pierwszego, drugiego i trzeciego dźwięku. Jeśli przytrzymamy te 3 dźwięki i dodamy czwarty, obwiednia nie włączy się. Wciśnięcie czwartego dźwięku spowoduje wyłączenie pierwszego).

• Retriger - w trybie mono obwiednia będzie wyzwalana na nowo (retrigger) po każdym wciśnięciu klawisza, staccato i legato. Jeśli przytrzymamy pierwszy dźwięk i zagramy krótko drugi, obwiednia uruchomi się w momencie wciśnięcia drugiego klawisza oraz w momencie jego puszczenia (na przytrzymywanym pierwszym dźwięku).

- w trybie poly jest to normalny tryb pracy – każdy dźwięk niezależnie od artykulacji wyzwala obwiednię.

• Release polyphony – ilość głosów, które mogą swobodnie wybrzmiewać (faza

release) po puszczeniu klawisza (note off). Przy ustawieniu „0” faza wybrzmienia będzie przerwana w momencie wciśnięcia kolejnego klawisza.

Keyboard tracking (śledzenie klawiatury) – dany parametr (np. częstotliwość oscylatora,

częstotliwość LFO) może zmieniać swą wartość w większym lub mniejszym stopniu w zależności od tego jaki klawisz zostanie wciśnięty na klawiaturze sterującej. Ustawienie Keyboard tracking na minimum sprawi że każdy klawisz będzie wyzwalał taką samą wartość danego parametru, zaś ustawienie na maksimum – maksymalne zróżnicowanie wartości w zależności od numeru klawisza. W przypadku gdy parametrem który ma śledzić klawiaturę jest częstotliwość (wysokość dźwięku), ustawienie keyboard tracking na maksimum sprawi że odległości między kolejnymi klawiszami będą wynosiły pół tonu (czyli sytuacja normalna); przy ustawieniu na minimum, każdy klawisz wyzwoli dźwięk o tej samej wysokości. Przy ustawieniu na połowę wartości, odległość między sąsiednimi klawiszami będą wynosić ćwierć tonu. W przypadku częstotliwości filtra, wraz z przesuwaniem się w górę klawiatury częstotliwość filtru będzie rosła i na odwrót.

Pitch Bend – kółko odstrojenia montowane w syntezatorach, umożliwiające płynną zmianę

wysokości dźwięku. Parametr Range określa zakres zmiany wysokości w półtonach. Modulation Wheel – kółko modulacji służące do płynnej regulacji modulacji wybranego

parametru. Może to być częstotliwość filtru, amplituda LFO czy współczynnik modulacji FM.

Synteza jedno/wielobrzmieniowa (multitimbral) – synteza wielobrzmieniowa (multitimbral)

umożliwia na jednoczesne wytwarzanie kilku różnych barw (np. fortepianu i smyczków). Poszczególne barwy mogą być przyporządkowane różnym rejonom klawiatury lub nakładać się na siebie. Funkcja ta jest przydatna w graniu na żywo.

Page 14: SOUND DESIGN I

3. TWORZENIE DŹWIĘKÓW o OKREŚLONEJ WYSOKOŚCI

Na grupę dźwięków o określonej wysokości składają się:

• tony proste • wielotony harmoniczne (takie, których częstotliwości tonów składowych pozostają ze sobą w stosunku 1:2:3:4…)

W przypadku tworzenia sound design’u do filmu, używając dźwięków o określonej wysokości należy zwracać szczególną uwagę na obecność muzyki w danym ujęciu. Wszystkie dźwięki o określonej wysokości muszą być dostrojone do tonacji muzyki. Dlatego często sami kompozytorzy są twórcami tego rodzaju płaszczyzn dźwiękowych.

METODA SUBTRAKCYJNA (subtractive synthesis)

Metoda subtrakcyjna polega na wygenerowaniu przebiegu o bogatym widmie (np. piłokształtnego lub trójkątnego), który następnie poddawany jest filtracji, a więc odejmowaniu określonych składników widma z sygnału szerokopasmowego (stąd nazwa). Ta prosta metoda syntezy stosowana była już w latach 50tych XX wieku. Na swego rodzaju syntezie substrakcyjnej opiera się jest głos ludzki – generatorem sygnału szerokopasmowego jest krtań, zaś jama ustna i kształt ust pełnią rolę filtra. Metoda subtrakcyjna ma dość ograniczone możliwości brzmieniowe. Dźwięki brzmią syntetycznie i kojarzą się z dawnymi syntezatorami. Aby mogły być skutecznie zastosowane, muszą być odpowiednio ukształtowane – filtrowane, łączone, przekształcone przy pomocy efektów modulacyjnych lub waveshaping’u, poddane fluktuacjom przy pomocy LFP lub obwiedni.

Syntezatory stosujące syntezę subtrakcyjną oferują zwykle wybór kilku rodzajów

przebiegów: podstawowych (sinus, trójkąt, prostokąt, piła) oraz innych, stanowiących ich pochodne. Do tej metody zalicza się także generowanie szumu, który zostanie omówiony w rozdziale Tworzenie dźwięków nieharmonicznych. Podstawowe przebiegi, oprócz zastosowania do tworzenia brzmień, mogą być także użyte jako elementy LFO.

Podstawowe rodzaje przebiegów (waveform):

• Przebieg sinusoidalny (sine)

Page 15: SOUND DESIGN I

• Przebieg trójkątny (triangle) – zawiera tylko składowe nieparzyste:

Przebieg trójkątny (triangle)

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

numery kolejnych składowych

amplituda

Kolejne składowe mają amplitudę określoną wzorem:

2)(

1

nA n = , gdzie n to numer składowej.

Page 16: SOUND DESIGN I

• Przebieg prostokątny (square) – zawiera tylko składowe nieparzyste, o mniejszym spadku amplitudy niż w przypadku przebiegu trójkątnego.

Przebieg prostokątny (square)

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

numery kolejnych składowych

amplituda

Kolejne składowe mają amplitudę określoną wzorem:

nA n

1)( =

gdzie n to numer składowej.

Przebieg prostokątny może dodatkowo podlegać Pulse Width Modulation (modulacji szerokości impulsu – PWM). PWM wprowadza charakterystyczne wzbogacenie brzmienia, zbliżone do modulacji fazy lub chorusa.

PWM – przebieg prostokątny modulowany sygnałem sinusoidalnym.

Page 17: SOUND DESIGN I

• Przebieg piłowy (saw) – zawiera wszystkie składowe:

Przebieg piłowy (saw)

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Numery kolejnych składowych

amplituda

Kolejne składowe mają amplitudę określoną wzorem:

nA n

1)( =

gdzie n to numer składowej. Wiele syntezatorów wykorzystujących syntezę subtrakcyjną oferuje dodatkowe funkcje: • regulację punktu startu (start point) – start przebiegu nie musi być w miejscu zerowej amplitudy; możliwe jest ustawienie punktu startu w maksymalnej wartości przebiegu (a więc po wciśnięciu klawisza generator w minimalnym czasie osiągnie maksimum dla danego kształtu przebiegu – wprowadza to ostrość ataku) lub randomizacja punktu startu (generator za każdym razem rozpocznie przebieg od innego miejsca, co ożywia brzmienie);

• funkcja detune – emulacja charakterystycznych dla analogowych syntezatorów, nieregularnych fluktuacji wysokości generowanego dźwięku. Funkcja przydatna przy tworzeniu dźwięków typu pad o analogowym brzmieniu;

• unison – włączenie tej funkcji powoduje, że każdy głos jest dublowany (lub, w przypadku trybu mono, pojedynczy dźwięk jest zwielokrotniany tyle razy, ile jest aktywnych głosów). Przy połączeniu z funkcją detune, wprowadzającą inne odstrojenie dla każdego głosu, daje to efekt chorusa, czyli wzbogacenia i lekkiego odstrojenia dźwięku;

• synchronizacja oscylatorów – wymuszenie synchronizacji częstotliwości dwóch lub więcej oscylatorów, z których jeden jest „masterem”. Pozostałe oscylatory, niezależnie od swej własnej częstotliwości, są zmuszane do rozpoczynania okresu na nowo zgodnie z częstotliwością mastera, co powoduje nagłe zmiany kształtu ich przebiegu, a przez to wzbogacenie dźwięku. Umożliwia to np. uzyskanie mocnego ataku dźwięku (typu punch).

Page 18: SOUND DESIGN I

METODA TABLICOWA (wavetable)

W metodzie tej dźwięk jest generowany poprzez sekwencyjne odtwarzanie umieszczonych w specjalnej tablicy próbek. Próbki te mają długość jednego okresu (co znacznie zmniejsza objętość instrumentów wavetable) o różnym kształcie. Na każdą próbkę nakładana jest obwiednia. Różne próbki mogą być miksowane z różnymi kształtami obwiedni i różną amplitudą, dzięki czemu powstają nowe barwy. Zmianę wysokości uzyskuje się poprzez zmianę częstotliwości próbkowania. Przejścia pomiędzy kolejnymi próbkami mogą odbywać się skokowo lub z przenikaniem (płynnie). Brzmienie syntezatorów tablicowych kojarzy się z brzmieniem starych gier komputerowych, gdzie były stosowane. Z powodzeniem można je stosować przy tworzeniu dźwięków urządzeń na statkach kosmicznych etc.

Poniższy rysunek przedstawia sytuację, gdzie poprzez trójkątną obwiednię z trzech kształtów fal uzyskuje się po zsumowaniu jedną wypadkową.

Określenie wavetable często stosowane w przypadku kart dźwiękowych oznacza de facto wewnętrzne samplery, a nie syntezatory działające metodą tablicową.

Page 19: SOUND DESIGN I

METODA GRANULACYJNA (granular synthesis, graintable)

Synteza granulacyjna polega na tworzeniu dźwięku z pewnej liczby krótkich (5-100 ms) elementów zwanych granulkami (sonic grains). Pojedyncza granulka może się składać z jednego okresu fali. Może to być fala sinusoidalna, prostokątna itd., a także krótki fragment dowolnego dźwięku (jak w samplerze). Granulka jest kształtowana widmowo oraz amplitudowo (poprzez nałożenie odpowiedniej obwiedni). Pojedyncze granulki mogą występować jedna po drugiej w różnych odstępach czasowych – mogą na siebie zachodzić lub być oddzielone ciszą różnej długości. Do stworzenia danej barwy może posłużyć kilka różnych granulek, o określonej lub losowej kolejności występowania. Tak więc w przypadku syntezy granulacyjnej brzmienie możemy kształtować poprzez:

- kształtowanie widma granulek, - kształtowanie obwiedni granulek, - regulację długości i fazy (startu) granulek, - regulację odstępów pomiędzy granulkami - regulację wysokości granulek poprzez zmianę częstotliwości próbkowania.

Amplituda

Amplituda

Obwiednia

Przykład pojedynczej granulki o sinusoidalnym przebiegu, bez obwiedni i z nałożoną obwiednią.

Regulacja odstępów między granulkami

Page 20: SOUND DESIGN I

Istnieją syntezatory łączące syntezę granulacyjną i tablicową (np. Mälstrom firmy Propellerheads). Sposób działania takiego syntezatora jest następujący: Wybrana próbka dźwiękowa dzielona jest na granulki (o różne długości). Powstaje w ten sposób tablica granulek. Przy domyślnych ustawieniach parametrów, w trakcie odtwarzania pojedynczego dźwięku syntezator płynnie przechodzi pomiędzy granulkami w ustalonej kolejności, zapętlając całą sekwencję. Efekt jest analogiczny do odtwarzania całej próbki w kółko. Istnieje jednak możliwość regulacji 3 parametrów, dzięki którym można z tej samej próbki uzyskiwać bardzo różne, zmienne wewnętrznie barwy:

• index (punkt startu dźwięku – od której granulki rozpoczyna się pętla) • motion (tempo przechodzenia do kolejnych granulek) • shift (regulacja wysokości granulek bez zmiany czasu trwania).

Dodatkową jakość brzmieniową wprowadza możliwość zmieniania kolejności odtwarzania granulek w sposób kontrolowany lub przypadkowy.

Panel oscylatorów syntezatora wirtualnego Mälstrom firmy Propellerheads.

Synteza granulacyjna umożliwia tworzenie dźwięków bogatych wewnętrznie, zmiennych w czasie, o wyczuwalnej mikrostrukturze.

Page 21: SOUND DESIGN I

MODULACJA FAZY (Phase distortion)

Metoda ta jest odmianą metody odkształcania. W tym przypadku mamy do czynienia z generatorem tablicowym, analogicznie do metody tablicowej, przy czym modulację fazy uzyskuje się poprzez ciągłe zmiany szybkości z jaką odczytywane są próbki z pamięci. Zmiany szybkości nie powodują jednak zmiany okresu próbki, a więc ich rezultatem jest odkształcenie przebiegu czyli dodanie harmonicznych. Metodę tą zastosowano w syntezatorze Casio CZ.

Graficzny obraz modulacji fazy

Page 22: SOUND DESIGN I

4. TWORZENIE DŹWIĘKÓW o NIEOKREŚLONEJ WYSOKOŚCI

Na grupę dźwięków o nieokreślonej wysokości składają się:

• wielotony nieharmoniczne • szumy

Ten rodzaj dźwięków jest szczególnie przydatny w sound design’ie, ponieważ może funkcjonować niezależnie od muzyki. Umożliwia tworzenie plam, chmur dźwiękowych, wprowadzających nastrój zagrożenia, niepewności, napięcia, a także syntetycznych atmosfer.

METODA ADDYTYWNA (SUMACYJNA) (additive synthesis)

Metoda addytywna polega na tworzeniu dźwięku z sumowania pewnej liczby tonów prostych o określonej amplitudzie. Metoda ta pozwala na bardzo precyzyjne kształtowanie barwy, jednak jej wadą jest ogromna ilość parametrów, które podlegają kontroli. Natomiast zaletą jest wysoka wierność generowanych dźwięków z ich akustycznymi wzorcami. Odmianą metody addytywnej jest metoda addytywna grupowa, w której rolę dźwięków podstawowych mogą pełnić dźwięki o widmie złożonym. Metoda addytywna umożliwia tworzenie dźwięków o określonej i nieokreślonej wysokości dźwięku.

SZUM

• Szum biały – widmo dźwięku rozłożone równomiernie na skali częstotliwości • Szum różowy – amplituda maleje wraz ze wzrostem częstotliwości • Pasmowy – szum o wąskim paśmie, w zasadzie wysokość dźwięku jest rozpoznawalna. • Metoda sample & hold (S&H) – generowany jest szum, który następnie w równych odstępach czasowych jest próbkowany. Pobrana próbka jest przytrzymywana do następnego próbkowania. W ten sposób powstają przebiegi losowe, przydatne zwłaszcza w LFO. Szum pasmowy (zwłaszcza w najniższym paśmie, poniżej 100) często jest wykorzystywany do tworzenia atmosfery napięcia. Najniższe pasmo szumu jest przydatne jako dodatkowa warstwa basowa w dźwiękach takich jak eksplozje, wybuchy.

Page 23: SOUND DESIGN I

MODULACJA AMPLITUDY (AM – amplitude modulation) W modulacja amplitudy mamy do czynienia ze splotem sygnału wyjściowego f1 z

sygnałem modulatora F (zwykle jest to prosty przebieg, np. sinus, piła). W dziedzinie widmowej wynikiem takiej operacji jest zbiór sum i różnic wszystkich częstotliwości składowych obu sygnałów. W najprostszym przypadku mnożenia dwóch sinusów wygląda to następująco:

f1*F = (F + f1) + (F – f1)

→ lub (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)

W rezultacie widmo oryginalne zostaje przesunięte o wartość F oraz powstaje jego

lustrzane odbicie względem F (wstęgi boczne). Sygnał oryginalny i modulujący może zostać usunięty (modulacja symetryczna) lub nie (modulacja niesymetryczna), usunięta może też zostać wstęga boczna. Rezultatem modulacji AM jest najczęściej bogaty dźwięk o charakterze nieharmonicznym. Przykładem zastosowania syntezy AM jest modulator kołowy (ring modulator).

Rezultatem brzmieniowy modulacji amplitudy może być jest dźwięk o określonej

wysokości, ale „charczącym”, mechanicznym brzmieniu, ale także dźwięk o nieokreślonej wysokości (dźwięki mechaniczne, metaliczne, zbliżony do dzwonu). Istotny wpływ na brzmienie mają:

• stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały łagodniejsze brzmienie od dysonansowych)

• odległość bezwzględna na skali częstotliwości • kształt obu przebiegów • obecność obu, tylko jednego lub żadnego z sygnałów • zastosowanie funkcji keyboard tracking. W przypadku aktywnego śledzenia klawiatury przez oba generatory efekt modulacji jest taki sam dla różnych dźwięków. Jeśli tylko jeden z generatorów śledzi klawiaturę, a drugi ma stałą częstotliwość, stosunek częstotliwości obu generatorów (a wraz z nim efekt modulacji i charakter dźwięku) będzie się zmieniał w zależności od wciśniętego klawisza.

Page 24: SOUND DESIGN I

MODULACJA CZĘSTOTLIWOŚCI (FM – frequency modulation)

Modulację częstotliwości jako metodę syntezy dźwięku wprowadził John Chowning w 1973 roku. Pierwszym syntezatorem wykorzystującym tą metodę była Yamacha DX-7. W modulacji FM częstotliwość sygnału nośnego fn jest modulowana przez sygnał modulujący fm. Częstotliwość sygnału nośnego zmienia się w zakresie od fn − ∆f do fn + ∆f, gdzie ∆f nazywane jest dewiacją częstotliwości. Drugim oprócz dewiacji podstawowym parametrem jest indeks modulacji:

Zwiększenie indeksu modulacji poszerza widmo dźwięku (pojawiają się kolejne

harmoniczne sygnału):

Zmiana widma w zależności od indeksu modulacji (I) wg. J. Chowninga (źródło: K.

Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)

Rezultatem brzmieniowy modulacji częstotliwości są dźwięki o nieokreślonej wysokości (metaliczne, „kosmiczne”, także szumowe), przydatne w tworzeniu atmosfer industrialnych, futurystycznych.

Istotny wpływ na brzmienie mają: • dewiacja częstotliwości • indeks modulacji • stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały łagodniejsze brzmienie od dysonansowych)

• odległość bezwzględna na skali częstotliwości • zastosowanie szumu jako modulatora • kształt obu przebiegów • obecność obu, tylko jednego lub żadnego z sygnałów • zastosowanie funkcji keyboard tracking.

Page 25: SOUND DESIGN I

5. INNE METODY SYNTEZY DŹWIĘKU

METODA REPRODUKCYJNA - SAMPLER

Sampler to urządzenie, które po naciśnięciu klawisza odtwarza nagrany wcześniej dźwięk (próbkę – sample). Nagrany dźwięk może zostać poddany filtracji, nakłada się na niego obwiednię ADSR, może także zostać na różne sposoby zapętlony. Piewszy sampler (z dźwiękami organów) powstał w 1971 r. Następnie popularne były samplery sprzętowe (hardware’owe) (często o wymiarach umożliwiających zamontowanie w rack’u), a obecnie stosuje się najczęściej samplery programowe (software’owe).

Samplery zwykle są wykorzystywane do tworzenia wirtualnych odpowiedników instrumentów akustycznych. W tym celu nagrywa się możliwie dużo pojedynczych dźwięków danego instrumentu w kilku stopniach dynamicznych. Jeśli jest taka potrzeba, tworzy się pętle (loop). Następnie w samplerze tworzy się mapę instrumentu – przyporządkowuje się próbki do odpowiednich klawiszy ze względu na wysokość, a ze względu na dynamikę do odpowiedniej warstwy velocity (velocity – szybkość uderzenia klawisza). Warstwy można także tworzyć dla parametrów innych niż velocity. Dobrze przygotowany instrument powinien mieć inną próbkę dla każdego dźwięku, oddzielne próbki dla różnej artykulacji i co najmniej 3 warstwy velocity.

Stosuje się także layering – odtwarzanie kilku warstw równocześnie (np. odtwarzanie dwóch sąsiednich warstw velocity, gdy klawisz jest wciśnięty z szybkością bliską granicy warstw – w ten sposób unika się ostrego przejścia między dwiema warstwami).

Samplery wyposażone są w generatory obwiedni, LFO, filtr oraz efekty, co umożliwia kształtowanie dźwięku. Dzięki temu mogą znaleźć zastosowanie do tworzenia sound design’u. Ponadto można stworzyć instrument składający się z efektów dźwiękowych (np. kroków) , co ułatwia synchronizowanie efektów (można je „zagrać” na klawiaturze sterującej synchronicznie z obrazem).

Pętle w samplerach mogą być dwojakiego rodzaju: • pętle dźwiękowe • pętle perkusyjne lub instrumentalne

Pętle dźwiękowe służą sztucznemu przedłużeniu czasu trwania dźwięku lub zaoszczędzeniu pamięci. Zwykle pętle umieszczone są w środku próbki; próbka odtwarzana jest od początku (niezapętlona faza narastania) do końca pętli, a następnie od początku pętli do końca i tak w kółko przez całą fazę ustaloną (sustain). Puszczenie klawisza może spowodować zagranie fragmentu próbki od końca pętli do końca próbki lub pozostanie w pętli i nałożenie obwiedni (faza release).

Pętle perkusyjne lub instrumentalne to nagrane krótkie (1-4-taktowe) frazy instrumentalne (np. groove perkusyjny lub 1-taktowy akompaniament gitary akustycznej), które można wykorzystać przy tworzeniu aranżacji. Niektóre programy (np. Dr Rex Loop Player) umożliwiają zmianę tempa odtwarzania bez zmiany wysokości i bez utraty jakości dźwięku). Ponadto możemy wyróżnić 3 typy pętli:

→ jednokierunkowa (pętla odtwarzania jest od początku do końca, zawsze w tym samym kierunku: forward) – najczęściej używane dla pętli perkusyjnych. Początek i koniec pętli powinny przypadać w miejscach przejść przez zero (zero crossing).

Page 26: SOUND DESIGN I

→ dwukierunkowa (pętla odtwarzana jest od początku do końca, a następnie od

tyłu, i tak w kółko: forward-backward) – takie pętle brzmią bardziej naturalnie i są najczęściej używane. Punkty zapętlenia powinny znajdować się w maksimum amplitudy.

→ pętla z przenikaniem (crossfade) (pętla odtwarzana jest jak w pętli

jednokierunkowej, ale z przenikaniem).

Page 27: SOUND DESIGN I

Porównanie ważniejszych parametrów samplera hardware’owego Akai S5000 i software’owego Unity DS-1:

Akai S5000 Studio: - możliwość nagrywania do pamięci RAM lub na dysk; - 64 lub 128 głosowa polifonia; - 32 kanały MIDI; - 2 porty we/wy/thru midi ; - 2 porty SCSI; - worldclock; - opcjonalny interfejs adat; - maksymalnie 256 MB RAM; - 26 rodzajów filtrów; - procesor efektów : reverb, echo/delay, distortion, EQ, ring modulation, chorus, phasing,

flanging, pitch shifting, rotary speaker emulation. Unity DS-1 firmy BitHeadz: - polifonia 128 głosów (po dwa stereofoniczne oscylatory na głos) i - 128 kanałów MIDI. - 128 próbek na każdą nutę wybieralnych przy pomocy velocity lub innych źródeł modulacji. - dla każdej próbki definiowalne głośność, panorama, wystrojenie, obwiednia i wysyłka FX. - możliwość mieszania różnych częstotliwości próbkowania. - po dwa filtry na głos (13 różnych charakterystyk). - efekty: EQ, Reverb, Delay, Chorus, Flanger, Overdrive i Distortion). - sześciofazowa obwiednia dźwięku (delay, attack, decay, sustain, sustain decay, release). - arpeggiator, - 32 virtualne kanały audio. Unity DS-1 czyta próbki w formatach: - czyta próbki w formatach: Sound Designer I/II, SoundFont 2.0, AIFF, CD-Audio, DLS,

WAVE , SampleCell II, oraz AKAI S1000 & S3000.

Mapa próbek, Sampler EXS 24 w programie LogicPro firmy Apple

Page 28: SOUND DESIGN I

METODA ODKSZTAŁCANIA (waveshaping)

Metoda odkształcenia polega na zmianie kształtu wygenerowanego wcześniej przebiegu (np. sinusoidalnego w trójkątny). Realizowana jest poprzez zastosowanie nielinearnych modyfikatorów dźwięku (np. wzmacniacz o nieliniowej charakterystyce), czyli przemnożenie odkształcanego przebiegu przez odpowiednią funkcję matematyczną. Przykładem takiego sposobu syntezy dźwięku są efekty typu distortion.

Metoda odkształcania jest przydatna do zniekształcania głosów czy dźwięków, nadawania ostrości, krzykliwości barwom generowanym na syntezatorze, a także nadawania brzmieniu charakteru analogowego poprzez saturację czy lekkie przesterowanie.

Metoda odkształcenia (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku)

METODA MODELOWANIA FIZYCZNEGO (physical modeling)

Metoda modelowania fizycznego polega na matematycznej próbie odwzorowania fizycznych właściwości instrumentów przy pomocy modelowania falowodowego. Odmianą tej metody jest modelowanie komponentowe, polegające na matematycznym odwzorowaniu

poszczególnych części instrumentów muzycznych: incytatora, wibratora i radiatora. Metoda

ta ma ogromne możliwości kreacji brzmienia, nie tylko imitowania instrumentów

akustycznych. Ten rodzaj syntezy zastosowali twórcy wirtualnego syntezatora Sculpture

firmy Apple:

Page 29: SOUND DESIGN I

METODA RESYNTEZY - WOKODER

Wokoder to urządzenie, za pomocą którego możemy zmodulować jeden sygnał audio (carrier – nośny) drugim sygnałem (modulator – modulujący). W odniesieniu do urządzeń analogowych mówimy o wokoderze kanałowym, w odniesieniu do cyfrowych – o wokoderze widmowym, wykorzystującym analizę FFT. Wokoder posiada 2 wejścia (dla sygnału nośnego i modulującego). Sygnał modulatora jest analizowany w dziedzinie widmowej i następnie jego charakterystyka częstotliwościowa w sposób dynamiczny (zmienny w czasie) jest „aplikowana” do sygnału nośnego poprzez zestaw filtrów. Matematycznie mamy tu do czynienia ze splotem widma zespolonego sygnału nośnego z widmem amplitudowym sygnału modulującego. Istnieją także wokodery wykorzystujące do modulacji widmo fazowe – wtedy obliczeniowo jest to splot widma zespolonego sygnału nośnego z widmem fazowym sygnału modulującego.

Przy pomocy wokodera można uzyskać charakterystyczne, nietypowe efekty, takie jak „śpiewający” czy „mówiący” syntezator.

Zasada działania wokoderów analogowych jest następująca: sygnał modulujący trafiający do wokodera jest dzielony na dużą liczbę wąskich pasm (przy pomocy filtrów pasmowoprzepustowych). Następnie amplituda sygnału wewnątrz każdego z tych pasm jest śledzona. Sygnał nośny jest dzielony na identyczne pasma, i na amplitudę każdego z nich nakładana jest obwiednia odpowiedniego pasma sygnału nośnego. Sygnałem modulującym ten fragment pasma sygnału nośnego jest właśnie śledzona amplituda w odpowiednim paśmie przefiltrowanego sygnału modulującego. Zwiększając liczbę pasm, zbliżamy brzmienie sygnału nośnego do charakterystyki częstotliwościowej sygnału modulującego (nie zawsze jest to pożądane ze względu na efekt brzmieniowy).

Wokodery cyfrowe, w miejsce filtrów pasmowoprzepustowych, stosują szybką transformatę Fouriera (FFT). W zależności od ustawienia może to odpowiadać 512 lub 1024 „tradycyjnym” filtrom.

Przykład wokodera wirtualnego BV512 firmy Propellerheads

Page 30: SOUND DESIGN I

6. TWORZENIE DŹWIĘKÓW ZMIENNYCH W CZASIE

Słabością dźwięków generowanych syntetycznie jest ich statyczność i niewielkie możliwości ekspresji w trakcie grania na syntezatorze. Istnieje jednak wiele narzędzi i mechanizmów, których wykorzystanie pozwala uniknąć statyczności, ożywić brzmienie, wprowadzić fluktuacje dźwięku, a także umożliwiających stosowanie wyrazistej artykulacji i ekspresji w trakcie grania na syntezatorze. Umiejętne zastosowanie narzędzi do kształtowania wewnętrznej struktury dźwięku pozwala tworzyć brzmienia, których wystarczy wciśnięcie i przytrzymanie jednego klawisza dla wykreowania sound design’u.

LFO – Low Frequency Oscillator

Modulacja różnych parametrów syntezy jest podstawową metodą wprowadzania fluktuacji dźwięku. Ponieważ powtarzająca się w stałych odcinkach czasowych modulacja staje się męcząca i zdradza swą obecność, dobrze jest wprowadzić modulację co namniej 2 parametrów lub zmodulować okres modulacji.

LFO posiadają następujące parametry:

rate – częstotliwość (w Herzach, zwykle od 0,1 Hz do 20 Hz, lub podziałce rytmicznej dostosowanej do tempa)

amount / intensity – zakres fluktuacji waveform – wybór kształtu przebiegu (zwykle sinus, trójkąt, prostokąt, piła, przebieg

losowy) delay time – opóźnienie rozpoczęcia modulacji

LFO polifoniczny – każdy głos (każdy dźwięk w akordzie) jest osobno (niesynchronicznie) poddany modulacji LFO monofoniczny – wszystkie głosy (wszystkie dźwięki w akordzie, niezależnie od momuntu wciśnięcia danego klawisza podlegają wspólnej modulacji. Key sync – funkcja, której włączenie powoduje, że każde naciśnięcie klawisza powoduje rozpoczęcie okresu LFO od nowa.

parametr podlegający modulacji metoda subtrakcyjna szerokość pulsu (PWM) – dla przebiegu

prostokątnego

stopień odstrojenia – w trybie detune

metoda tablicowa pozycja w tablicy fal

metoda granulacyjna wysokość poszczególnych granulek

szybkość przejścia między kolejnymi granulkami

punkt startu

modulacja fazy wartość modulacji fazy

modulacja częstotliwości indeks modulacji

częstotliwość jednego z sygnałów

oscylator

modulacja amplitudy stopień modulacji

Page 31: SOUND DESIGN I

częstotliwość filtr

rezonans

attack

decay

sustain

obwiednia filtru, wzmacniacza, modulacji

release

waveshaper wysterowanie (drive)

panorama

poziom

wzmacniacz

proporcje między oscylatorami

efekty chorus, flange, phaser, delay wszystkie parametry

obwiednia ADSR

Drugim narzędziem umożliwiającym wprowadzenie fluktuacji brzmienia jest obwiednia. W odróżnieniu od LFO, umożliwia ona ukształtowanie fluktuacji poprzez regulację czasu narastania, opadania, wartości parametru dla stanu ustalonego oraz zmiany parametru po puszczenia klawisza. Najczęściej obwiednia może działać w pętli, dzięki czemu uzyskuje się rodzaj LFO z możliwością kształtowania przebiegu przez użytkownika. Działaniu obwiedni mogą poldegać te same parametry co w przypadku LFO.

dudnienia

Dudnienia występują, gdy nałożą się na siebie 2 tony proste o zbliżonej częstotliwości (np. 60 i 64 Hz). Powstanie wówczas fala wypadkowa o częstotliwości pośredniej (62 Hz), o amplitudzie zmieniającej się od 0 do sumy amplitud 2 fal składowych z częstotliwością równą różnicy częstotliwości fal składowych (4 Hz). Dudnienia są najwyraźniej słyszalne przy nakładaniu się 2 przebiegów sinusoidalnych o niskich częstotliwościach, mogą być jednak zastosowane dla przebiegów o większej ilości składowych i wdla wyższych częstotliwości. Wówczas mniej wyraźny jest efekt zmian amplitudy, a powstaje odstrojenie typu detune, zbliżone do chorusa.

efekty modulacyjne Skutecznym sposobem wprowadzenia zmienności wewnętrznej jest zastosowanie efektów modulacyjnych. Ich parametry mogą podlegać zmianom sterowanym prez LFO lub obwiednię. Dokładny opis działania poszczególnych efektów zostanie omówiony w kolenych rozdziałach.

modulowanie brzmienia przy pomocy sterowników Różne parametry syntezy mogą być modulowane przy pomocy klawiatury i zewnętrznych sterowników (sterownikowi przypisywany jest numer odpowiedniego kontrolera MIDI): • velocity – typowym zastosowaniem jest wpływ szybkości naciśnięcia klawisza (velocity) na częstotliwość odcięcia filtra LPF (duże velocity – wysoka częstotliwość, małe – niska, analogicznie jak w instrumentach akustycznych w przypadku gry piano i forte)

• aftertouch – dociśnięcie wciśniętego klawisza • sterowniki zewnętrzne: kontroler zadęcia (breathcontroler), pedał ekspresji, pootencjometry, suwaki, czyniki ruchu (d-beam) itd.

Page 32: SOUND DESIGN I

7. EFEKTY MODULACYJNE

Porównanie zastosowań podstawowych efektów modulacyjnych:

wzgobacenie brzmienia

poszerzenie bazy stereo

rozedrganie dźwięku

efekt rozstrojenia

wprowadzenie cyklicznego odstrajania dźwięku

chorus

→ do dźwięków o bogatym i ubogim widmie

wzbogacenie dźwięku

wprowadzenie delikatnego cyklicznego „przemiatania“ częstotliwości

wrażenie sztuczności dźwięku

flanger

→ do dźwięków o bogatym widmie

wprowadzenie silnego cyklicznego „przemiatania“ częstotliwości phaser zubożenie widma dźwięku

przy delikatnych ustawieniach „mechanizaca“ dźwięku

przy silnych ustawieniach zmiana widma dźwięku na nieharmoniczne – całkowita zmiana charakteru dźwięku

dźwięki zbliżone do dzwonu, metaliczne, mechaniczne

modulator kołowy

→ do dowolnych dźwięków

CHORUS

Efekt chórowy - Chorus polega na opóźnieniu sygnału i dodaniu go do sygnału oryginalnego. Opóźnienie sygnału jest zmienne (modulowane przez LFO), przez co częstotliwość opóźnionego sygnału jest modulowana (płynne odstrajanie dźwięku). Częstotliwość zmian opóźnienia (a co za tym idzie odstrojenia) jest regulowany przez parametr rate. Typowe dla chorusa opóźnienia sygnału mieszczą się w granicach 10-35 ms, dzięki czemu inaczej niż w przypadku flangera uzyskuje się efekt zwielokrotnienia i delikatnego odstrojenia dźwięku. Do sygnału może zostać dodanych więcej sygnałów zmodulowanych. Stereofoniczny efekt chorusa osiąga się poprzez wprowadzenie różnicy w czasie opóźnienia lub fazie LFO pomiędzy lewym a prawym kanałem.

Typowe parametry:

- depth (głębokość) – zakres zmian opóźnienia, czyli amplituda LFO - delay – opóźnienie (wartość środkowa opóźnienia - rate - częstotliwość LFO - voices – wybór ilości domiksowanych modulowanych głosów (od 2 nawet do 16) - mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)

Chorus w programie Logic Pro (powyżej) i Adobe Audiotion (poniżej)

Page 33: SOUND DESIGN I

FLANGER

Efekt Flanger działa podobnie do chorusa. Polega on na dodaniu do sygnału oryginalnego tego samego sygnału opóźnionego, przy czym opóźnienie jest zmienne, sterowane przez LFO. Opóźnienia są jednak mniejsze niż w przypadku chorusa (zwykle 0-10 ms), przez co powstaje filtr grzebieniowy, płynnie poruszający się w górę i w dół widma dźwięku („przemiatanie”). Ponadto flanger posiada pętlę sprzężenia zwrotnego (feedback), powodującą pogłębienie efektu filtracji. Sygnał modulowany może być domiksowany w przeciwfazie, ma wtedy bardziej radykalne działanie. Flanger brzmi najlepiej zastosowany do dźwięków bogatych widmowo.

Typowe parametry:

- depth (głębokość) – zakres zmian opóźnienia, czyli amplituda LFO - rate - częstotliwość LFO - feedback – sprzężenie zwrotne - invert – włączenie przeciwfazy sygnału modulowanego - mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)

Flanger software’owy w programie LogicPro firmy Apple

Flanger gitarowy firmy Boss

Page 34: SOUND DESIGN I

PHASER

Efekt Phaser polega na dodaniu do sygnału oryginalnego tego samego sygnału przesuniętego w fazie. Przesunięcie fazy jest modulowane przez LFO. Domiksowanie sygnału przesuniętego w fazie powoduje powstanie szeregu ostrych wycięć (notch) w widmie sygnału, zaś modulacja fazy sprawia, że wycięcia te płynnie przemieszczają się w widmie. W zależności od rodzaju phasera (4-stage, 8-stage, 12-stage) zmienia się ilość wycięć (odpowiednio 4,8,12). Czasem można regulować szerokość wycięcia (parametr wide) oraz odległość między wycięciami (parametr split). Generalnie wycięcia mają charakter nieharmoniczny, co różni phaser od flangera, w którym także powstaje szereg wycięć, jest to jednak szereg harmoniczny. Phaser posiada zwykle pętlę sprzężenia zwrotnego, wzmacniającą efekt. Stereofoniczność uzyskuje się poprzez wprowadzenie różnicy w fazie pomiędzy lewym a prawym kanałem

Typowe parametry: - depth (głębokość) – zakres zmian fazy, czyli amplituda LFO - rate - częstotliwość LFO - feedback – sprzężenie zwrotne - przełącznik 4-, 8-, 12-stage (ilość wycięć) - floor i ceiling – określenie dolnej i górnej częstotliwości działania phasera - mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)

Phaser software’owy w programie LogicPro firmy Apple

Phaser gitarowy firmy Exar

Page 35: SOUND DESIGN I

RING MODULATOR (modulator kołowy)

Modulator kołowy bazuje na modulacji amplitudy (AM). Sygnał wyjściowy zostaje poddany splotowi (konwolucji) z sygnałem modulatora (zwykle jest to prosty przebieg, np. sinus lub piła). W dziedzinie widmowej wynikiem takiej operacji jest zbiór sum i różnic wszystkich częstotliwości składowych obu sygnałów. W przypadku bardziej złożonych sygnałów efektem splotu jest sygnał o widmie zawierającym bardzo dużo składowych nieharmonicznych, co nadaje mu m.in. metaliczne brzmienie lub brzmienie zbliżone do dzwonu. Sygnał wyjściowy może być pozbawiony obu sygnałów wejściowych. Częstotliwości sygnału modulującego może być sterowana przez LFO.

Typowe parametry:

- frequency – częstotliwość sygnału modulującego - kształt sygnału modulującego - depth (głębokość) - rate - częstotliwość LFO - feedback - mix – stosunek sygnału oryginalnego (dry) do zmodulowanego (wet)

Modulator kołowy w programie LogicPro firmy Apple

WIBRATO

Działanie efektu wibrato polega na poddaniu sygnału modulacji częstotliwości za pomocą LFO, analogicznie do wibrata na skrzypcach.

Typowe parametry:

- rate – częstotliwość wibracji (LFO) - depth – głębokość (zakres) odstrojenia

Page 36: SOUND DESIGN I

TREMOLO

Działanie efektu tremolo polega na poddaniu sygnału modulacji amplitudy za pomocą LFO o niskiej częstotliwości (poniżej progu słyszalności). Efektem są cykliczne zmiany amplitudy dźwięku.

Typowe parametry:

- rate – częstotliwość zmian amplitudy (LFO) - depth – głębokość (zakres) zmian amplitudy

Tremolo w wersji software’owej w programie LogicPro firmy Apple

WAH-WAH (kaczka)

Efekt wah-wah (uaua) popularnie nazywany kaczką polega na płynnym (przy pomocy kontrolera nożnego – pedału) przestrajaniu częstotliwości filtra pasmowoprzepustowego. Efekt jest najczęściej stosowany przez gitarzystów, ale istnieją jego wirtualne emulacje. Wah-wah zwykle nie posiada żadnych parametrów oprócz płynnej regulacji częstotliwości. Auto wah-wah umożliwia wprowadzenie stałej częstotliwości przestrajania filtru (niepotrzebny jest wtedy pedał).

Page 37: SOUND DESIGN I

AMP SIMULATION

Amp Simulation to emulacja wzmacniacza gitarowego lub basowego. Typowy wzmacniacz posiada następujące sekcje:

przedwzmacniacz korekcja barwy przester sekcja efektów (delay, wah-wah, chorus, tremolo)

pogłos wzmacniacz głośnik

→ → → → → → Symulatory wzmacniaczy najczęściej oferują możliwość wyboru typu wzmacniacza (zwykle jest to próba symulacji brzmienia konkretnego wzmacniacza, np. Fender Twin Reverb, Marshall JCM, Vox AC30) oraz wielkości i ilości głośników (cabinet), która ma ogromny wpływ na barwę (typowe wielkości: 8, 10, 12 cali). Zwykle istnieje także możliwość włączenia w tor opóźnienia (delay), chorusa, wah-wah, tremolo, pogłosu. Wysycenie przesteru reguluje gałka Gain; często można wybrać rodzaj kanału:

clean – czysty crunch – lekkie przesterowanie overdrive (lead) – silne przesterowanie

Użycie kanału przesterowanego to rodzaj metody odkształcenia (waveshaping).

Tor sygnału w symulatorze wzmacniacza Amplitube

Page 38: SOUND DESIGN I

PRZESUWNIK WIDMA

Transpozycja (przesunięcie) widma dźwięku różni się zasadniczo od transpozycji wysokości. W tym drugim przypadku mamy do czynienia ze zmianą wysokości dźwięku przy zachowaniu proporcji odległości jego składowych na osi częstotliwości. Dźwięk harmoniczny ma wciąż charakter harmoniczny, choć jego barwa ulega większej lub mniejszej zmianie. Transpozycja taka musi być bardzo duża, aby źródło dźwięku stało się nierozpoznawalne. Przesunięcie widma polega na zmianie wysokości dźwięku przy zachowaniu bezwzględnych odległości jego składowych na osi czasu, tak więc dźwięk o charakterze harmonicznym staje się nieharmoniczny. Prowadzi to do znacznej zmiany barwy; źródło dźwięku staje się nierozpoznawalne. Umożliwia to tworzenie dźwięków nowych, bogatych i często zaskakujących. Przesunięcie widma realizowane jest przez jednowstęgową modulację amplitudy. Wielokrotne przesunięcie widma określa się jako iteracja. Ciekawe efekty daje domiksowanie do dźwięku o przesuniętym widmie sygnału oryginalnego.

Porównanie transpozycji muzycznej i przesunięcia widma

Page 39: SOUND DESIGN I

8. MORFING DŹWIĘKU

Morfingiem dźwięku (sound morphing) nazywamy płynne przechodzenie pomiędzy dwoma dźwiękami o różnej barwie, lub przeniesienie pewnych własności jednego dźwięku na inny. W ten sposób można stworzyć barwy posiadające elementy różnych barw wyjściowych (np. dźwięk posiadający atak kontrabasu a wybrzmienie fagotu, brzmienie wiolonczeli posiadające obwiednię fortepianu, miauczenie kota niezauważenie przekształcające się w dźwięk puzonu etc.).

Nie da się uzyskać takiego efektu na drodze sklejenia dwóch różnych dźwięków z przenikaniem, bowiem mimo przenikania słyszalne będą 2 różne barwy. Aby uzyskać jedną, wypadkową barwę dwóch barw źródłowych, należy w sposób płynny połączyć odpowiadające sobie alikwoty dwóch dźwięków – dostroić je i wyrównać ich amplitudę. Uzyskuje się to za pomocą resyntezy. Resynteza polega na analizie widmowej dźwięku w celu wyodrębnienia jego składowych i ich zmian w czasie, a następnie odtworzenia wszystkich składowych dźwięku na drodze syntezy addytywnej.

Poniższy rysunek przedstawia morfing dwóch sygnałów sinusoidalnych o zmiennej w

czasie częstotliwości i amplitudzie (czas na osi poziomej). Początkowo dźwięk wypadkowy (morph) ma częstotliwość i amplitudę identyczną z dźwiękiem A, następnie parametry te zmieniając się stopniowo, przyjmując wartości pośrednie między dźwiękiem A a dźwiękiem B, aby na koniec przyjąć wartości identyczne z amplitudą i częstotliwością dźwięku B:

W przypadku morfingu dwóch dźwięków złożonych ich kolejne składowe łączone są w pary i na każdej parze przeprowadza się operację jak na rysunku.

Page 40: SOUND DESIGN I

9. MIDI i SEKWENCER

MIDI - Musical Instrument Digital Interface - to system transmisji sygnałów sterujących powstały w 1983 roku. Transmisja jest szeregowa, jej prędkość wynosi 31,25bit/s. Informacja składa się z bajtów, do których dodatkowo dołączone są bity startu i stopu, umożliwiające odbiornikowi rozróżnienie początku i końca każdego z bajtów. Tak utworzona grupa 10 bitów jest określana jako bajt.

Poprzez MIDI przesyłane są 2 typy informacji:

• bajt statusu, zawierający informację o numerze kanału oraz typie komunikatu MIDI • bajt danych – długość słowa pozwala na zapis 128 wartości (np. „c” razkreślne ma

wartość 60)

Pojedyncze naciśnięcie klawisza na klawiaturze sterującej (Note On) wyzwala następującą przykładową sekwencję bajtów:

Note On → bajt statusu → (nr kanału)

bajt danych → (wysokość dźwięku)

bajt danych (szybkość wciśnięcia klawisza – velocity)

Pojedynczy komunikat może zawierać więcej bajtów danych.

Sygnał MIDI przesyłany jest poprzez 5-pinowe złącze DIN. Urządzenia MIDI

posiadają 3 typy gniazd: • MIDI IN (wejście) • MIDI OUT (wyjście) • MIDI THRU (na którym pojawia się sygnał taki sam jak na wejściu – umożliwia to

przesyłanie sygnału do dalszych urządzeń. Każde kolejne urządzenie wprowadza około 2 ms opóźnienia).

Maksymalna długość kabla wynosi 15 m (powyżej zakłócenia stają się zbyt duże,

chyba że zastosuje się wzmacniacz sygnału). Istnieją także urządzenia stanowiące rodzaj krosownicy MIDI. Za pomocą sygnału MIDI można także synchronizować urządzenia w studio (synchronizator MIDI/SMPTE).

Urządzeniem sterującym jest zazwyczaj klawiatura sterująca, istnieją jednak także inne sterowniki, m.in.:

• instrumenty dęte (EWI), • breathcontroller (kontroler zadęcia) • pitch to MIDI converter umożliwiający konwersję sygnału audio na MIDI, • gitary z przystawką MIDI (każda struna może wysyłać sygnał na oddzielnym kanale), • pedały ekspresji oraz suwaki i potencjometry syntezatora, • specjalne sterowniki MIDI.

Page 41: SOUND DESIGN I

Rodzaje komunikatów MIDI:

• Komunikaty kanałowe (Channel Messages) - note on (wciśnięcie klawisza) - note off (puszczenie klawisza) - velocity (szybkość wciśnięcia klawisza) - aftertouch (zmiana siły dociskania klawisza w trakcie trwania dźwięku) - program change (zmiana barwy) - control change (zmiana wartości danego kontrolera) - pitch bend - modulation

• Komunikaty głosowe (Voice Messages) • Komunikaty trybu pracy (Mode Messages) • Komunikaty systemowe (System Messages) • Komunkaty wspólne (System Common Messages) • Komunikaty synchronizacji systemu (Real-Time Messages) • Komunikaty niestandardowe (System Exclusive)

Numery ważniejszych kontrolerów MIDI:

0 Bank Select

1 Modulation Wheel

2 Breath Controller

4 Foot Controller

5 Portamento Time

7 Channel Volume

8 Balance

10 Pan

11 Expression Controller

64 Sustain Pedal

General MIDI to podstawowy zestaw brzmień, wbudowany w większość urządzeń

obsługujących MIDI. Poszczególnym numerom (od 1 do 128) przyporządkowane są określone barwy – mają one takie same nazwy w każdym urządzeniu, choć mogą różnic się brzmieniowo.

Przyporządkowanie barw w standardzie General MIDI: 1 – 8 fortepiany

9 – 16 instr. perkusyjne sztabkowe, dzwony

17 – 24 organy, akordeon

25 – 32 gitary

33 – 40 basy

41 – 48 instr. smyczkowe

49 – 50 sekcje instr. smyczkowych, chóry

57 – 64 instr. dęte blaszane

65 – 80 instr. dęte drewniane

81 – 96 barwy syntetyczne

97 – 104 syntetyczne efekty dźwiękowe

105 – 119 instr. etniczne

120 – 128 efekty dźwiękowe

Spośród 16 kanałów General MIDI kanał 10 zawsze zawiera tylko instrumenty perkusyjne – każde nucie przyporządkowany jest inny instrument (np. stopa, werbel, guiro).

Page 42: SOUND DESIGN I

SEKWENCER

Do pracy z MIDI służy sekwencer MIDI, obecnie mający najczęściej formę programu komputerowego (dawniej w proste sekwencery wyposażone były syntezatory). Umożliwia on tworzenie aranżacji poprzez nagrywanie i edycję komunikatów MIDI. Graficznie przypomina edytor audio. Do podstawowych funkcji sekwencera należą: • nagrywanie sygnału MIDI (tryb merge pozwala na dogrywanie, nadpisywanie nowych

partii bez kasowania starych, na jednej ścieżce) • edycja nagranego materiału – możliwa jest zmiana dowolnego parametru każdego

dźwięku, np. wysokości, czasu trwania, położenia na osi czasu, moment wciśnięcia pedału sustain itd.

• kwantyzacja (quantize), czyli wyrównanie nagranego materiału do ustalonej podziałki czasowej (np. tak aby uzyskać równe szesnastki w przypadku nierównego zagrania partii)

• aranżacja utworu (podział na części, stworzenie mapy temp – tempo może się płynnie zmieniać)

• przyporządkowanie instrumentów (barw) do określonych śladów • miks wielu śladów (wielu instrumentów MIDI), z użyciem wysyłek i insertów • zapisywanie i edycja wszystkich pożądanych parametrów (kontrolerów MIDI) • stworzenie pętli perkusyjnych przy pomocy automatów perkusyjnych lub pętli

dźwiękowych, zaprogramowanie sekwencji pętli za pomocą pattern’ów • eksport całej aranżacji do pliku MIDI oraz import plików MIDI • niektóre sekwencery umożliwiają zapisanie aranżacji w formie zapisu nutowego (np.

Logic)

W przypadku sekwencerów programowych, stanowiących część programu do edycji audio (np. ProTools, Logic), a także samodzielnych sekwencerów (np. Reason) informacje MIDI zapisywane są w pliku sesji, a nie w pliku MIDI (.mid). Można je wyeksportować, przy czym poszczególnym instrumentom (ścieżkom) mogą zostać przyporządkowane różne kanały lub wszystkie mogą zostać zapisane na jednym kanale.

Przykład prostej aranżacji piosenki w programie Reason firmy Propellerheads

Page 43: SOUND DESIGN I

10. BIBLIOGRAFIA Liki WWW:

www.filmsound.org

www.gamesounddesign.com

www.hammersound.net

www.richmondsounddesign.com

www.socialsounddesign.com

www.designingsound.org

www.synthgear.com

www.cerlsoundgroup.org

www.eis.com.pl

www.sound.eti.pd.gda.pl

www.epicsound.com/sfx

www.apple.com/pl/logicstudio/logicpro

www.avid.com/US/resources/digi-orientation

www.iam-studios.nl

www.donniedarko.com

www.skysound.com

www.thesquarerootof-1.com

BIBLIOGRAFIA

David Sonnenschein, Sound Design – The Expressive Power of Music, Voice and Sound Effects in Cinema, Michael Wiese Productions, Studio City CA 2000

Russ Haines, Cyfrowe przetwarzanie dźwięku, Wydawnictwo MIKOM, Warszawa 2002

Bruce Bartlett, Jenny Bartell, Practical Recording Techniques, Focal Press, Boston 2002

Włodzimierz Kotoński, Muzyka elektroniczna, Kraków 1989

Małgorzata Przedpełska-Bieniek, Dźwięk w filmie, Warszawa 2009

Joanna Napieralska, „Weiser“ – dramaturgiczna rola dźwięku, Warszawa 2006

Peter Kirn, Real world digital audio. Profesonalne techniki produkcji dźwięku, Gliwice 2007

Joseph Cancellaro, Exploring Sound Design for Interactive Media, Thomson Delmar Learning, Nowy York 2006

Aaron Marks, The Complete Guide to Game Audio, CMP Media LLC, Lawrence, Kansas, 2001

Page 44: SOUND DESIGN I

11. PLAN ZAJĘĆ

SEMESTR I: Zajęcia warsztatowe mające na celu opanowanie narzędzi do tworzenia sound design’u:

1) spotkanie wprowadzające, omówienie pojęcia sound design i przykłady filmowe (zajęcia wspólne dla całego roku)

2) syntezatory 1 (zajęcia grupowe) • obsługa syntezatora • zastosowanie obwiedni ADSR • tworzenie brzmień w oparciu o syntezę subtrakcyjną, modulację AM i FM. • wprowadzanie fluktuacji parametrów dźwięku przy pomocy LFO

3) syntezatory 2 (zajęcia grupowe) • tworzenie brzmień w oparciu o syntezę granulacyjną, tablicową, modulacji fazy • zastosowanie metody odkształcenia (waveshaping) • zastosowanie wokodera • zastosowanie arpeggiatora • zastosowanie pattern sequencer’a

4) syntezatory 3 (zajęcia grupowe) • modelowanie fizyczne • morfing dźwięku • sampler

5) efekty modulacyjne, przetwarzanie dźwięku nagranego (zajęcia grupowe) 6) sekwencer MIDI, tworzenie aranżacji przy użyciu wirtualnych instrumentów (zajęcia grupowe)

warunkiem uzyskania zaliczenia jest obecność na zajęciach oraz samodzielne stworzenie sound design’u do krótkiej formy audiowizualnej (około 0’30’’ – 1’), wybranej przez każdego studenta indywidualnie w konsultacji z prowadzącym, przy użyciu poznanych narzędzi.

SEMESTR II: Zajęcia praktyczne mające na celu twórcze wykorzystanie poznanych narzędzi w konkretnych sytuacjach na przykładzie kilku krótkich form audiowizualnych:

1) Sound design do logo producenckiego (Eurofilm) (zajęcia grupowe) 2) Sound design w reklamie (reklama gry Wiedźmin) (zajęcia grupowe) 3) Sound design w filmie 1 (fragment wspólnie wybranego filmu) (zajęcia grupowe) 4) Sound design w filmie 2 (zajęcia grupowe) 5) Sound design w filmie 3 (zajęcia grupowe) 6) Prezentacja zadań domowych (zajęcia wspólne dla całego roku) warunkiem uzyskania zaliczenia jest obecność na zajęciach oraz samodzielne stworzenie sound design’u do fragmentu filmu (2-5 min.), wybranego przez każdego studenta indywidualnie w konsultacji z prowadzącym, przy użyciu poznanych narzędzi.