Ocena brak

XX WIEK - Muzyka wykorzystująca nowe technologie produkowania i nagrywania efektów akustycznych

Autor /Halszka Dodano /04.04.2013

Dwa przedsięwzięcia w połowie XX wieku dały początek nowej dziedzinie muzyki — muzyki komponowanej za pomocą nowych technologii wy­twarzania i odtwarzania dźwięków:

1. W 1948 roku francuski kompozytor i akustyk Pierre Schaeffer (1910-1995) utworzył „Club d'Essaiw” (W 1951 roku w miejsce „Club d'Essai" została powołana do życia Groupe de Recherches de Musiąue Concrete (Grupa Badań Muzyki Konkretnej) radia RTF, prze­mianowana w 1958 roku na Groupe de Recherches Musicales (Grupa Badań Muzyki).) w ramach paryskiego radia RTF (Radiodiffusion Television Franc.aise) i zaprezentował tam pierwsze etiudy, w których zrealizował ideę muzycznego zorganizowania hałasów (Etudes de bruits).

2. W 1951 roku niemiecki teoretyk i kompozytor Herbert Eimert (1897-1972) wraz z niemieckim fizykiem i fonetykiem Wernerem Me-yerem-Epplerem (1913-1960) założył studio muzyki elektronicznej przy rozgłośni radiowej NWDR (Nordwestdeutscher Rundfunk) w Kolonii.

P. Schaeffer na oznaczenie typu muzyki, który stworzył w swoim paryskim studio i który opierał się na nagrywaniu za pomocą mikrofonu dźwięków naturalnych, wprowadził w 1950 roku termin muzyka konkretna (fr. musigue concrete). Nagrywane efekty akustyczne (stru­mień wody, szum wiatru, uderzanie o metal, skrzypienie drzwi, hałas maszyny, strzały z karabinu, dudnienie metra, śpiew ptaka, głos ludzki, szmery itp.) P. Schaeffer określił mianem tzw. przedmiotów brzmienio­wych (fr. objęci sonore).

W Kolonii natomiast opracowano metody tworzenia muzyki z dźwię­ków pochodzących wyłącznie z generatorów elektronicznych. Muzykę taką zaczęto nazywać muzyką elektronową (niem. elektronische Musik).

Granice znaczeń obu terminów: muzyka konkretna i muzyka ele­ktronowa, zaczęły się zacierać z powodu wzajemnego przenikania się obu zjawisk i stosowania obydwu metod komponowania jednocześnie. Pojawiła się potrzeba wprowadzenia bardziej uniwersalnego pojęcia. We Francji zaczęło funkcjonować określenie muzyka elektroakustycz­na (fr. musiąue elactroacoustiąue), jednak poza obszarem języka fran­cuskiego termin ten na ogół nie przyjął się. W języku angielskim używa się ogólnej nazwy electronic musie (czasem elctro-acoustic musie), w nie­mieckim analogicznie — elektronische Musik. W języku polskim obecnie rozpowszechniona jest nazwa muzyka elektroniczna na określenie muzyki tworzonej za pomocą aparatury elektroakustycznej i wykorzy­stującej jako materiał zarówno przedmioty brzmieniowe, jak i dźwięki generowane elektroniczne.

Do połowy lat sześćdziesiątych używano także pojemniejszego pojęcia — muzyka eksperymentalna —odnosząc je do wszelkiej muzyki awangardowej, także elektronicznej. Jednak jako zbyt ogólne i niepre­cyzyjne pojęcie to nie weszło do fachowej terminologii muzycznej. Ponadto funkcjonowały przez jakiś czas określenia: muzyka na taśmę (ang. tape musie), muzyka elektroniczna na żywo (ang. live elctronic), które także nie stały się uniwersalne; mieszczą się one w zakresie ogólniejszego i dziś powszechnie uznanego terminu muzyka elektroniczna.

Muzyka elektroniczna powstaje w specjalnie utworzonych w tym celu studiach. W ślad za pionierskimi studiami w Paryżu i w Kolonii rozpoczęły działalność kolejne studia, m.in. w Gravesano (Szwajcaria, 1954), Mediolanie (Włochy, 1955), Eidhoven, Delft i Bildhoven (Holandia, druga połowa lat pięćdziesiątych), także w Stanach Zjednoczonych — w Nowym Jorku (1952), Murray Hill i San Francisco (1959) oraz w Ka­nadzie — Toronto (1959). W 1957 roku powstało w Warszawie Studio Eksperymentalne Polskiego Radia. Pierwszą produkcją studia była Wło­dzimierza Kotońskiego ilustracja dźwiękowa do filmu animowanego H. Bielińskiej i W. Haupego Albo rybka... Pierwszym autonomicznym utworem na taśmę zrealizowanym w studio warszawskim była Etiuda na jedno uderzenie w talerz W. Kotońskiego (1959).

Oto niektórzy z najwybitniejszych przedstawicieli muzyki elektronicz­nej i wybrane spośród ich najbardziej reprezentatywnych dzieł: Herbert Eimert — Glockenspiel (Gra dzwonów, 1953) i Selektion (1960), twórcy włoscy Bruno Maderna (1920-1973) — Notturno (1955) i Continuo (1958) oraz Luciano Berio (ur. 1925) — Mutazioni (1956) i Momenti (1960), Austriak pochodzenia węgierskiego Gyórgy Ligeti (ur. 1923) — Artiku-lation (1958) i Poeme symphonigue na 100 metronomów (1962), twórca niemiecki Karlheinz Stockhausen (ur. 1929) — Elektronische Studien I oraz II (1954), Argentyńczyk Maurizio Kagel (ur. 1931) — Trcmsición I (1958-1960) i Transición II na fortepian, perkusję i 2 taśmy (1958-1959), a w muzyce polskiej Włodzimierz Kotoński (ur. 1923) — wymieniona wy­żej Etiuda na jedno uderzenie w talerz i ALEA czyli gra struktur alea-torycznych na l dźwięku harmonicznym (1970) oraz Bogusław Schaeffer (ur. 1929) — Symfonia (1966) i Msza elektroniczna na chór chłopięcy i taśmę (1975).

W drugiej połowie XX wieku wystąpiło zjawisko dotąd nieznane, związane z pojawieniem się komputerów. Jest nim muzyka kom­puterowa (ang. computer musie). Spośród pierwszych dzieł skompo­nowanych za pomocą komputerów wymienić należy: Illiac Suitę na kwartet smyczkowy (1957) Lejarena A. Hillera i Leonarda Isaacsona, Computer Cantata na sopran, taśmę magnetyczną i zespół kameralny (1963) L. A. Hillera we współpracy z Robertem Bakerem oraz CHPSCHD na 7 klawesynów i 51 maszyn do pisania (1969) Johna Cage'a. Rozmaite programy komponowania komputerowego zakładają, że rola kompozytora polega na dokonaniu wyboru reguł i wyjściowych danych liczbowych oznaczających wszystkie paramerty dzieła. Wyliczenia i szczegółowe instrukcje podane przez kompozytora realizuje komputer. Muzyka kom­puterowa nie jest gatunkiem. Pojęciem tym określamy taką muzykę, w której na różnych etapach jej powstawania czy odtwarzania posłużono się komputerem — w procesie komponowania, w generowaniu fali dźwię­kowej, w sterowaniu urządzeniami elektroakustycznymi, w kreśleniu partytur. Zastosowanie komputera w muzyce jest dziś ogromne — poza dziedziną samej kompozycji wykorzystuje się komputery do sterowania nagraniami muzycznymi, do analizowania dzieła i stylu muzycznego, a także zjawisk akustycznych, oraz w procesie dydaktycznym.

W rozwoju muzyki komputerowej istotną rolę odgrywają studia oraz specjalistyczne instytuty w Paryżu, Marsylii, Sztokholmie, Padwie, a tak­że laboratoria amerykańskie, m.in. w Stanford i San Diego.

Różnorodne sposoby komponowania, stosowane w muzyce XX wieku, mają jednakże istotną cechę wspólną — wskazują na sonoryzm (Termin wprowadził i teorię sonorystyki jako techniki kompozytorskiej, tzw. so-nologię, sformułował wybitny muzykolog polski Józef M. Chomiński (1906—1994).) jako wynik zainteresowania czysto brzmieniowymi właściwościami materiału dźwiękowego. Równorzędną wartość otrzymał materiał o ustalonej i nie ustalonej wysokości. Regulacja sonorystyczna obejmuje rozmaite czyn­ności kompozytorskie:

1) wykorzystanie nowych sposobów wzbudzania dźwięku w instru­mentach tradycyjnych;

2) generowanie materiału dźwiękowego za pomocą urządzeń elektro­akustycznych i elektronicznych;

3) przetwarzanie istniejącego już materiału dźwiękowego za pomocą urządzeń elektroakustycznych i elektronicznych;

4) zestawianie instrumentów tradycyjnych z urządzeniami elektro­akustycznymi i elektronicznymi.

Technikę sonorystyczna znacznie wzbogaciły środki wokalne. Oprócz normalnego śpiewu kompozytorzy wykorzystują mówienie, chrząkanie, chrapanie, śmiech, krzyk, łkanie, wycie, dmuchanie, syczenie, szept i inne odgłosy. Nowe jakości brzmieniowe stosuje się zarówno we współ­działaniu z instrumentami, jak i a cappella.

Powszechnie stosowanym w muzyce współczesnej środkiem stał się klaster. Duże zagęszczenie brzmienia w klasterze jest wynikiem jego budowy, sprowadzającej się do małych i wielkich sekund, wypełnianych ponadto mikrointerwałami. Klaster notowany jest na ogół jako zaczer-niony pas pomiędzy skrajnymi dźwiękami z podaniem obok tego znaku dźwięków składowych. Termin „klaster" obowiązuje wyłącznie w odnie­sieniu do wielodźwięków instrumentalnych; w muzyce elektroakustycz­nej używa się pojęcia „wielodźwięk". W utworach różnych kompozytorów spotykamy dwie formy klasterów:

— klaster stały, w którym wszystkie dźwięki składowe atako­wane są równocześnie;

— klaster zmienny, w którym nawarstwianie dźwięków skła­dowych rozłożone jest w czasie.

Miejscem konfrontowania współczesnego myślenia o muzyce i samej muzyki są obecnie festiwale, seminaria naukowe i różnego rodzaju imprezy artystyczne na całym świecie, łączone z wykładami prowadzo­nymi przez wybitnych twórców muzyki XX wieku. Wśród wielu przed­sięwzięć tego rodzaju największą renomę mają Festiwale Międzynarodo­wego Towarzystwa Muzyki Współczesnej (SIMC), których kolejne edycje organizowane są w różnych miastach, Festiwale Muzyki Współczesnej w Wenecji (od 1930 roku), Marlboro (od 1950 roku), Muzicki Biennale w Zagrzebiu (od 1961 roku). Do najważniejszych międzynarodowych festiwali muzyki współczesnej zalicza się też odbywająca się od 1956 roku w naszej stolicy „Warszawska Jesień".

Podobne prace

Do góry