W sierpniu bieżącego roku firma MakeMusic wydała oświadczenie o zakończeniu rozwijania oprogramowania Finale. Ta wiadomość mocno poruszyła świat kompozytorów. Przejęcie Finale przez Dorico oznacza dla wielu twórców muzyki konieczność zaadaptowania się do nowych zasad związanych z komputerową edycją nut.
To z pewnością wyzwanie. Ale to także dobra okazja, by przyjrzeć się temu, jakie metody pracy twórczej preferują dziś kompozytorzy i w jakim stopniu wpływają one na kształt komponowanej przez nich muzyki.
Kompozytorskie „zetki” i młodsi milenialsi wyłącznie z opowieści znają czasy, gdy nie było alternatywy wobec zapisywania muzyki ręcznie. Choć powstające w ten sposób partytury bywały bardzo atrakcyjne wizualnie, to ich tworzenie wiązało się ze sporą inwestycją czasową. Jednym z kompozytorów, który dawniej zapisywali utwory ołówkiem, a dziś pracują wyłącznie przy komputerze, jest Paweł Łukaszewski, korzystający z programu Sibelius.
„Komputerowa edycja nut daje możliwość pochwycenia pomysłu prawie natychmiast” – stwierdza. „Dzięki temu, że nie ma już konieczności mozolnego stawiania m.in. kresek taktowych, kluczy albo nazw instrumentów czy podpisywania tekstu, nie ucieka z głowy to, co najważniejsze”.
Trudno się nie zgodzić z powyższymi obserwacjami. Jednak z drugiej strony to właśnie papier stwarza nieograniczone możliwości związane z zapisem niekonwencjonalnych technik i efektów, co swego czasu wykorzystał Krzysztof Penderecki, tworząc legendarne dzieła sonorystyczne. Współczesnym kompozytorom, zainspirowanym otwartością interpretacyjną partytur graficznych, również zdarza się rezygnować z komputerowych edytorów nut. Do takich twórców należy chociażby Krzysztof Knittel, którego ręcznie wykonane partytury o wyjątkowym walorze wizualnym prezentowane były m.in. w Galerii Zachęta czy Muzeum Sztuki w Łodzi. W opisie serii partytur zatytułowanych Cimochowizna czytamy, że zostały one wykonane przy pomocy flamastra, farby wodnej, korektora i cienkopisu i że nawiązują do twórczości wizualnej Johna Cage’a. Z kolei Szkice dla dowolnych wykonawców to partytury graficzne operujące monochromatycznymi znakami wykonanymi flamastrem, dodatkowo wykorzystujące technikę wydruku komputerowego.
Tworzenie partytur odręcznie – choć okazjonalnie podejmowane przez niektórych kompozytorów w celach artystycznych – stało się już jednak pewnym przeżytkiem. Do lamusa odchodzi też powoli tradycyjne komponowanie przy fortepianie. Już Grażyna Bacewicz pisała w swej książce wspomnieniowej Znak szczególny: „W ciągu ostatnich lat nauczyliśmy się komponować cicho. Już nie pracujemy przy fortepianie, tylko przy biurku. Nie dokuczamy sąsiadom”. Osobiście byłoby mi trudno komponować przy fortepianie z tego powodu, że pisząc utwór na obój i kontrabas, chcę myśleć od razu o możliwościach technicznych oboju i kontrabasu. Fakturę fortepianową postrzegam w tym kontekście jako ograniczającą.
Pogląd ten podziela wielu kompozytorów; są jednak twórcy, którzy nadal zdecydowanie preferują taki sposób komponowania i co ciekawe – często są to kompozytorzy muzyki chóralnej. Należy do nich na przykład Jan Krutul, któremu instrument pomaga zapanować nad harmonią. Twórca przyznaje, że stworzył tylko dwa utwory bez fortepianu i ich struktura harmoniczna jest bardziej skomplikowana. Jednocześnie te utwory uważa za mniej reprezentatywne dla całokształtu swojej twórczości. Warto dodać, że pomimo przywiązania do klawiatury, Krutul bardzo mocno dba o kwestie związane ze specyfiką aparatu wokalnego. „Kiedy kończę utwór, staram się zaśpiewać każdą partię” – wyznaje kompozytor. „Jeśli ja, jako twórca, mam problem z zaśpiewaniem czegoś, co znam – czuję, że jest to nieintuicyjne, nienaturalne, to jest to dla mnie sygnał, że być może w utworze należy coś zmienić”.
„W ciągu ostatnich lat nauczyliśmy się komponować cicho. Już nie pracujemy przy fortepianie, tylko przy biurku. Nie dokuczamy sąsiadom”
Komponowanie przy fortepianie jest często powiązane z tradycyjnym zapisywaniem muzyki w edytorach nutowych. Warto powiedzieć, że nie jest to jedyna droga. Dla kompozytorów działających na pograniczu muzyki filmowej i współczesnej muzyki elektroakustycznej, często pierwszym odruchem nie jest wcale skorzystanie z programu do edycji nut. Wielu z nich komponuje w programach do postprodukcji dźwięku wyposażonych w prosty edytor nutowy i dopiero później przenosi materiał do Finale, Dorico czy Sibeliusa za pośrednictwem formatu xml. Do takich twórców należy na przykład Marzena Majcher, która komponuje w programie Nuendo.
„Nuendo daje mi dużą wolność w procesie tworzenia” – mówi kompozytorka. „Program ten umożliwia mi eksperymentowanie i konstruowanie bardzo wielu złożonych struktur muzycznych, z których wybieram do swojej kompozycji te najlepsze. Następnie je modyfikuję: dekonstruuję, przestawiam, zmieniam. Blokowy layout tego programu jest przejrzysty i błyskawicznie mogę w nim odnaleźć fragmenty utworu, które ulegają licznym transformacjom. Gotową kompozycję przenoszę do programu Finale, w którym znajduje się więcej narzędzi do sporządzenia ostatecznej wersji partytury”.
Praca z dźwiękiem reprezentowanym przez graficzne wizualizacje próbek skłania do nieco innego myślenia o narracji muzycznej niż działania z nutami na pięciolinii. Sama jakiś czas temu przeszłam od pracy wyłącznie na nutach do pracy prawie wyłącznie na samplach i postrzegam to jako bardzo wyzwalające. Gęstość, zwartość i sztywny porządek tkanki muzycznej opisanej nutami rozluźniły się, umożliwiając swobodniejszy przepływ muzyki. Odeszło też podświadome napięcie związane z poprawnością partytury i dostatecznym poziomem jej złożoności. Język symboli, jak się okazuje, ma niemałe znaczenie.
Mówiąc o programach do postprodukcji dźwięku, warto zrobić rozgraniczenie na pracę na samplach z bibliotek i działania na dźwiękach zarejestrowanych przez kompozytora. Jedną z twórczyń, których domeną są dźwięki nagrane – w tym, co warto odnotować, błędnie nagrane – jest Teoniki Rożynek. W swoim wywiadzie dla magazynu „Glissando” kompozytorka wyznaje: „Błąd jest moją przedziwną muzyczną obsesją. Znacznie większą wartość stanowi dla mnie nagranie fletu, w którym ktoś się pomylił albo słyszy się chrząknięcia w tle niż studyjne nagranie, na którym flet brzmi idealnie”. Dźwięki „skażone”, „nieidealne” są też inspiracją dla Rafała Ryterskiego. O znaczeniu glitchu w swojej twórczości kompozytor wypowiadał się kiedyś na łamach „Dwutygodnika”: „Zawsze interesował mnie świat usterki, dźwięków 8-bitowych, sygnałów informacyjnych urządzeń, takich jak resetowany komputer, dźwięki starego faksu, drukarki. Nie chodzi mi natomiast o wprowadzanie błędu w sygnał cyfrowy, wolę raczej dochodzić błędną drogą do nieprzewidywalnych efektów”. Ryterski, działający w zasadzie na pograniczu kompozycji i sound designu, często dokonuje operacji spektralnych na barwie za pomocą narzędzi typu SPEAR czy wtyczki iZotope’a.
Twórcy lubujący się we wnikaniu w strukturę dźwięku przeważnie bardzo biegle posługują się językami programowania umożliwiającymi przetwarzanie dźwięku w czasie rzeczywistym, takimi jak Max MSP czy SuperCollider. Narzędzia te nie mają już nic wspólnego z edycją nut ani z układaniem „budowli” z dźwiękowych sampli, często natomiast, dzięki potencjałowi do kreowania algorytmów, są pomocne w procesie prekompozycji. Przychodzi mi na myśl wspomnienie z Międzynarodowego Kursu Kompozytorskiego Synthetis w Radziejowicach w 2015 roku. Paweł Hendrich, który wówczas prowadził tam wykłady, prezentował młodym kompozytorom autorskie oprogramowanie Linearis stworzone właśnie w języku programowania obiektowego Max MSP. Program opierał się na MIDI, a uczestnicy kursu uczyli się pracować w nim na parametrach właściwych dla tego protokołu. Należało więc wybrać dziedzinę dźwięków, z których miała być złożona pożądana struktura, następnie należało wybrać, w jakiej kolejności dźwięki będą wykonywane, potem trzeba było ustalić dane dotyczące parametrów, takie jak: velocity (głośność), note on-note off (informacja o długości trwania każdego dźwięku) czy channel (typy artykulacji w ramach partii jednego instrumentu). W ten sposób stopniowo powstawała złożona informacja MIDI, która w kolejnej fazie była eksportowana do programu do edycji nut, by na końcu całego procesu mogła powstać partytura. Sam Hendrich w swoim procesie twórczym wykonuje ogromną pracę na etapie prekompozycyjnym, szacowaną przez niego samego na 85%.
Czy tę listę narzędzi – programów, aplikacji, wtyczek, instrumentów, a nawet przyborów plastycznych – można ciągnąć jeszcze dłużej? Z pewnością, tym bardziej, że kompozytorzy obdarzeni zmysłem inżynierskim stale wytwarzają nowe narzędzia – choćby na użytek jednej kompozycji. Biorąc pod uwagę, jak diametralnie inne światy muzyczne wyłaniają się z utworów skomponowanych przy fortepianie i zapisanych w programie Sibelius i utworów komponowanych przy pomocy Max MSP, nie można zaprzeczyć, że narzędzia są niezmiernie istotnym elementem procesu twórczego. Ale nie ważniejszym niż kompozytorska wiedza i wyobraźnia – i tutaj, w ramach anegdoty, podzielę się moim wspomnieniem z czasów szkoły średniej – czasów moich pierwszych twórczych prób w programie Finale. Produkowałam wtedy bardzo zawiłe utwory na duże zespoły, a kiepskie, wbudowane w program sample z komputerową precyzją „wykonywały” je dla mnie nawet w ekstremalnych tempach. Przyzwyczajenie do symulacji MIDI sprawiło, że kiedy zaczęłam współpracować z prawdziwymi muzykami, byłam bardzo zaskoczona, gdy na próbach słyszałam od wykonawców, że utwór jest niewygodny, za trudny i że się rozsypuje. Program Finale „oszukiwał” mnie, że wszystko jest do zagrania, o ile mieści się w skali danego instrumentu, a mnie wiele lat zajęło zrozumienie, że to wcale nie po stronie niedbałych muzyków leży wina, i że muszę jak najszybciej oduczyć się komponowania pod wszechmogący komputer.
Nie ulega wątpliwości, że choć narzędzie może bardzo usprawnić proces twórczy, to jednak kompetencje kompozytora odpowiadają za efekt finalny.