Czy platformy streamujące muzykę skomponowaną przez twórców zamienią się w generatory dźwięków bazujące o sztuczną inteligencje i uczenie maszynowe?
Muzyka – towarzysz ludzkiej codzienności od zarania dziejów. Jest z człowiekiem niemal we wszystkich okolicznościach: pomaga w celebrowaniu radosnych chwil, dodaje patosu wzniosłym momentom, ułatwia zebranie myśli i chwile relaksu, przynosi ukojenie w chwilach smutku i cierpienia. Jest tak bardzo ludzka, jak to tylko możliwe. Tworzona przez człowieka dla człowieka w wyniku procesu twórczego tak bardzo inspirowanego emocjami jak to tylko możliwe. Rzadko jednak spotykamy twórczość dedykowaną tylko jednej osobie – mogą sobie na nią pozwolić tylko najzamożniejsi mecenasowie kultury, ponieważ autor za włożoną pracę oczekuje wynagrodzenia. Czy zatem można pozbawić proces tworzenia muzyki cząstki ludzkiej i oddać go w pełni w ręce nowoczesnych superkomputerów w taki sposób, by każdy słuchający otrzymał dokładnie to, co chce słyszeć w danym momencie? Czy platformy streamujące muzykę skomponowaną przez twórców zamienią się w generatory dźwięków bazujące o sztuczną inteligencje i uczenie maszynowe?
Dyskusje rozpoczął Vinod Khosla – inwestor z branży IT, z którym chat odbył się jakiś czas temu na platformie Creative Destruction Lab. Zauważył on jak często i jak chętnie ludzie powierzają swoje odczucia w ręce specjalistów tudzież algorytmów zaimplementowanych w platformach YouTube czy Spotify. Czasy, gdy melomani kupowali całe albumy danych wykonawców po to, by stworzyć z nich ulubioną składankę, bezpowrotnie minęły. Dni iTunes i innych platform sprzedających pojedyncze utwory również wydają się być policzone. W miejsce tego popularność zdobywają automatycznie generowane playlisty. Pozwala to na odkrywanie nowych wykonawców i utworów w ramach preferowanego gatunku muzycznego i umożliwia, jak nigdy dotąd, na rozwinięcie horyzontów muzycznych. Do tej pory słuchacze sięgali bowiem przede wszystkim po pozycje pochodzące z amerykańskiego i brytyjskiego rynku muzycznego – te, jako najpopularniejsze, są bezproblemowo dostępne. Kolekcje uzupełniali rodzimi wykonawcy z danego kraju. Dzięki Spotify i jego algorytmom na playlisty trafiają wykonawcy z całego świata, do których dostęp jeszcze nie tak dawno był znacznie utrudniony.
Wiemy już zatem, że człowiek jest skłonny oddać wybór słuchanej muzyki w ręce algorytmów. Znamy możliwości sztucznej inteligencji, uczenia maszynowego i innych osiągnięć technicznych, które usiłują symulować pracę kreatywną bez udziału człowieka. Skoro więc pojawiające się już w Internecie teksty generowane przez sztuczną inteligencję oceniane są wysoko, to dlaczego nie pozwolić jej komponować piosenki? Według Khosli tak właśnie się stanie i to już w ciągu najbliższych dziesięciu lat.
Zgodnie z wizją inwestora, jeśli ktoś za 10 lat będzie chciał posłuchać muzyki, zaloguje się do jednego z dostępnych serwisów, gdzie wstępnie wskaże w jakim jest nastroju i czego konkretnie chciałby posłuchać. W oparciu o to i dotychczas zbadane preferencje tej osoby sztuczna inteligencja skomponuje utwory idealnie dopasowane do potrzeb konkretnej jednostki, a następnie zostaną odtworzone jak typowa playlista.
Opisana koncepcja jest wyjątkowo śmiała, na dzień dzisiejszy wydaje się być wręcz nieprawdopodobna. Jednak, czy to w ogóle możliwe, by uczenie maszynowe doprowadzić do tego stopnia perfekcji, by przy jego pomocy komputer sam, bez udziału człowieka zaczął tworzyć dzieła muzyczne? Moim zdaniem tak powstała muzyka nie będzie w pełni wartościowa, ponieważ braknie w niej tego, czego nigdy nie nauczymy żadnego superkomputera – ludzkich uczuć.
Kompozytorom, instrumentalistom czy wokalistom w całej twórczości towarzyszyły uczucia i emocje (choć złośliwi twierdzą że to nie uczucia, a substancje psychoaktywne stanowią zaczyn procesu twórczego). Dzięki autentycznemu przeżywaniu zaistniałej sytuacji byli oni w stanie w pełni wydobyć z siebie i zapisać w formie nut najbardziej wzruszające utwory.
Próbuję sobie wyobrazić sytuację, gdzie informuję asystenta głosowego w smartfonie, że mam ochotę potańczyć. Ten uruchamia aplikację do komponowania maszynowego i już po chwili z głośników dobiega głos wirtualnego odpowiednika Zenka Martyniuka. Czy bez ludzkiego pierwiastka twórczego ta w całości sztucznie wygenerowana muzyka będzie w stanie oddać to, czego akurat oczekuję? Wybaczcie sceptycyzm, ale śmiem wątpić.
Dalej rozważam moment, gdy człowiek wraca do domu po bardzo ciężkim dniu, pełnym przygnębiających refleksji i dzieli się z wirtualnym asystentem planami na wieczór – chce samotnie sięgnąć głębiej do kieliszka. Być może w tym momencie jego mieszkanie wypełni się brzmieniem rzewnie zawodzącej bluesowej gitary jednak już teraz wiem, że zabraknie czegoś najbardziej istotnego w muzyce dedykowanej do przeżywania ciężkich chwil – więzi artysty z odbiorcą. Czy tenże smutny człowiek pomyśli, co musiał czuć kompozytor pisząc utwór, który właśnie słyszy? No nie, przecież te dźwięki wygenerował komputer dosłownie kilka minut wstecz. Aspekt terapeutyczny muzyki niknie w mgnieniu oka.
Śmiem przypuszczać, że jakość muzyki powstałej w wyniku komponowania maszynowego będzie bardzo dobra i może zaskoczyć wielu sceptyków, jednak odarcie muzyki z funkcji przekaźnika ludzkich emocji jest według mnie niedopuszczalne. Czy coś takiego będzie w ogóle można nazwać muzyką? Trochę jak z wegańskimi burgerami – noszą nazwę produktu mięsnego nie zawierając w składzie… mięsa.
To zdecydowanie nie będzie muzyka.
PS. Drodzy artyści, thank you for the music.
Inspiracja: TechCrunch