Sztuczna inteligencja (ang. artificial intelligence – AI) już od dłuższego czasu jest obiektem zainteresowań wielu ludzi oraz korporacji. To, jak wykorzystać ją w codziennym funkcjonowaniu, wydaje się być kluczowe, aby przemysł jeszcze bardziej skupił się na rozwoju właśnie w tej dziedzinie.
Od paru miesięcy internet zalewają grafiki generowane przez narzędzia takie jak DALL-E czy Midjourney. I choć często efekty tych działań są przerażająco dobre, tak każdy z nas widział pewnie też te kompletnie nieudane. Pokazuje to, jak bardzo jeszcze nieokiełznana przez człowieka jest sztuczna inteligencja. W sieci każdego dnia pojawiają się nowe artykuły czy materiały wideo, które tłumaczą nam jak prawidłowo korzystać z programów opartych w całości na AI. I może to dobrze, bo w końcu, cytując niemieckiego poete Johanna Wolfganga von Goethego, “Kto nie idzie do przodu, ten się cofa”.
Ale czy AI potrafi też w muzykę? Otóż odpowiedź nasuwa się sama. Oczywiście, że tak. Już teraz istnieją takie programy jak AIVA, SingSong, MusicLM czy Soundful, które potrafią wygenerować utwory w różnych gatunkach.
Dodatkowo w sieci pojawiło się także niezwykle ciekawe narzędzie od Adobe – Adobe Podcast. Program analizuje nasz głos, usuwa z nagrania pogłos i szum, a następnie poprawia całość według wyuczonych prawideł. I choć podobne programy próbowały już zaistnieć przez parę ostatnich lat, tak dopiero Adobe Podcast wydaje się być pierwszym, który będzie działał naprawdę dobrze.
Jednak czym by była muzyka bez wokalu? Zapewne dobrą elektroniką… ale teraz nie o tym. Wokal generowany przez sztuczną inteligencję to już nie przyszłość, a teraźniejszość. Syntezator V od Dreamtonics to narzędzie nauczone wielu przeróżnych barw głosów i artykulacji wokalnych, po to, aby móc generować realistyczny ludzki głos. Teraz wystarczy tylko wpisać słowa (lub sylaby) na każdą pojedynczą nutę i voilà, syntezator generuje nam wokal, który z biegiem czasu będzie brzmiał coraz bardziej naturalnie.
Co by nie mówić, tych programów jest naprawdę dużo. Zapewne kwestią kilku tygodni lub miesięcy jest pojawienie się kolejnych narzędzi, które także będą miały znaczny wpływ na rynek muzyczny. Aby bacznie przyglądać się rozwojowi sztucznej inteligencji w muzyce, potrzebna jest zatem organizacja, która będzie badać temat od podszewki i przekazywać nam najświeższe informacje. Sprawy w swoje ręce wziął oczywiście nie kto inny, jak Wojtek Urbański, czyli wielokrotnie nagradzany kompozytor i producent muzyczny. Jak sam mówi “Dyspensa.AI to pierwsza w Polsce instytucja ekspercka i agencja kreatywna zajmująca się kompleksowo zagadnieniem AI w muzyce.”
Dodatkowo na stronie dyspensa.ai możemy przeczytać – “W ramach funkcjonowania Dyspensa.AI podejmować będziemy działania mające na celu popularyzację wiedzy związanej z wykorzystywaniem AI w muzyce. Nasi eksperci będą dzielić się informacjami na ten temat za pośrednictwem kanału w serwisie YouTube, mediów społecznościowych, publikacji, a także podczas konferencji, na których poruszana będzie tematyka związana ze sztuczną inteligencją.”
W składzie 7-osobowego teamu znajduje się m.in. dr. inż. Mateusz Modrzejewski, czyli ekspert w dziedzinie AI w muzyce oraz pracownik naukowy Politechniki Warszawskiej. Mateusz obronił także doktorat pt. „Artificial Intelligence Solutions for Artistic Multimedia Musical Content Creation Support”.
Więcej o całym przedsięwzięciu oraz programach muzycznych opartych na sztucznej inteligencji możecie usłyszeć w poniższym filmiku. Dostępne są napisy w języku angielskim.
WWW: dyspensa.ai
IG: @dyspensa.ai
FB: dyspensaai
TT: dyspensa.ai