Egy évvel ezelőtt írtam egy cikket a mesterséges intelligencia és a zeneipar jövőjéről. A cikkben azt jósoltam, hogy 5 éven belül mesterséges intelligencia fogja írni a dalokat. Azóta egy év telt el, és elkészült az első lemez, amit mesterséges intelligencia írt.
Korábban azzal kísérleteztek, hogy a mesterséges intelligencia (AI) ötleteket adjon dallamok, hangszerelések létrehozásában, ahol emberek saját intuíció alapján rakták össze a dalokat.
Viszont ez most egy új dolog, ugyanis az I AM AI lemezt teljes egészében a mesterséges intelligencia komponálta meg.
Íme a 2016-ban írt cikkem egy része:
Egyre több olyan videót látok és egyre több olyan könyvet olvasok, ami a fizikai vagy szoftver robotokról szól. Az igazság az, hogy ez nem a jövő, hanem már a jelen. A Facebook oldalakon már chat botok válaszolnak a vásárlók kérdéseire. A Google-nek és a Tesla-nak már önműködő autója van.
Pár év múlva nem az Uber miatt fognak tüntetni a Taxisok, hanem az önműködő autók miatt. A gyárakban már évek óta úgy raknak össze autókat, hogy emberi kéz nem ér hozzá egy csavarhoz sem. Az irodaházak kezdenek kiürülni, mert azt a munkát, amit 10-15 évvel ezelőtt ember végzett, ma szoftver végzi.
Miért lényeges ez a zeneiparban?
Az egyszerűbb (pl. adminisztratív) munkákat viszonylag hamar fogják felváltani a szoftverek és robotok, de a zeneipart sem fogja elkerülni ez a forradalom. Ray Kurzweil (aki nem csak elismert tudós és jövőkutató, de az ő nevéhez köthető az első elektronikus hangszer, amely képes volt a zongora és más szimfonikus hangszerek hangjainak reprodukciójára, jelenleg a Google tanácsadója) 2005-ben írt Singularity c. könyve szerint nagyjából 2025-ben fogja elérni a számítógép az emberi agy szintjét. Ez mostantól számítva 9 év. (Ezt 2016-ban írtam, tehát már csak 8 év)
Már több, mint 10 éve is létezett olyan szoftver, amibe csak beleírtuk az akkordokat, és a megadott stílusban megszólaltatott egy zenekart, sőt még improvizálni is tudott. Azóta a buta szintetizátor hangszíneket felváltották az igazi akusztikus hangminták, ráadásul olyan szofisztikáltsággal szólalnak
meg ezek a virtuális hangszerek, hogy legtöbbször képzett zenész sem tudja megmondani, hogy az adott sávot ember játszotta-e fel, vagy csak hangmintákat játszik a gép.
Egyre könnyebb bekamuzni, hogy valaki tud zenélni
Régebben a koncertre járó közönség pontosan azt kapta, amit a stúdiófelvételen hallott. Ma már a hírhedt autotune kőkorszakinak számít. Ma már felvehetünk egy többszólamú kórust egy sávra, és ha abban valaki hamisan énekel egy hangot, akkor ki lehet javítani csak azt az egy hangot.
Egyre több olyan szoftver lesz, amik abban segítenek, hogy egyre kevésbé kelljen érteni a zenéhez. Ezért meg fog szűnni a rögzített zene, és zeneszerzés különlegessége, hiszen bárki képes lesz zenéket alkotni (több évtizedes tanulás nélkül).
A hallgatók nem fogják észre venni, amikor a streaming oldalakon és rádiókban megszólalnak az első botok által írt dalok. Ugyanis jönnek a dalszerző robotok, amik algoritmusok alapján fognak dalokat írni. Nem csak elektronikus vagy instrumentális zenéket, hanem bármilyen zenei műfajban képesek lesznek rá, akusztikus hangmintákat felhasználva. A Yamaha Vocaloid szoftvere sem újdonság, amibe csak a dalszöveget kell beírni, és az leénekli emberi hangon. Ennek a fejlődésével az emberi ének is 100%-ban reprodukálható lesz.
Ezek első hallásra hihetetlennek tűnnek, de a veszély nem abban van, hogy valaki készít egy dalszerző szoftvert, hanem abban, hogy valaki készít egy szoftvert, ami megtanul dalt írni. És a hallgatók többségét egyáltalán nem
fogja érdekelni, hogy robotok által írt dalokat hallgatnak.
Ennek ellenére nem fognak az igazi zenészek és dalszerzők eltűnni a süllyesztőben, mert mindig lesz egy csoport, akik értékelni fogják az igazi, emberek által írt dalokat. Emellett sokkal jobban előtérbe kerül majd az élő zene, hiszen a koncertekre most sem kizárólag a zene miatt járnak az emberek, és ezt robotokkal nem lehet helyettesíteni.