Musica e intelligenza artificiale: cosa potrà cambiare in futuro?

Google ha dichiarato che stiamo vivendo in una AI-First age: gli investimenti delle aziende nel settore del machine learning  supereranno infatti i 46 miliardi entro il 2020, aumentando gli utilizzi di una tecnologia (l’Intelligenza artificiale, appunto) che è entrata completamente nelle nostre vite e ha reso pressoché illimitati i suoi ambiti di applicazione. In tutto questo, inevitabilmente, è compresa anche la musica. Esistono una moltitudine di programmi e software a disposizione che possono, in un certo senso, arricchire le possibilità espressive degli artisti ma creare diversi dubbi relativi al rapporto macchina-uomo.

immagine generica sull'intelligenza artificiale

Il rapporto uomo-intelligenza artificiale: le possibilità di oggi

Il primo esempio concreto che possiamo fare è Aiva, ovvero un compositore virtuale di musica classica e sinfonica che compone brani originali basandosi sulle partiture di grandi compositori – Mozart, Bach, Beethoven, Vivaldi – e avrebbe la facoltà, in un futuro prossimo, di completare opere rimaste incompiute come la Sinfonia n.8 di Schubert.

La tecnologia di questo software si basa su algoritmi di deep learning, in cui interagiscono molteplici reti neurali artificiali, cioè i sistemi che imitano il funzionamento del cervello umano. La scorsa estate la star di YouTube Taryn Southern ha debuttato con l’album I AM AIsuonato e prodotto completamente dal programma open source Amper, che ha limitato il lavoro della cantante ad arrangiamenti e uso della voce.

Nel 2016, il sistema di intelligenza artificiale Flow Machines (sviluppato da Sony) ha ideato il brano “Daddy’s Car” basandosi esclusivamente sulle canzoni dei Beatles. Lo stesso sistema ha poi creato un intero album, chiamato Hello World, curato dal compositore francese Benoit Carré con lo pseudonimo SKYGGE. Il lavoro ha coinvolto numerosi artisti tra cui il belga Stromae ma soprattutto lo scienziato francese François Pachet, diventato nel 2019 il nuovo direttore del laboratorio di ricerca tecnologica di Spotify dedicato alla scoperta di nuovi generi musicali.

Il lavoro di Carré è stato accolto positivamente dal pubblico e dalla critica. La BBC, per esempio, lo ha ritenuto “Il primo valido album prodotto da un robot”, ma nella sua intervista al compositore è lui stesso a sottolineare quanto l’apporto umano sia stato fondamentale per aggregare le tracce, dare loro una struttura ma soprattutto un’ emozione. In poche parole, il lavoro umano ha dato e da tutt’ora un’anima alla musica.

foto di un vinile, l'opposto dell'intelligenza artificiale

Nonostante questi lavori recenti, la musica dell’intelligenza artificiale non costituisce sicuramente qualcosa di nuovo. Già negli anni ’50, infatti, i compositori sperimentali scrivevano musica utilizzando modelli statistici randomizzati, mentre nel pieno della sua carriera il compianto David Bowie collaborò alla realizzazione di Verbasizer, un programma che permetteva di inserire dei gruppi di frasi o parole in una serie di finestre, che venivano poi riordinate casualmente dal programma in nuove combinazioni liriche potenzialmente significative.

La differenza tra la nostra epoca e quelle precedenti è l’aspetto degli investimenti economici. Ad’oggi, sicuramente, le risorse spese per questo tipo d’attività sono molto più alte degli anni precedenti e risultano anche in costante aumento.

Anche Google, ovviamente, non è da meno. Con il progetto interno Magenta, infatti, il colosso sta studiando algoritmi di deep learning per realizzare canzoni, disegni e altre opere. Uno dei suoi modelli musicali più famosi è rappresentato da Performance RNN, che usa le reti neurali per fornire tempi e dinamiche espressive, simili a quelli umani, a file MIDI che altrimenti risulterebbero statici e generati appunto da una macchina.

Tutti gli strumenti inclusi nel progetto Magenta sono open-source e hanno sicuramente aperto al mondo delle startup. Aziende come Splice e Amadeus Code , infatti, stanno lavorando tutt’ora per realizzare assistenti virtuali integrati con intelligenza artificiale per musicisti e produttori. Un mercato che si è enormemente allargato, perciò, ma che soprattutto ha “democratizzato” ancora di più il mondo della musica e della produzione sinfonica.

L’influenza dell’IA sulla produzione musicale

foto di un uomo che canta ad un concerto

Sicuramente l’intelligenza artificiale può tamponare tempi e costi della produzione musicale, soprattutto facilitando la vita al mondo dello streaming digitale, elemento diventato ormai imprescindibile per l’industria di settore. I dati del Global Music Report 2019  dell’ International Federation of the Phonographic Industry affermano che nel corso del 2018, infatti, l’incremento del comparto streaming è stato del 9,7% con un totale di ricavi totali pari a 19,1 miliardi di dollari.

Lo streaming, infatti, continua a crescere in maniera esponenziale a discapito del comparto fisico arrivando a rappresentare ormai circa il 47% dell’industria. In questo nuovo eco-sistema, molti media (tra cui The Guardian e Billboard) si sono interrogati su una possibilità che sembra fantascientifica ma potrebbe avere risvolti realistici: a lungo andare l’artista avrà ancora la stessa importanza o verrà sostituito da un “semplice” algoritmo?

Il rapporto uomo/macchina può essere sicuramente un’occasione affinché qualsiasi artista, emergente o meno, possa esprimersi attraverso la musica senza la pressione del proprio background, dell’esperienza o della disponibilità economica. Una possibilità che, invece, viene criticata dagli scettici che vedono in questo nuovo scenario una vera e propria distruzione della “sovrastruttura romantica connessa all’artista”. Tuttavia, allo stesso tempo, altre correnti danno molta importanza all’utilizzo del pc, anche perché senza quello oggi non avremmo generi diventati importantissimi come per esempio la musica elettronica.

Ecco che, quindi, c’è anche la possibilità che l’IA avrà la grande opportunità di rimodellare il settore lasciando la libertà di seguire strade artistiche e creative ancora sconosciute. Un dato certo è che il cambiamento, per definizione, all’uomo fa paura: dal vinile allo streaming, dall’elettronica ai generi d’avanguardia, dal rock all’hip-hop, o anche dalla musica tradizionale al rock ‘n’ roll: tutti stravolgimenti che inizialmente creavano perplessità ma che poi si sono rivelati cambiamenti epocali e segnanti.

La sensazione degli addetti ai lavori è, più in generale, che l’impatto dell’IA sull’industria discografica rappresenterà una maggiore accessibilità ma soprattutto una maggiore efficienza sul lavoro di produzione. Non pigrizia o inerzia, ma elevazione intellettuale a nuove tecnologie e dispositivi. Strumenti che, senza il romanticismo del compositore, lavorerebbero “a metà”.

Condividi la tua opinione