La Lettura, 4 novembre 2023
Musica un tanto al metro
«Non avete paura, voi compositori? L’intelligenza artificiale, in un batter d’occhio, scrive già musica perfetta!». Sì, in effetti, qualcosa sta accadendo. Ma non per chi compone canzoni, musica classica, jazz, insomma brani destinati a essere eseguiti da musicisti in carne ed ossa. Dovrebbero agitarsi invece gli autori di musica di sottofondo, di pezzi destinati ad accompagnare video e podcast, di lavori prevedibili, codificati, realizzati con suoni digitali, perfettamente intercambiabili tra loro e rispetto ai quali registi e produttori finora avevano la «seccatura» di dover rivolgersi a un autore al quale pagare royalties.
Ecco, l’intelligenza artificiale, negli ultimi mesi, a chi ha bisogno di musica di questo genere ha offerto un’alternativa. E, benché i sistemi siano migliorabili, a suo modo si tratta di una piccola rivoluzione perché ora anche chi non sa nulla ma proprio nulla di note, strumenti, strutture formali e pentagrammi può costruirsi la propria tappezzeria sonora (di questo si tratta) senza particolare sforzo. Certo, esistevano già app che permettevano di assemblare in modo intuitivo tasselli preconfezionati, scegliendo una linea di basso, un giro armonico, un pattern per le percussioni e poi sovrapponendo le diverse tracce sino a creare il prodotto finito ( GarageBand , per il mondo Apple, è una di queste, ed è talmente semplice nell’uso da essere fornita d’ufficio insieme al sistema operativo). Qualcuno però doveva decidere quali tessere utilizzare per il mosaico, verificando che la batteria avesse un ritmo pertinente rispetto allo stile del brano, studiando quante battute riempire con il modulo A e quante con il modulo B, quale introduzione scegliere, dove posizionare il ritornello, dove il bridge e così via. Serviva qualcuno che componesse, nel senso etimologico (dal latino componere, mettere insieme), magari senza particolare talento ma con una conoscenza del linguaggio musicale, dei suoi snodi, della sua logica.
Ora, con webapp e piattaforme basate sull’intelligenza artificiale, questi passaggi sono diventati improvvisamente obsoleti. Perché una volta scelto il genere entro il quale ci si vuole muovere (hip-hop, ambient, latin, rhythm and blues, indian, dark reggaeton…) oppure il mood che il brano deve suggerire (calmo, felice, depresso, energico, spaventoso, trionfale…) e regolata la durata desiderata e, volendo, la tonalità, i sistemi provvedono a generare quanto richiesto, producendo un pezzo tecnicamente originale, libero da royalties, che si può utilizzare immediatamente nel proprio video, podcast o progetto multimediale, giusto sottoscrivendo un abbonamento al sito, se si vogliono sbloccare funzioni sofisticate. Potete testare voi stessi Soundful, Splash Pro, Beatoven, Mubert, Amadeus Topline e altri sistemi ormai alla portata di tutti, con la possibilità, per alcuni, di limitarsi addirittura a una descrizione testuale di ciò che si desidera, ordinando cose come «una musica allegra, veloce, che duri 1’47” e abbia influenze latin e low fi».
E come fanno, i software, a generare musica? Beh, partono da altra musica. Per ogni genere, per ogni mood, esistono schemi formali che gli algoritmi ricavano analizzando brani esistenti, tipo: di quante sezioni è composto, quante battute ci sono nella prima parte; quante nella seconda, che relazione tonale esiste tra le due e così via. Lo stesso viene fatto con le possibili successioni armoniche, arrivando a definire quali accordi sia bene accostare tra loro e quali no. E quindi, in modo analogo, si procede a una deduzione statistica sulla velocità migliore, sugli strumenti più usati, sui frammenti melodici, sui riff, sulle formule di apertura e di chiusura e così via. Così che, chiedendo al software ciò che si desidera, il risultato è quanto meno allineato in linea di principio con le aspettative; e, comunque, nella maggior parte dei casi, si presta a modifiche da parte dell’utente, che si possono realizzare sulle webapp in modo intuitivo, né più né meno di come facciamo editando una foto scattata sullo smartphone.
Viene fuori buona musica? No, decisamente no. Ma ci si trova in mano qualcosa che, collocato in sottofondo, non è molto diverso da ciò che i compositori di genere facevano, sino a poco tempo fa, assemblando tasselli. Anche perché il procedimento, in questo ambito, spesso partiva prendendo qualcosa a modello (tipico dei registi cinematografici che si rivolgevano al compositore di colonne sonore era dire: «Scrivimi qualcosa che assomigli il più possibile a questo pezzo, che sarebbe perfetto ma non mi autorizzeranno mai a usare!»); e l’intelligenza artificiale lo fa in modo esplicito, in certi casi proponendo persino di variare uno specifico brano di uno specifico autore, preso come modello. Per cui meno ci si allontana dall’originale – che sia una certa canzone di Elton John o l’idea astratta di una canzone pop, poco importa – e più il risultato è gradevole e credibile; più si smanetta chiedendo alla piattaforma di variare questo e quello, e più si rischia che vengano generati brani che non saranno utili allo scopo.
Che cosa manca del tutto? La possibilità di generare melodie efficaci (ci prova volonterosamente la piattaforma Aiva, la più raffinata anche nel controllo delle successioni armoniche, ma con scarsi risultati), quella di far nascere ritmi che non siano totalmente prevedibili, quella di accogliere qui e là un guizzo, un’idea, una sorpresa. Ma in fondo lo scopo dichiarato dell’intelligenza artificiale applicata alla composizione è quello di produrre musica d’uso, un tanto al metro, buona per tutti i palati; e lì, come si sa, l’originalità diventerebbe soltanto un impiccio.