Con gli informatici alla ricerca
dei vari generi musicali perduti

Molti anni fa, all’inizio del Duemila, incontrai per la prima volta un ingegnere informatico e musicista francese, che all’epoca dirigeva i laboratori di ricerca della Sony a Parigi. Aveva trovato il mio nome in quanto autore di qualche saggio sui generi musicali, un tema allora abbastanza marginale nel dibattito musicologico, e voleva farmi delle domande. Mi chiese se secondo me era possibile determinare il genere di appartenenza di un brano musicale unicamente attraverso l’analisi automatica del file audio corrispondente a una sua registrazione. Gli risposi di no, sia perché il riconoscimento dell’appartenenza a un genere dipende da fattori contestuali che implicano una decisione personale, individuale, sia perché soltanto pochi generi oggi sono caratterizzati da uno stile musicale così ben definito che una procedura automatica lo possa riconoscere.

Gli avevo fatto l’esempio del reggae: se in un file audio siamo in grado di individuare una scansione ritmica regolare (certamente si può), e se osserviamo che in corrispondenza dei tempi deboli di una battuta ci sono forti accenti caratterizzati dalla presenza di basse frequenze (il basso, la cassa della batteria), e se il metronomo è relativamente lento, allora quello è molto probabilmente reggae e un algoritmo lo può capire. Ma come distinguere la canzone da Festival di Sanremo dalla canzone d’autore? Occorrono informazioni (perché noi umani le usiamo) che riguardano i testi, i tipi di voce, la pronuncia, gli atteggiamenti personali e l’abbigliamento dei cantanti e degli strumentisti, le aspettative del pubblico, eccetera, e all’inizio del Duemila mi sembrava che fossero aspetti molto difficili da affrontare per una procedura informatica, soprattutto se gli unici dati a disposizione erano quelli di un file audio. Anche oggi, direi.

Ma l’informatico francese era contento. Mi spiegò che se anche una percentuale ridotta di file audio fosse stata classificabile automaticamente, sui milioni che già allora erano disponibili su Internet, si sarebbe risparmiato moltissimo, in un lavoro che interessava le grandi multinazionali della rete e dell’intrattenimento (Microsoft, Sony, Google, e così via). Un risparmio di milioni di dollari. Etichettare i file audiovisuali in modo che i navigatori potessero trovare facilmente ciò che li interessava era importantissimo. Negli anni successivi si sviluppò un campo specifico di studi della computer science intorno al recupero dell’informazione musicale, Music Information Retrieval (MIR), e si cominciarono a tenere conferenze internazionali.

Uno dei temi ricorrenti era il riconoscimento automatico dei generi. I file audio (a cominciare dal notissimo mp3) contengono fra il loro dati un’etichetta, o tag, che oltre a riportare titolo, interprete e altre informazioni specifiche includono il genere; all’inizio il protocollo definito dall’industria prevedeva un elenco di 128 generi, probabilmente elaborato da qualche ragazzino californiano molto programmatore e poco musicista: fra i generi c’era “porn”, ma non c’era “canzone” (in italiano). È per questo che ancora adesso, se uno compra in rete un album di Sergio Endrigo, andando a vedere la colonna “genere” su iTunes potrebbe trovarci “blues”. Be’, erano canzoni tristi, sì… Ma chi li ha messe queste etichette, questi tags? Gli utenti, naturalmente, i “taggatori”. Almeno all’inizio.

Da qui, fra l’altro, l’esigenza di trovare un sistema più preciso e rapido. Ma nel corso degli anni, e lo si può vedere consultando gli atti delle conferenze sul MIR, il sogno di trovare un algoritmo che lavorasse solo sul contenuto audio cominciò a incrinarsi, e molti ricercatori optarono per un altro approccio, più complesso, integrando le informazioni sull’audio con quelle disponibili su Internet attraverso altri canali. Facciamo un esempio. Con una ricerca simile a quelle che si fanno normalmente su Google, ma automatizzata e dunque rapidissima e massiccia, un algoritmo può cercare tutti i riferimenti a un brano o a un artista che si trovano in Rete: voci di Wikipedia, occorrenze in articoli di giornali, blog, e-zines (riviste di fan in formato elettronico), dibattiti sui social media, eccetera.

Alla fine tutti questi dati permettono di creare una mappa concettuale riferita a quel brano o artista, e mettere in evidenza relazioni di somiglianza o prossimità con altri brani o artisti. Si va al di là dell’identificazione del genere, dello stile o della scena di appartenenza, che sono concetti che servono soprattutto a parlare di musica, e ci si avvicina a quello che gli operatori del mercato vogliono: poter suggerire all’ascoltatore e potenziale acquirente della musica che probabilmente gli/le interessa, con precisione crescente. È un meccanismo ben noto a chi fa compere su Amazon: dopo un po’ comincia a ricevere email che segnalano prodotti simili a quelli acquistati in precedenza. Ma i sistemi di raccomandazione (questo è il loro nome tecnico) sono ben sviluppati e sofisticati anche per la musica: dopo essere stati introdotti e collaudati da emittenti web come Pandora e Last.fm, oggi sono responsabili delle playlist personalizzate suggerite da servizi di streaming come Spotify e Apple Music. A proposito: sapete che lavoro fa ora quell’informatico francese? È il direttore della ricerca di Spotify.