Gli algoritmi a scuola di musica
per capire che cosa ti piace

La ricostruzione delle abitudini di consumo di un cliente non è una pratica introdotta dal commercio elettronico. Me ne ricordo ogni volta che entro in un bar o dal panettiere e mi viene chiesto: “Il solito?”, con tutte le sue varianti (tipo: “E oggi non vuole il croissant?”). Poi sono arrivate le carte di fidelizzazione, le prime che hanno permesso di passare dalla memoria personale del commerciante e dai pettegolezzi di quartiere a un grande archivio elettronico, col quale è possibile interpretare dati su scala molto più vasta: cosicché l’Esselunga non solo sa che evidentemente mi servo anche di altri supermercati (perché non faccio la spesa lì molto spesso), ma a volte passo i fine settimana in provincia di Biella e compro la stessa marca di spaghetti che compro a Milano. Dunque non mi sono stupito quando Amazon ha cominciato a segnalarmi libri che avrebbero potuto interessarmi (ed era vero), o a dirmi che quelli che avevano comprato il tale prodotto avevano finito per acquistare il talaltro (che serviva anche a me).

I dati legati all’ascolto o all’acquisto di musica online permettono di fare le stesse cose. Una prima applicazione, sviluppata dal servizio di streaming Pandora negli Usa, consentiva proprio di creare una sequenza di brani basati sui gusti di un singolo ascoltatore sulla base degli ascolti precedenti. Gli algoritmi di Pandora estrapolavano i suggerimenti basandosi su ipotetiche somiglianze, che a loro volta erano fondate sull’identità dell’artista, del genere, dello stile, dell’epoca, e così via. Alcuni di questi dati viaggiano insieme ai file audio distribuiti sulla rete, all’interno di una fila di byte che si chiama “tag”, etichetta, e che contiene titolo, artista, album, genere, anno di pubblicazione, autori, e altro ancora. Ma alcuni di questi elementi del tag sono poco affidabili, per molte ragioni: spesso l’attribuzione a un genere è “user generated”, determinata dagli utenti, e causa di equivoci.

Dunque gli enti interessati all’uso di questi dati – per lo più gli stessi fornitori di musica in rete, anche perché i dati sono molto difficilmente accessibili a chiunque altro – hanno imboccato strade diverse: in alcuni casi hanno reclutato degli “esperti” (le virgolette sono obbligatorie, perché né le loro identità né la loro formazione sono mai state rese note) che si sono impegnati in un lavoro di classificazione di massa secondo parametri vari, al fine di evitare che un appassionato di blues venisse indirizzato a un brano di Markos Vamvakaris, perché qualche “tagger” suggestionabile aveva classificato il rebetiko come blues.

Altri invece, rendendosi conto dell’enorme mole di lavoro, hanno puntato a soluzioni automatizzate. Una è quella di analizzare a tappeto, grazie ad algoritmi di ricerca della stessa natura di quelli su cui si basa Google, tutti i metadati relativi a un certo file audio. I metadati sono “dati su altri dati”, e certamente il tag di un file audio è fatto di metadati. Ma anche la voce di Wikipedia su un certo artista, album o canzone può essere usata, e così anche l’informazione che si trova su una pagina di YouTube, e così le webzines, i social media, eccetera (chi vuole approfondire legga Music Recommendation and Discovery. The Long Tail, Long Fail, and Long Play in the Digital Music Space di Óscar Celma, Springer Verlag, 2010).

Mettendo insieme tutte queste informazioni, il carattere di un certo brano può essere approssimato con maggiore accuratezza, e i suggerimenti all’ascoltatore diventare sempre più precisi. Quanto? Aspettiamo un momento. C’è anche l’altra soluzione automatizzata da considerare: quella dell’analisi dei file audio stessi, cioè del loro contenuto più strettamente musicale. Qui si tratta di scansionare con algoritmi un file ed estrarne informazioni significative, che possono riguardare il volume, il ritmo, la curva melodica, l’armonia, il timbro complessivo.

È una grande sfida: alcuni hanno pensato che con questo tipo di analisi si potesse ricavare anche il genere, altri hanno suggerito che ciò sia possibile solo nel caso di generi molto caratterizzati dal punto di vista della struttura sonora. L’orientamento che alcune ricerche hanno preso è di integrare la ricerca sui metadati con l’analisi dei dati audio. L’ostacolo che tuttora si presenta è che contrariamente al senso comune sull’onnipotenza degli strumenti di calcolo, quando si ha a che fare con miliardi di dati (ad esempio, i trenta milioni di brani diffusi da Spotify, moltiplicato per il numero di ascolti di ciascuno), per ottenere dei risultati maneggiabili in tempi non infiniti è necessario introdurre delle semplificazioni.

E lì sta il diavolo: perché semplificare nell’analisi di un file audio significa fare delle assunzioni sui parametri che contano in una media di brani, e significa dunque sottovalutare tutti i brani che non appartengono a quella media. E non è affatto sicuro che per tutti quei brani esistano metadati sufficienti da analizzare, con conseguenze che riguardano in primissimo luogo i lavoratori della musica: in un convegno recente Helienne Lindvall, musicista, giornalista del Guardian e dirigente di Auddly, una società di gestione di diritti musicali, ha reso noto che il 20% dei guadagni editoriali (di autori ed editori) relativi a brani in streaming non raggiunge coloro che ne avrebbero diritto perché mancano i metadati per identificarli. Ah, la precisione orwelliana della rete!