Nuovo A.I. può identificare la canzone che stai ascoltando leggendo le tue onde cerebrali

canzone che identifica ai
Krishna P. Miyapuram

Da ” Don’t Stop Believin ‘ ” di Journey a ” Bohemian Rhapsody ” dei Queen a ” Can’t Get You Out Of My Head ” di Kylie Minogue, ci sono alcune canzoni che riescono a insinuarsi con successo nei nostri canali uditivi e prendere residenza nel nostro cervello. E se fosse possibile leggere i segnali del cervello e usarli per indovinare con precisione quale canzone sta ascoltando una persona in un dato momento?

Questo è ciò su cui hanno lavorato i ricercatori del dipartimento Human-Centered Design della Delft University of Technology nei Paesi Bassi e del dipartimento di Scienze cognitive dell’Indian Institute of Technology Gandhinagar. In un recente esperimento, hanno dimostrato che è assolutamente possibile e le implicazioni potrebbero essere più significative di quanto si potrebbe pensare.

Per lo studio, i ricercatori hanno reclutato un gruppo di 20 persone. e ha chiesto loro di ascoltare 12 canzoni usando le cuffie. Per aiutarli a concentrarsi, la stanza è stata oscurata e i volontari bendati. Ciascuno era dotato di un cappuccio per elettroencefalografia (EEG) in grado di rilevare in modo non invasivo l’attività elettrica sul cuoio capelluto mentre ascoltano le canzoni.

Questi dati cerebrali, insieme alla musica corrispondente, sono stati quindi utilizzati per addestrare una rete neurale artificiale per poter identificare i collegamenti tra i due. Quando l’algoritmo risultante è stato testato su dati che non aveva visto prima, è stato in grado di identificare correttamente la canzone con una precisione dell’85%, basata interamente sulle onde cerebrali.

“Le canzoni erano un mix di canzoni occidentali e indiane, e includevano diversi generi”, ha detto a Digital Trends Krishna Miyapuram , assistente professore di scienze cognitive e informatica presso l’Indian Institute of Technology Gandhinagar. “In questo modo, abbiamo costruito un campione rappresentativo più ampio per la formazione e il test. L’approccio è stato confermato ottenendo precisioni di classificazione impressionanti, anche quando abbiamo limitato i dati di addestramento a una percentuale inferiore del set di dati “.

Menti che leggono, macchine da allenamento

Questa non è la prima volta che i ricercatori hanno dimostrato che è possibile effettuare dimostrazioni di “lettura del pensiero” che renderebbero geloso David Blaine, utilizzando tutti i dati EEG. Ad esempio, i neuroscienziati dell’Università canadese di Toronto Scarborough hanno precedentemente ricostruito immagini basate sui dati EEG per ricreare digitalmente le immagini del viso memorizzate nella mente di una persona. La ricerca precedente di Miyapuram include un progetto in cui i dati EEG sono stati utilizzati per identificare i filmati visualizzati dai partecipanti, ciascuno destinato a provocare una diversa risposta emotiva.

canzone che identifica ai
Krishna P. Miyapuram

È interessante notare che questo ultimo lavoro ha mostrato che gli algoritmi che si sono dimostrati molto efficaci nell’indovinare le canzoni ascoltate da un partecipante, dopo essere stati addestrati sul loro cervello specifico, non funzionerebbero così bene se applicati a un’altra persona. In effetti, “non così bene” è un eufemismo grossolano: la precisione in questi test è precipitata dall’85% a meno del 10%.

“La nostra ricerca mostra che le persone hanno esperienze musicali personalizzate”, ha detto Miyapuram. “Ci si aspetterebbe che i cervelli rispondano in modo simile elaborando le informazioni da stimoli diversi. Questo è vero per ciò che intendiamo come funzionalità di basso livello o funzionalità a livello di stimolo. [Ma] quando si tratta di musica, sono forse le caratteristiche di livello superiore, come il divertimento, a distinguere le esperienze individuali “.

Derek Lomas , assistente professore di AI positiva presso la Delft University of Technology, ha affermato che un obiettivo futuro del progetto è mappare la relazione tra le frequenze EEG e le frequenze musicali. Questo potrebbe aiutare a rispondere a domande come se una maggiore risonanza estetica sia accompagnata da una maggiore risonanza neurale.

Per dirla in un altro modo, una persona che viene “commossa” da un brano musicale mostrerà maggiori correlazioni tra la musica stessa e la risposta del cervello, rendendo possibile prevedere con precisione quanto una persona gode di un brano musicale semplicemente guardando le loro onde cerebrali? Sebbene la risposta di ognuno alla musica possa essere leggermente diversa, questo potrebbe aiutare a far luce sul motivo per cui gli esseri umani cercano la musica per cominciare.

La strada per le interfacce cervello-computer

“Per le applicazioni a breve termine [nei prossimi due anni], immaginiamo un motore di raccomandazione musicale che potrebbe essere basato sulla risposta cerebrale di una persona”, ha detto Lomas a Digital Trends. “Attualmente ho uno studente che lavora su musica generata algoritmicamente che massimizza la risonanza neurale. È piuttosto inquietante: la massima risonanza neurale non è la stessa della massima risonanza estetica. ”

canzone che identifica ai
Krishna P. Miyapuram

A medio termine, Lomas ha suggerito che potrebbe portare a potenti applicazioni per ottenere informazioni sulla “profondità dell’esperienza” di cui gode una persona che interagisce con i media. Utilizzando gli strumenti di analisi del cervello, può (e, in effetti, dovrebbe) essere possibile prevedere con precisione quanto sia profondamente impegnata una persona mentre, ad esempio, guarda un film o ascolta un album. Una misura del coinvolgimento basata sul cervello potrebbe quindi essere utilizzata per affinare esperienze specifiche. Vuoi rendere il tuo film più coinvolgente per il 90% degli spettatori? Modifica questa scena, cambia quella .

“A lungo termine – 20 anni – questo campo di lavoro può consentire metodi per trascrivere i contenuti dell’immaginazione”, ha continuato Lomas. “Ad esempio, trascrivere pensieri in testo. Questo è il grande futuro delle [interfacce cervello-computer] “.

Come ha notato Lomas, siamo ancora molto lontani dall’obiettivo finale di un’interfaccia cervello-computer. Nondimeno, un lavoro come questo suggerisce che ci sono molti gustosi frutti a pelo basso su quell’albero prima che finalmente l’abbiamo abbattuto.

Un documento che descrive questa ricerca , intitolato GuessTheMusic: Song Identification from Electroencephalography, è stato recentemente presentato al CODS-COMAD 2021.