I ricercatori del MIT hanno creato la prima rete neuronale artificiale in grado di riconoscere i suoni come un orecchio umano. In particolare, gli scienziati si sono concentrati su due compiti uditivi: il discorso e la musica. Il loro modello si è “allenato” con migliaia di clip di due secondi, contenenti parole pronunciate da una persona oppure note musicali. Dopo molte migliaia di esempi, l’intelligenza artificiale ha imparato a svolgere il compito con la stessa precisione di un ascoltatore umano.
Lo studio, apparso ad aprile sulla rivista “Neuron”, offre anche prove che la corteccia uditiva umana è organizzata in una modalità gerarchica, molto simile alla corteccia visiva: le informazioni sensoriali di base sono elaborate subito, mentre funzioni più avanzate come il significato della parola sono “estratte” in fasi successive.
