I risultati della ricerca in uscita su The Journal of Neuroscience. Voce felice o viso sorridente? Scoperte le aree cerebrali che rappresentano le emozioni degli altri ad un livello astratto.
Noi umani siamo molto abili nel riconoscere gli stati emotivi degli altri, captando i numerosi segnali non verbali. Rapidamente deduciamo stati mentali anche complessi da una grande quantità di stimoli visivi e uditivi, come una smorfia, una risata o una postura del corpo. Ci sono regioni cerebrali che rappresentano questi stati mentali indipendentemente dai segnali sensoriali percepiti? Un gruppo di neuroscienziati delle Università di Trento, Ginevra e Durham hanno cercato le aree cerebrali nelle quali le risposta alle emozioni percepite attivassero schemi di attività neurale indipendenti dalle modalità sensoriali di presentazione delle emozioni stesse (corpi, facce, voci). Usando risonanza magnetica funzionale, i ricercatori hanno analizzato le risposte neurali alle cinque emozioni di base (rabbia, disgusto, paura, felicità, tristezza) presentate usando diverse modalità sensoriali. L’analisi ha rivelato nella corteccia prefrontale mediale (MPFC) e nel solco temporale superiore sinistro modelli di attivazione neurale specifici per l’emozione percepita, indipendentemente dalla modalità sensoriale di presentazione.
Queste sono aree il cui coinvolgimento nell’elaborazione delle emozioni e nell’attribuzione di stati mentali era già noto. Quanto ancora non si sapeva è che il nostro cervello ha una rappresentazione di alcuni stati mentali indipendente dalla modalità sensoriale nella quale vengono presentati e percepiti.
Questi risultati sono stati pubblicati sulla rivista The Journal of Neuroscience.
“Abbiamo trovato che la corteccia prefrontale mediale e il solco temporale superiore sinistro rappresentano le categorie di emozioni ad un livello astratto e in modo indipendente dalla modalità di percezione dell’emozione. Questo ci fa pensare che queste aree giochino un ruolo fondamentale nella comprensione e nella categorizzazione degli stati emotivi altrui” spiega Marius Peelen del CIMeC, primo autore dell’articolo.
L’esperimento. Ai 18 volontari sono stati mostrati dei video, recitati da 4 attori (2 uomini e 2 donne), dei quali erano visibili di volta in volte le sole espressioni facciali o i soli movimenti del corpo (con il viso ritagliato). Gli stimoli sonori consistevano in brevi (circa 1 secondo) interiezioni non linguistiche (“ah!”). Tutti gli stimoli utilizzati (nelle tre modalità) esprimevano una delle cinque emozioni di base, come indicato da precedenti studi comportamentali. Immediatamente dopo la presentazione di ogni stimolo, ai soggetti è stato chiesto di valutare l’intensità dell’espressione emotiva percepita, su una scala da 1 a 3.
I risultati. I ricercatori hanno trovato nella MPFC e nel solco temporale superiore sinistro modelli di attivazione neurale associati alle varie emozioni (in modo indipendente da come venivano presentate, con voci, visi o parti del corpo). Queste attivazioni neurali relative alla stessa emozione – anche se percepita con diversi tipi di stimoli - sono più simili tra di loro di quanto non lo siano gli schemi di attivazione relativi ad emozioni diverse tra loro. Insomma, tali aree elaborano il “contento” di uno stimolo, indipendentemente dalle sue caratteristiche sensoriali.
Il futuro. Il passo successivo consiste nel disambiguare alcune questioni. La prima. Le aree attivate nel caso delle cinque emozioni di base rappresentano anche altri stati mentali, emotivi e non? Inoltre, in che misura la specificità per le emozioni di queste aree è collegata alla esplicita valutazione delle emozioni richiesta ai soggetti? E, infine, osserveremmo la stessa attivazione di corteccia mediale prefrontale e solco temporale superiore sinistro nel caso di emozioni esperite, invece che soltanto percepite, come nel caso dello studio in questione?
Nicla Panciera - Media Relations