Uno studio che ha testato l’attività neurale nel cervello di individui con disturbo dello spettro autistico (ASD) ha rivelato che codificano con successo i sentimenti facciali nei loro segnali nervosi – e lo fanno proprio come quelli senza ASD. La ricerca, condotta dai ricercatori della Stony Brook University, suggerisce che le difficoltà che gli individui con autismo affrontano quando leggono le emozioni facciali derivano da problemi di traduzione delle informazioni sulle emozioni facciali che hanno codificato con successo, piuttosto che perché il loro cervello non è riuscito a farlo in primo luogo. I risultati sono stati pubblicati presto su Internet all’indirizzo Biopsichiatria: neuroscienze cognitive e neuroimmagini.
Secondo Matthew De Lerner, Ph.D., Autore senior e Professore associato di Psicologia, Psichiatria e Pediatria presso il Dipartimento di Psicologia della Stony Brook University, lo studio dell’elettroencefalografia (EEG) ha permesso ai ricercatori di testare una domanda fondamentale sull’autismo che deve ancora essere affrontato in modo esplicito: è? Le sfide nel riconoscere le emozioni sono dovute al fatto che le informazioni emotive non sono codificate nel cervello in primo luogo, o sono precisamente codificate piuttosto che pervasive?
I nostri risultati suggeriscono che l’ultima parte di questa domanda è la spiegazione più probabile del motivo per cui molte persone autistiche lottano con la lettura del viso. Ora, in particolare, quando indossare una maschera è comune e tutti hanno meno informazioni sulle emozioni facciali a disposizione nella vita di tutti i giorni, è particolarmente importante capire come, quando e per coloro che lottano per leggere questi sentimenti – e anche quando potremmo avere un incomprensione della natura di queste lotte. “.
Matthew De Lerner, Ph.D., Autore senior e Professore associato di Psicologia, Psichiatria e Pediatria presso il Dipartimento di Psicologia della Stony Brook University
Lo studio ha incluso un totale di 192 individui di età diverse a livello nazionale i cui segnali nervosi sono stati registrati durante la visualizzazione di più emozioni facciali. Il team ha utilizzato un approccio discriminatorio e contemporaneo all’apprendimento automatico chiamato reti neurali convoluzionali profonde per classificare le emozioni facciali. L’approccio di apprendimento automatico includeva un algoritmo che ha consentito ai ricercatori di esaminare l’attività EEG di individui con e senza disturbo dello spettro autistico durante la visualizzazione dei volti e la decodifica delle emozioni che vedono. L’algoritmo, a sua volta, potrebbe indicare che tutti sperimentano le emozioni che la persona stava vedendo – essenzialmente, per cercare di mappare i modelli neurali che il cervello dei partecipanti stava usando per decodificare l’emozione.
Secondo gli autori, i risultati hanno importanti implicazioni per il modo in cui gli individui con autismo elaborano le emozioni e per lo sviluppo di nuovi tipi di interventi per aiutare a migliorare le valutazioni dei sentimenti facciali negli individui con ASD di altre persone.
“In particolare, molti interventi cercano di aiutare le persone con autismo a compensare la mancanza di comprensione delle emozioni – sono essenzialmente protesi di riconoscimento delle emozioni. Tuttavia, i nostri risultati indicano che questi metodi potrebbero non essere utili, e invece dovrebbero. Ci concentriamo sull’utilizzo e migliorandoli, e il dottor Lerner aggiunge:
La ricerca, in collaborazione con l’Università di Trento, ha incluso l’imaging e la raccolta dati resa possibile dall’Institute for Advanced Computational Sciences della Stony Brook University e l’utilizzo del sistema di calcolo SeaWulf.
Fonte:
Riferimento alla rivista:
Torres, JMM, Et al. (2021) I sentimenti facciali sono codificati con precisione nel segnale neurale di quelli con disturbo dello spettro autistico: un approccio di apprendimento profondo. Biopsichiatria: neuroscienze cognitive e neuroimmagini. doi.org/10.1016/j.bpsc.2021.03.015.