“Ogni individuo possiede una rappresentazione unica su come vengano espresse differenti emozioni, affine all’idea di un’impronta digitale“. E’ quanto spiegato da Nicola Binetti, ricercatore della Scuola Internazionale Superiore di Studi Avanzati di Trieste (Sissa). Binetti è da poco rientrato in Italia dopo aver guidato un gruppo di lavoro alla Queen Mary University of London. Con il team il ricercatore italiano ha mappato diverse espressioni facciali umane grazie alla combinazione di algoritmi genetici. Sono stati utilizzati avatar 3D fotorealistici.
La gamma di espressioni facciali umane associate a un particolare stato emotivo non è ancora nota. Ciò dipende anche dal fatto che il numero di possibili espressioni è molto vasto. I risultati dello studio sono stati pubblicati su PNAS. Ciascuno dei 336 partecipanti ha creato l’espressione corrispondente a una particolare emozione. Grazie ad un algoritmo i partecipanti hanno potuto far evolvere i volti per raggiungere la loro espressione preferita.
L’analisi delle espressioni facciali
“In questo studio – ha riferito Binetti – ci siamo interessati a quantificare la variabilità di rappresentazioni di espressioni facciali in un’ampia rosa di partecipanti. Ognuno di noi ha ‘un’idea’ (una rappresentazione interna) di quale espressione facciale corrisponda a differenti stati affettivi, come felicità, rabbia o tristezza. La nostra abilità di comunicare ed interpretare il significato di espressioni facciali in gran parte dipende dal fatto che queste rappresentazioni sono largamente condivise all’interno della popolazione. Vale a dire, persone diverse hanno idee sovrapponibili sull’aspetto di un espressione che comunica felicità o rabbia”.
“Ci sono però anche differenze, ad esempio spiegate da fattori culturali o clinici (ad es occidentali vs asiatici, o individui affetti da depressione vs soggetti di controllo). Dal nostro studio è emerso che questa variabilità nelle rappresentazioni di emozioni è riscontrabile su una scala individuale, dove nonostante le similitudini tra persone differenti, ogni individuo possiede una rappresentazione unica su come vengano espresse differenti emozioni, affine all’idea di un’impronta digitale“.
L’utilizzo di algoritmi
Per realizzare questa ricerca “abbiamo utilizzato – ha precisato l’esperto – una tecnica fondata su algoritmi genetici per consentire a persone di modellare espressioni facciali raffigurate da un volto artificiale (3D), che rappresentano stati di felicità, tristezza, rabbia o paura. Algoritmi genetici sono ispirati a meccanismi di selezione naturale, dove vengono selezionati ed evoluti tratti presenti in una popolazione. Possiamo prendere ad esempio l’allevamento di cani, dove a partire da una serie di esemplari, possiamo enfatizzare o rimuovere alcuni tratti presenti nel gruppo selezionando quali animali possono riprodursi. Un criterio simile è stato adottato con i volti artificiali presentati ai nostri partecipanti”.
“A partire da una serie di 10 volti raffiguranti diverse espressioni, i partecipanti selezionano quali volti hanno una mimica compatibile con l’espressione che intendono modellare (ad es un volto che esprime rabbia). Queste selezioni determinano quali tratti espressivi saranno incrociati e quali “geni” verranno propagati alla generazione futura (una nuova serie di 10 volti generati dall’algoritmo). Questo processo si ripete più volte, dove nell’ultima generazione le espressioni convergono sulla rappresentazione che quel partecipante ha di un particolare stato affettivo“.
Le conclusioni dello studio
Con questa metodologia “abbiamo osservato – ha precisato il ricercatore – una sostanziale variabilità nelle rappresentazioni di emozioni nella popolazione testata. Ogni persona ha un’idea propria su quali siano le espressioni facciali che comunicano specifiche emozioni. Queste differenze hanno implicazioni sul versante percettivo, dove una serie di espressioni facciali possono essere interpretate differentemente in funzione di questa variabilità nelle rappresentazioni tra persone differenti. Una stessa espressione potrebbe essere riconosciuta come triste da parte di un individuo, o come impaurita da parte di un altro, in funzione di diversi modi di intendere il come queste emozioni vengono espresse”.
“Questi dati – ha concluso il ricercatore – hanno implicazioni importanti per comprendere i meccanismi, e le differenze individuali, alla base delle nostre abilità di riconoscere, discriminare e rispondere all’informazione affettiva espressa tramite la mimica facciale”.