Basta una micro espressione per tradire una (macro)emozione. La smorfia che rivela dissenso, lo sfarfallio di ciglia che tradisce un inatteso piacere. E ancora, occhi che si sgranano su una sorpresa, labbra che sputano fuoco, la fronte che si fa pensosa… Per chi sa leggerlo, il volto è una tavolozza di emozioni, paure e desideri che rivelano il nostro vero sé. Ne è sempre stato sicuro Paul Elkman, decano della psicologia americana, che nel 1972 ha sviluppato un metodo per riconoscere le emozioni che si basa sulle nostre espressioni facciali. Prima 6 emozioni “base” (rabbia, disgusto, tristezza, gioia, paura, sorpresa) poi, nel 1992, un’altra decina colte sempre attraverso i movimenti dei 36 muscoli del viso. Un prezioso lavoro di osservazione che oggi, a distanza di 50 anni, può essere svolto egregiamente da… Un algoritmo made in Italy.

Intelligenza artificiale e emozioni

Le teorie di Elkman sono alla base dello sviluppo di più di un progetto di intelligenza artificiale in grado di riconoscere le emozioni, alcuni dei quali sono venuti alla luce proprio nel nostro paese. Ne è un esempio Emotiva, startup, nata a fine 2017 che lavora su algoritmi di machine learning e computer vision che analizzano le micro-espressioni del nostro volto cogliendone il tracciato emotivo. “Le emozioni determinano molti dei nostri comportamenti” - spiega a Centodieci Andrea Sempi, co-founder di Emotiva. “Partendo dall’espressione del viso, un esperto può riconoscerle. Ma ci mette del tempo. L’intelligenza artificiale invece è molto più rapida e altrettanto efficace: ad oggi il grado di accuratezza del nostro algoritmo è del 93%”. 

Gli usi dell’intelligenza artificiale nel marketing

L’algoritmo di Emotiva, che collabora tra gli altri col Dipartimento di Computer Science dell'Università di Milano, e è stato addestrato a individuare le attivazioni muscolari su immagini di volti, quindi a riconoscere gli stati d’animo che queste tradiscono. Se vi state chiedendo a cosa serva riconoscere le nostre emozioni, potrete trovare la risposta negli spot che passano in tv, nelle confezioni dei prodotti che affollano le corsie dei supermercati. E anche in qualche prodotto televisivo di successo. L’analisi delle emozioni attraverso l’intelligenza artificiale infatti non è che l’ultimo genio uscito dalla bottiglia del marketing: si usa per valutare l’impatto emozionale di spot, packaging di prodotti, show televisivi. A essere studiati sono gruppi di utenti, di solito sui 150, scelti con criterio statistico e ai quali dopo il test visivo, viene fornito un questionario per capire se c’è rispondenza tra parole e emozioni che rivelano i loro volti. E spesso non c’è. “Non di rado si registrano degli scostamenti”, spiega Sempi. 

Il futuro? Robot in grado di capirci

Tra i clienti di Emotiva ci sono, tra gli altri, Rai e Mediaset, la Coop e importanti aziende di quasi tutti i settori merceologici. Ma per il futuro si guarda anche altrove: “L’idea è usare questa tecnologia per riconoscere le emozioni di chi non ha la possibilità di esprimerle. In corso c’è per esempio una collaborazione col Centro Enrico Piaggio, che ha sviluppato un robot umanoide che possa interagire con i bambini con disturbo dello spettro autistico”, ammette Sempi. 

E che l’uso dell’intelligenza artificiale per riconoscere le nostre emozioni sia una frontiera ancora aperta lo dimostra anche Asia, un virtual assistant capace di riconoscere gli stati d'animo di un utente e supportarlo nell’individuazione del prodotto giusto o guidarlo nella navigazione di un sito. A svilupparlo è stata QuestIT, altra azienda italiana, specializzata in tecnologie di intelligenza artificiale. Anche il loro lavoro parte dagli assunti di Paul Elkman, che a questo punto chissà se 50 anni fa avrebbe immaginato che le sue ricerche avrebbero finito per dare un’intelligenza ai robot.