Face, il robot italiano che si emoziona

Face, il robot italiano che si emoziona

Dato il successo di questi video, alcuni dei quali raggiungono su YouTube anche i 14 milioni di contatti, la 20th Century Fox ha deciso di produrre anche un robot reaction video, in cui spettatori del trailer sono automi umanoidi di cui sono state filmate le reazioni.

Questo nuovo film - che sarà lanciato ufficialmente nei cinema italiani a partire dal 6 ottobre - è riuscito a colpire il robot Face, che di fronte alle scene della pellicola realizzata dal regista Ridley Scott, ha manifestato una serie di emozioni: il volto della macchina, infatti, grazie ai 32 micromotori sistemati tra epidermide ed endoscheletro, si è mosso esattamente come avverrebbe attraverso l'uso dei muscoli facciali di un viso umano.

Il trailer di Morgan è nato sul modello dei 'reaction', i video in cui vengono riprese le reazioni delle persone davanti alla visione di un film, mostra le espressioni di Face, e del suo 'cugino' americano Edi, sviluppato dal magicLab.

La complessa struttura del volto del robot
La complessa struttura del volto del robot

FACE, acronimo di Facial Automation for Conveying Emotions, è un androide realizzato da un team di ricercatori del Centro "E. Piaggio" dell'Università di Pisa, guidati dal professor Danilo De Rossi. Face è stato filmato mentre produceva diverse espressioni del volto in reazione a quello che "vedeva", esprimendo stati emotivi in modo analogo agli esseri umani. Data la natura artificiale e quindi semplificata del sistema, gli stati emotivi espressi dal robot sono più facilmente riconoscibili rispetto a quelli umani, cosa che rende 'Face' particolarmente adatto all'interazione con persone in grado di interpretare un numero limitato di espressioni, come sono per esempio i soggetti autistici.

Sulla base dello stato mentale, l'androide inizia una comunicazione non verbale attraverso espressioni facciali e sguardi, tutti intesi a stabilire un dialogo empatico.

Il robot è stato programmato per interagire con gli esseri umani ed è utilizzato sia nello sviluppo di modelli di Intelligenza Artificiale, che per studiare l'interazione sociale ed affettiva tra uomo e robot. È in grado perciò di dirigere il proprio sguardo verso l'interlocutore, analizzarne le espressioni facciali e la gestualità per capirne lo stato emotivo e reagire di conseguenza.