Riconoscimento facciale e lettura delle espressioni: marketing (e controllo)
Pepper è un robot da 1400 euro (che sta per uscire sul mercato nipponico) che è in grado di capire il suo proprietario. “Capire” in questo caso va letto come “comprenderne le emozioni”: Pepper (prodotto dalla società francese Aldebaran) è un robot pensato per vivere tra gli umani. E in questo caso “vivere” va letto veramente come “vivere”: non aspettatevi infatti che Pepper pulisca o faccia il caffè, il robottino (ha le fattezze stilizzate di un ragazzino) vi farà compagnia.
Bruno Maisonnier, alla testa di Aldebaran lo dice chiaramente al quotidiano francese Les Echos: «Pepper è pensato per vivere con gli umani perché (…) è in grado di capire la maggior parte delle emozioni: gioia, tristezza, rabbia, sorpresa, neutralità. Pepper distingue il sesso e l’età di una persona, riconosce i membri della famiglia e segue il 70% delle conversazioni» (cosa che forse non possiamo dire per tutti gli umani, ndr).
Pepper capisce se sei nervoso e adatta il suo comportamento, magari ti “suona” una canzone. Pepper (e le sue future evoluzioni) vuole essere una sorta di umanoide, in grado di vivere con gli umani, appunto.
Alla base di questa ambizione c’è lo sviluppo della ricerca nell’ambito delle espressioni facciali. Les Echos ha intervistato, a questo proposito, Axel Boidin, fondatore di Picxel, una società francese che si occupa di riconoscimento facciale e di lettura delle emozioni. Boidin spiega che il 55% del nostro “impatto” sulle persone, i messaggi che inviamo, arriva «dal nostro viso. Dal punto di vista psicologico la risposta emotiva si traduce in una combinazione di deformazioni del viso che fanno sì che il nostro interlocutore capisca cosa vogliamo fare e permetta di coordinare la conversazione». Secondo Boidin i robot saranno presto in grado di capire queste comunicazioni.
Sono trent’anni che la scienza lavora sulla mimica facciale, disciplina alla base della psicologia comportamentale. Paul Ekman negli anni Settanta ha catalogato il codice delle azioni facciali mettendo insieme 10mila mimiche prodotte da 43 muscoli del viso. Lo psicologo americano è considerato il massimo esperto nel campo: secondo i suoi studi le espressioni facciali sono “universali”, non dipendono quindi dalla cultura alla quale si appartiene, ma sono comuni a tutto il genere umano. L’uomo sarebbe in grado di capirne solo una piccola parte. “I robot potrebbero fare meglio?” è la domanda che sorge spontanea. Per ora no, sono in grado di riconoscerne “solo” sette: rabbia, disgusto, paura, tristezza, sorpresa, gioia e disprezzo.
Ma il futuro è ricco di promesse. Les Echos cita una start-up americana, Affectiva, che usa un database di espressioni facciali per riuscire a codificare, tramite computer, le espressioni presenti in un volto su un video. La tecnologia così ottenuta ha potenzialmente parecchie applicazioni: il vostro smarphone potrebbe capire le nostre reazioni e fare delle cose conseguenti, oppure un software di questo tipo potrebbe essere utile durante i corsi on line o, ancora, per funzionalità legate ai video giochi.
Avete visto Lie To Me?
Picxel invece studia le “micro espressioni”, quei movimenti muscolari che sono impercettibili all’occhio umano ma che esprimono uno stato d’animo profondo, una sorta di “lapsus muscolare”. Si tratta delle espressioni muscolari alla base del lavoro di Ekman. Questa tecnica può essere usata (insieme alla lettura del linguaggio del corpo) per detectare le menzogne. Ekman è stato consulente dell’Fbi e ha partecipato alla realizzazione del telefilm Lie To Me, considerato una sorta di trasposizione “pop” del suo lavoro. Naturalmente una macchina in grado di leggere le espressioni facciali – nell’ottica del lavoro di Ekman – non esiste ancora.
A cosa potrebbe servire una tecnica del genere applicata a un software? Al marketing, bellezza. E alla politica.
Degli schermi connessi nei negozi potrebbero percepire le reazioni di un cliente che sta acquistando un prodotto, oppure rispetto a una campagna politica o a una pubblicità: quale miglior sondaggio di qualità?
«Se i nostri computer avessero un software del genere potrebbero impostare la luce in funzione del nostro stato d’animo, oppure potrebbero avere un comportamento diverso se siamo arrabbiati o di buon umore», spiega Bodin à Les Echos. E poi ci sono gli usi “utili”: per esempio l’uso applicato a un’automobile potrebbe percepire la stanchezza; o ancora ai posti di blocco potrebbero notare i comportamenti “sospetti”.
Software in grado di leggere le espressioni del volto vanno in parallelo con quelli in grado di riconoscerlo, il volto. Ciascuno di noi ha un codice unico che non si può hackerare: la propria faccia. Il viso può essere usato come un pin (Apple sta lavorando a sistemi di questo genere per i suoi dispositivi, btw).
Facebook sta lavorando al riconoscimento facciale (senza per ora la velleità di lettura delle emozioni) con una tecnologia che si chiama DeepFace che pare stia per diventare operativa: questa tecnologia permetterà a Facebook di identificare ogni foto caricata sui suoi server e taggare automaticamente la persona ripresa con una percentuale di riuscita che arriva al 98%. (Creepy, ndr).
Naturalmente lo scopo di una tecnologia del genere non è quello di invadere la privacy degli utenti: lo dice Yann LeCun, che dirige il dipartimento di intelligenza artificiale di Facebook. Come funzionerà? Scienze spiega che riceveremo un allert quando una foto nostra viene caricata e che potremmo scegliere se cancellare (la faccia, non la foto) per proteggere la nostra privacy.
DeepFace comunque non è ancora in uso: e pare complicato, soprattutto rispetto alle normative sulla privacy europee, che un sistema del genere possa passare. Resta il fatto che la tecnologia esiste.
Il riconoscimento facciale così pensato è comunque già in uso: negli Usa la polizia è riuscita a identificare dei criminali grazie a questa tecnologia, oppure in alcuni casinò viene usata per individuare i clienti. Tesco, la catena di supermercati inglese, in Inghilterra vuole installare dei software per personalizzare le pubblicità.
Nessun commento
Devi fare per commentare, è semplice e veloce.