Apple lavora per leggere l’umore e le emozioni dei suoi utenti

MeteoWeb

Apple ha recentemente acquistato una startup che potrebbe completamente rivoluzionare l’approccio che gli smartphone hanno rispetto alle nostre espressioni ed emozioni. Stiamo parlando di Emotient, che ha realizzato un software in grado di leggere ed interpretare le emozioni sul volto di chi ha di fronte. Una tecnologia che veniva solitamente acquistata da aziende esperte di marketing che studiavano i comportamenti degli utenti in base agli spot che andava in onda. Emotient è riuscita ad affinare questa sua tecnologia, completamente brevettata, per acquisire, analizzare e catalogare fino a 100.000 espressioni al giorno.

smartphone rubatoMa come funziona? Sembra semplice ma in realtà non lo è! Forse è anche questa la chiave del suo successo. Una videocamera registra i comportamenti di una platea di utenti che guardano un determinato oggetto o video, interroga una intelligenza artificiale ed, attraverso una serie di algoritmi, la postura dei muscoli e le espressioni, ci restituisce il nostro stato d’animo. Non sappiamo come Apple voglia utilizzare questo tipo di tecnologia, potrebbe studiare ancora di più i suoi clienti per capire come migliorare la rotta dei suoi prodotti, oppure, Tim Cook ed i suoi, potrebbero integrarla direttamente nel sistema operativo.

Ma non c’è un problema? Non si dovrebbero mettere in guardia le persone di cui si vuole leggere ed interpretare le emozioni? Soprattutto se questo è fatto per fini di marketing. Anche Facebook e Google starebbero lavorando ad un sistema di riconoscimento facciale, i primi per taggare automaticamente gli amici nelle foto, il secondo per la classificazione automatica dei file dentro il cloud, o almeno queste sono le versioni ufficiali.

Condividi