Il regista James Marsh, premio Oscar per ‘Man on Wire’, ha ricostruito gli anni precedenti alla manifestazione della malattia, la Sclerosi laterale amiotrofica, che ha colpito il cosmologo: dal suo amore per la compagna di studi, Jane Wile, alla diagnosi della patologia che lo ha portato alla quasi totale immobilità, fino ai suoi studi sui buchi neri e sull’origine dell’universo. Con il passare del tempo, Hawking è stato costretto a comunicare con un sintetizzatore vocale, ma questo non gli ha impedito di diventare un’icona della scienza moderna: è apparso come ‘guest star’ in programmi cult come i ‘Simpson’ e ‘Futurama’, in ‘Star Trek’ e in ‘The Big Bang Teory’ e ha continuato a studiare e lavorare.
La strumentazione che ha aiutato Hawking a interfacciarsi con il mondo circostante è cambiata e si è evoluta con la sua malattia, complice l’inarrestabile progresso del settore, degli ultimi 30 anni. In un interessantissimo articolo sull’Almanacco delle Scienze delCNR, Anna Maria Carchidi ha chiesto come sia possibile utilizzare queste tecnologie nella vita di tutti i giorni e quali studi ne hanno permesso la realizzazione a Fabio Paternò, dell’Istituto di scienze e tecnologie dell’informazione (Isti) del Cnr di Pisa: “La possibilità che i contenuti vengano resi anche vocalmente e che l’utente possa quindi interagire tramite la voce si rivela utile quando il canale visivo non può essere sfruttato, come avviene, ad esempio, nell’interazione tramite lo smartphone mentre si cammina, quando si è alla guida o mentre si fa ginnastica”.
Ormai computer e macchine che operano e si muovono anche con i comandi della nostra voce non sono più così futuristici. “Al laboratorio di Human Interfaces in Information Systems (Hiis) dell’Isti-Cnr di Pisa è stata sviluppata una tecnologia capace di affrontare queste problematiche in modo da trasformare le applicazioni web grafiche, che usiamo quotidianamente, in applicazioni multimodali che sanno combinare l’uso di grafica e voce in modo dinamico, in base all’uso”, continua il ricercatore. “La tecnologia consiste in un insieme di componenti software che consentono di rilevare il contesto in cui si trova l’utente (se è fermo o in movimento o in qualche luogo particolare, ad esempio in auto) e adattare l’applicazione web originale, tramite degli script, che introducono la possibilità di rendere e interagire vocalmente con alcuni contenuti. In generale, è possibile definire quali adattamenti ottenere tramite regole che indicano quali modifiche effettuare a seconda degli eventi e delle condizioni che si verificano”.
È possibile che una macchina e un corpo diventino un tutt’uno? “Affinché ciò avvenga occorre considerare vari parametri fisiologici relativi all’uomo, rilevati tramite appositi sensori – respirazione, battito cardiaco, livello di attenzione – e aumentare automaticamente l’applicazione originale, rendendo multimodale le parti che la compongono e che possono essere rese più accessibili tramite l’uso, ad esempio, della voce”, conclude Paternò. “È chiaramente un tipo di approccio che potrebbe facilitare, per esempio, utenti che, a causa di disabilità o deficit temporanei e/o permanenti, non possono interagire con applicazioni che comunicano solo attraverso la grafica. Per essere usate indiscriminatamente è necessario che le applicazioni ‘imparino’ a modificarsi ad hoc, e ciò è possibile fornendo regole di adattamento caratterizzate da una struttura semplice e caricabile senza difficoltà. Così facendo, si può rendere una città ‘intelligente’ e in grado di adattarsi e comunicare con utenti affetti da disabilità di vario genere”.