Dai robot solo bugie bianche, lo studio

Questi i risultati di uno studio pubblicato sulla rivista Frontiers in Robotics and AI e guidato dall’americana George Mason University   
MeteoWeb

All’esperimento sociale condotto dall’americana George Mason University e pubblicato sulla rivista Frontiers in Robotics and AI hanno partecipato 550 persone il cui compito principale era quello di valutare quale fosse il grado di tollerabilità delle menzogne riportate da un robot posto al loro servizio e se tale circostanza una volta verificatasi potesse essere in qualche modo giustificata.

I casi di interazione uomo macchina sottoposti ai partecipanti si dividono in diversi scenari tra i quali:

  • Un robot Colf che che nasconde il fatto di stare registrando tutto ciò che accade intorno a lei;
  • Un robot-commesso che chiede di farsi sostituire da un umano affermando di essere stanco
  • Un robot-infermiere che rassicura la sua paziente malata di Alzheimer dicendole che il marito tornerà presto a casa

Ale termine dello studio le critiche più accese sono state quelle nei riguardi del Robot-colf che registrava senza comunicarlo agli utenti, comportamento considerato disdicevole ed ingannevole oltre che una aperta violazione della propria privacy.

Anche il comportamento del Robot-commesso non è stato apprezzato ricevendo la critica di quasi la metà dei partecipanti all’esperimento.

L’unica bugia che è stata approvata quasi all’unanimità dai partecipanti è stata quella rivolta dal Robot Infermiere alla propria paziente affetta da Alzheimer, tale bugia è stata considerata utile a non provocare alla paziente un dolore inutile se non addirittura controproducente.

Il capo ricercatore Andres Rosero ha affermato: “Penso che dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati in modi che l’utente, e forse lo sviluppatore, non avevano previsto” – continua Rosero – “Abbiamo già visto esempi di aziende che utilizzano i principi del web design e i chatbot basati sull’Intelligenza Artificiale in modi progettati per spingere gli utenti a compiere una determinata azione. Abbiamo bisogno di regole che ci proteggano da questi comportamenti ingannevoli”.

Nelle conclusioni dello studio viene infine evidenziato come “questo lavoro fa progredire la psicologia morale nelle interazioni uomo-robot esplorando le potenziali conseguenze della scoperta umana dell’inganno dei robot e le potenziali norme sociali che potrebbero essere evocate come strategia di riparazione della fiducia di fronte alla perdita di fiducia e al giudizio morale.”

Condividi