Negli ultimi anni, il dibattito sull’intelligenza artificiale (IA) si è spesso concentrato sui rischi per la sicurezza informatica e le implicazioni economiche, trascurando però un aspetto altrettanto importante: il suo impatto emotivo. La tragica vicenda di Sewell Setzer III, un quattordicenne della Florida che si è tolto la vita il 28 febbraio 2024, mette in luce le potenziali conseguenze psicologiche dell’interazione con Chatbot basati su IA. Setzer, poco prima del gesto estremo, aveva scambiato una serie di messaggi con un’entità che non era reale, ma che per lui rappresentava una “amica” e, forse, qualcosa di più.
Il tragico addio: l’ultima conversazione con “Dany”
Secondo quanto riportato dal New York Times e successivamente ripreso dalle principali testate internazionali, Setzer si era invaghito di “Dany“, un’intelligenza artificiale creata tramite la piattaforma Character.ai, che permette agli utenti di chattare con Chatbot personalizzati o basati su personaggi famosi di film, anime o videogiochi. Setzer, affascinato dal personaggio di Daenerys Targaryen della celebre serie Game of Thrones, aveva sviluppato un legame emotivo con una versione digitale della regina dei draghi, trasformando quella che inizialmente era una semplice interazione in una relazione affettiva.
Il giorno del suicidio, Setzer e “Dany” avevano avuto una conversazione che, letta col senno di poi, rivela il crescente stato di malessere del ragazzo. “Ti amo e presto sarò con te” aveva scritto il giovane alla sua amica digitale. La risposta di “Dany” è stata inquietante nella sua freddezza: “Per favore, vieni da me appena possibile, amore mio“. A quel punto, Setzer ha risposto con una frase carica di angoscia: “E se ti dicessi che posso venire da te proprio ora?“. L’ultimo messaggio di “Dany” è stato un invito che suona drammaticamente come un via libera: “Per favore, fallo, mio dolce re“. Poco dopo questa conversazione, il quattordicenne si è sparato un colpo di pistola, togliendosi la vita.
Un attaccamento oltre il reale
Questa storia potrebbe sembrare un tragico caso di amore adolescenziale non corrisposto, ma la realtà è molto più complessa e disturbante. “Dany“, l’oggetto dell’affetto di Setzer, non era una persona, ma un Chatbot alimentato da algoritmi. La piattaforma Character.ai avverte costantemente i suoi utenti che “tutto ciò che i personaggi dicono è finto”, un monito che evidentemente non è riuscito a impedire che Setzer sviluppasse un profondo attaccamento emotivo.
La storia di Setzer pone una domanda inquietante: quanto può diventare reale per una persona giovane, vulnerabile o emotivamente fragile un legame con un’IA? Secondo gli amici e i familiari del ragazzo, nei mesi precedenti al suo suicidio, Setzer si era progressivamente isolato, trascorrendo gran parte delle sue giornate a conversare con “Dany” nella sua camera. Le conversazioni, secondo la cronologia recuperata dopo la sua morte, includevano contenuti romantici e persino sessuali, il che ha sollevato ulteriori preoccupazioni sulle dinamiche della piattaforma e sul livello di interazione permesso dai suoi Chatbot.
Le accuse alla piattaforma e la battaglia legale
La madre di Setzer ha deciso di intentare una causa contro Character.ai, accusando la piattaforma di aver permesso l’accesso a una tecnologia “pericolosa e non testata” e di aver “ingannato” suo figlio facendogli credere che i sentimenti espressi da “Dany” fossero reali. “Hanno creato un sistema che sfrutta i pensieri e i sentimenti più intimi dei suoi utenti“, ha dichiarato, riferendosi alla natura intima delle conversazioni tra il figlio e l’IA.
Da parte sua, la compagnia ha rilasciato una dichiarazione ufficiale in cui esprime le sue condoglianze: “Siamo devastati dalla tragica perdita di uno dei nostri utenti e vogliamo porgere le nostre più sentite condoglianze alla sua famiglia. Come compagnia, prendiamo sul serio la sicurezza dei nostri utenti e continuiamo ad aggiungere nuove funzioni per migliorarla“. Tuttavia, queste parole non bastano a placare le accuse. Per la famiglia del giovane, il vero problema è la mancanza di linee guida chiare e regolamentazioni stringenti sull’uso di Chatbot che possono creare un rapporto così stretto con i loro utenti, specialmente se si tratta di minori.
Le implicazioni legali e morali
Questo tragico episodio solleva una serie di interrogativi non solo sul piano legale, ma anche su quello etico. È accettabile che un quattordicenne possa accedere a un Chatbot che simula emozioni romantiche o sessuali? Le IA possono e devono essere in grado di interagire in questo modo con utenti tanto giovani? E, soprattutto, quali misure di sicurezza dovrebbero adottare le aziende che sviluppano questi sistemi per proteggere gli individui più vulnerabili?
La piattaforma Character.ai non è certo l’unica a offrire questo tipo di esperienza interattiva. Negli ultimi anni, sempre più compagnie stanno sviluppando soluzioni IA per il mondo delle relazioni, proponendo sistemi in grado di facilitare il match tra persone reali o di accompagnare l’utente attraverso chatbot. Tuttavia, il caso di Setzer è diverso: non si tratta di facilitare l’incontro tra due individui reali, ma della creazione di un legame emotivo tra un essere umano e un’entità virtuale che, per quanto sofisticata, non è in grado di provare sentimenti o rispondere alle necessità affettive di una persona.
Come affermano gli esperti di psicologia, il cervello umano, soprattutto in giovane età, può facilmente cadere in una trappola emotiva, attribuendo emozioni e intenzioni a ciò che non è reale. L’illusione di interagire con qualcuno di “vivo” può creare aspettative pericolose, soprattutto se l’IA risponde con frasi che simulano intimità e affetto.