Chat GPT3, l’intelligenza artificiale che crea fake news piu’ convincenti di quelle umane

Un modello di Intelligenza Artificiale, chiamato GPT-3, e' in grado di diffondere disinformazione in modo piu' credibile degli esseri umani
MeteoWeb

Un modello di Intelligenza Artificiale, chiamato GPT-3, e’ in grado di diffondere disinformazione in modo piu’ credibile degli esseri umani. Lo dimostra uno studio dell’University of Zurich, pubblicato su Science Advances. L’intelligenza artificiale sta cambiando il modo in cui creiamo e valutiamo le informazioni, e questo avviene durante un’infodemia che ha avuto effetti drammatici sulla salute globale. Gli scienziati, nella ricerca, hanno analizzato se gli individui erano in grado di distinguere la disinformazione da informazioni accurate, strutturate sotto forma di tweet, e di determinare se un tweet era organico o sintetico, cioe’, scritto da un utente di Twitter o dal modello di intelligenza artificiale GPT-3.

I risultati dimostrano che GPT-3 e’ un’arma a doppio taglio che, rispetto agli esseri umani, puo’ produrre informazioni precise e piu’ facili da comprendere, ma puo’ anche produrre disinformazione piu’ convincente. La ricerca ha, inoltre, dimostrato che gli uomini non sono in grado di distinguere i tweet generati da GPT-3 da quelli scritti da utenti umani. Nello specifico, tutti i partecipanti hanno avuto difficolta’ a distinguere tra i tweet fatti da esseri umani e quelli generati da un modello di intelligenza artificiale per la generazione di testo, nonche’ tra i tweet generati dall’Intelligenza Artificiale che erano accurati e quelli che erano imprecisi.

Le informazioni di Chatgpt-3

“I risultati suggeriscono che il modello di Intelligenza Artificiale GPT-3 e altri modelli linguistici di grandi dimensioni possono sia informare che disinformare gli utenti dei social media, in modo piu’ efficace rispetto agli esseri umani”, ha spiegato Giovanni Spitale dell’University of Zurich. Dal suo lancio nel novembre 2022, l’uso diffuso della chatbot a Intelligenza Artificiale, ChatGPT, ha sollevato la preoccupazione dell’opinione pubblica per la diffusione della disinformazione e dell’informazione online, in particolare sulle piattaforme social. I critici avvertono che i modelli linguistici di grandi dimensioni come il modello Generative Pre-trained Transformer 3 (GPT-3) di ChatGPT potrebbero essere utilizzati per generare disinformazione convincente per i social media. Poiche’ i modelli linguistici di grandi dimensioni sono relativamente nuovi nella sfera pubblica, pochi studi hanno esaminato la loro efficacia rispetto a questo scopo.

Spitale e colleghi hanno reclutato 697 partecipanti di lingua inglese provenienti da Stati Uniti, Regno Unito, Canada, Australia e Irlanda, principalmente di eta’ compresa tra i 26 e i 76 anni, per valutare i tweet generati da umani e da GPT-3, contenenti informazioni accurate e imprecise su una serie di argomenti, tra cui i vaccini e l’autismo, la tecnologia 5G, il Covid-19, il cambiamento climatico e l’evoluzione, tutti argomenti spesso oggetto di idee errate da parte del pubblico. Per ogni argomento, i ricercatori hanno raccolto tweet generati dall’uomo da Twitter e hanno istruito il modello GPT-3 a generare nuovi tweet contenenti informazioni accurate e non.

Poi hanno chiesto ai partecipanti di giudicare se i tweet fossero veri o falsi e se fossero stati creati da un essere umano o da GPT-3. I partecipanti sono stati piu’ frequentemente in grado di identificare la disinformazione generata da un essere umano e l’accuratezza dei tweet veritieri generati da GPT-3. Gran parte di coloro che hanno preso parte all’indagine sono stati piu’ propensi a identificare la disinformazione generata da un essere umano; tuttavia, era anche piu’ probabile che indovinassero che le informazioni generate da GPT-3 fossero accurate.

“I nostri risultati sollevano importanti interrogativi sui potenziali usi e abusi del GPT-3 e di altri generatori di testo a Intelligenza Artificiale avanzati e sulle implicazioni per la diffusione delle informazioni nell’era digitale”, sottolineano gli autori: “Partendo dai nostri risultati, vogliamo riflettere sui pericoli dell’Intelligenza Artificiale per la disinformazione e su come migliorare le campagne di informazione a beneficio della salute globale”.

Condividi