Studio predice il rischio di intelligenza artificiale ‘cattiva’: escalation entro metà 2024

Secondo un nuovo studio, “i malintenzionati ricorreranno all’IA quasi quotidianamente per spingere contenuti tossici, lo scenario si concretizzerà prima delle elezioni USA”
MeteoWeb

Si può predire il rischio di un’intelligenza artificiale cattiva? Secondo un gruppo di ricercatori della Washington University sì, ed è più vicino di quanto si pensi. Gli esperti prevedono una “escalation dell’attività quotidiana di attori malintenzionati entro la metà del 2024, in tempo per rischiare di influenzare “le elezioni negli Stati Uniti e in altri Paesi”. Secondo gli autori del lavoro pubblicato sulla rivista ‘Pnas Nexus’, i ‘cattivi attori’ utilizzeranno sempre di più l’IA per “spingere continuamente contenuti tossici” nelle comunità, “utilizzando le prime iterazioni degli strumenti di intelligenza artificiale, poiché questi programmi hanno meno filtri progettati per impedire l’utilizzo da parte di malintenzionati e sono programmi disponibili gratuitamente, abbastanza piccoli da adattarsi a un computer portatile”.

Nel dettaglio, si legge nello studio di Neil F. Johnson e colleghi, si prevede che tali attacchi di IA ‘cattiva’ si verificheranno quasi ogni giorno entro la metà del 2024. Gli autori puntualizzano che, poiché l’intelligenza artificiale è ancora una realtà relativamente nuova, le loro previsioni sono necessariamente speculative, ma il loro vuole essere un monito e sperano che il lavoro serva comunque come punto di partenza per discussioni politiche sulla gestione delle minacce dell’intelligenza artificiale cattiva.

L’analisi mappa il panorama online delle comunità incentrate sull’odio, iniziando dalla ricerca di termini trovati nel database dei simboli dell’odio dell’Anti-Defamation League, e dai nomi dei gruppi che incitano all’odio monitorati dal Southern Poverty Law Center. Da un elenco iniziale di comunità di ‘bad-actor’ così trovate, gli autori valutano le comunità collegate e ripetono questa procedura per generare una mappa della rete delle comunità di cattivi attori e dei gruppi online più tradizionali a cui si collegano. Alcune di queste comunità tradizionali sono classificate come appartenenti a un ‘sottoinsieme di sfiducia’ se ospitano discussioni significative su Covid, Mpx, aborto, elezioni o cambiamento climatico. Utilizzando la mappa risultante dell’attuale ‘campo di battaglia’ online dei cattivi attori, che comprende più di 1 miliardo di persone, gli autori proiettano come l’intelligenza artificiale potrebbe essere utilizzata da questi cattivi attori. Da qui, la previsione di un utilizzo che diventerà quotidiano entro metà 2024.

Condividi