OpenAI ha recentemente riconosciuto che ChatGPT è stato impiegato nella creazione di malware. Nel suo ultimo rapporto sulla sicurezza, l’azienda guidata da Sam Altman ha rivelato che diversi gruppi di cybercriminali hanno sfruttato il software di intelligenza artificiale per scopi illeciti. Tra questi, il gruppo cinese SweetSpecter ha orchestrato campagne di phishing indirizzate al personale dell’azienda, mascherando file malevoli come richieste di supporto. Questi allegati contenevano il malware “SugarGh0st“, capace di infiltrarsi nei sistemi informatici e sottrarre dati sensibili. Un altro gruppo, Storm-0817 di origine iraniana, ha utilizzato ChatGPT per sviluppare un software che raccoglie dati massivi da piattaforme come Instagram e LinkedIn. Inoltre, l’intelligenza artificiale è stata sfruttata per la creazione di malware Android progettato per rubare informazioni come contatti, cronologia delle chiamate, file e posizione degli utenti.
In risposta, OpenAI ha preso provvedimenti, bannando permanentemente tutti gli account legati agli attacchi e collaborando con autorità, analisti e ricercatori nel settore della sicurezza informatica per condividere i dati raccolti. Tuttavia, le vulnerabilità legate alla sicurezza di ChatGPT non sono una novità: gli esperti avevano lanciato l’allarme già a gennaio dello scorso anno. Recentemente è stato anche dimostrato che le misure di sicurezza del chatbot possono essere aggirate, consentendo di ottenere istruzioni su come fabbricare esplosivi.