OpenAI garantisce la sicurezza dei dati in ChatGPT

Ieri si è svolto una videoconferenza tra OpenAi e il Garante della Privacy, e sono state fatte dalla società delle rassicurazioni sulla sicurezza nell'uso dei dati
MeteoWeb

Si è svolto ieri sera l’atteso incontro, in video conferenza, tra Garante Privacy e OpenAI. All’incontro, ha partecipato anche Sam Altman, CEO di OpenAI. Erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.

OpenAI, pur dichiarandosi convinta di rispettare le norme sulla protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana al fine di giungere a risolvere le criticità rilevate dal Garante riguardo a ChatGPT.

Le dichiarazioni di Open Ai su Chatgpt

Il Garante valuterà le misure proposte dalla società, anche in merito al provvedimento adottato nei confronti di OpenAI. Open AI: “non usiamo ChatGpt per profilare le persone. Open AI si impegna a mantenere l’intelligenza artificiale sicura e vantaggiosa. Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli“.

Negli ultimi giorni, il garante italiano sta attenzionando la questione chatbot e altri Paesi stanno valutando una simile azione. Ieri poi si è svolta una videoconferenza con il Garante Privacy italiano. Nel merito di come utilizza i dati degli utenti, Open AI precisa: “Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti“.

La sicurezza per i minori

La lettera aperta della società americana dal titolo “Il nostro approccio alla sicurezza dell’AI” pubblicata sul suo blog parla nello specifico del modo in cui viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate, le cosiddette ‘allucinazioni‘.

Per azzerare il potenziale dei modelli di generare contenuti che danneggiano i bambini, quando un utente carica materiale pedopornografico negli strumenti di creazione o lettura di immagini, il sistema di Open AI lo blocca e lo segnala al National Center for Missing and Exploited Children.

Le rassicurazioni su Gpt-4

Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4 (già integrato nella ricerca sperimentale di Microsoft Bing, ndr), abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente. Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere“.

Nessun freno allo sviluppo dell’intelligenza artificiale

L’Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei.

OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell’Autorità.

Condividi