Appello di 25 esperti ai governi per evitare i rischi dell’IA

Secondo i 25 autori della lettera, il mondo dei decisori politici e delle grandi aziende sta facendo troppo poco rispetto ai rapidi progressi dell'IA
MeteoWeb

Venticinque tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell’Università di Montreal in Canada, hanno pubblicato una lettera sulla rivista Science mettendo in guardia dai pericoli dell’intelligenza artificiale. La lettera, rivolta a leader e aziende, arriva prima del summit internazionale sulla sicurezza dell’IA che si svolgerà a Seoul il 21 e 22 maggio. Tra i gravi rischi rappresentati dall’IA, gli esperti evidenziano instabilità sociale, manipolazione di massa, criminalità su larga scala e guerre combattute con macchine autonome, mentre sottolineano che i leader mondiali stanno facendo troppo poco.

Durante l’ultimo vertice sull’intelligenza artificiale, il mondo ha convenuto che abbiamo bisogno di agire, ma ora è il momento di passare da proposte vaghe a impegni concreti“, ha detto Philip Torr, dell’Università di Oxford e tra gli autori dello studio. “Questo documento – ha aggiunto – fornisce molte raccomandazioni importanti su ciò che aziende e governi dovrebbero impegnarsi a fare”.

Secondo i 25 autori della lettera, il mondo dei decisori politici e delle grandi aziende sta facendo troppo poco rispetto ai rapidi progressi delle IA che pongono problemi di sicurezza sempre più gravi in moltissimi ambiti. Nel volgere di pochissimi anni, potrebbero aprirsi scenari catastrofici, in particolare sulla stabilità sociale, sorveglianza pervasiva, manipolazione di massa, crimini informatici su vasta scala e infine facilitare sistemi di guerra automatizzati. È dunque imperativo aumentare enormemente gli investimenti in sicurezza che sono oggi quasi inesistenti, tanto che non esistono né meccanismi né istituzioni capaci di prevenire abusi, e richiedere alle grandi aziende di IA di dare priorità alla sicurezza e dimostrare che i loro sistemi non possono causare danni, spostando l’onere di dimostrare la sicurezza agli sviluppatori di IA.

Quello che secondo i 25 firmatari dell’appello è ormai urgente è “una rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritta dall’industria“. Per l’informatico Stuart Russell, dell’Università della California a Berkeley e tra i firmatari della lettera, “è ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato”.

Le richieste

Il primo punto enunciato nel documento è l’istituzione di un’efficace organizzazione di esperti in grado di prendere azioni rapide nei confronti delle IA. A titolo di confronto, sottolineano, l’Istituto per la Sicurezza delle IA degli Stati Uniti dispone di un budget annuale di 10 milioni di dollari, mentre l’Agenzia del farmaco FDA dispone di 6,7 miliardi. Andrebbero poi imposte delle politiche per la valutazione del rischio molto più rigorose e con ricadute concrete e, contrariamente a quanto accade oggi, non bisognerebbe fare affidamento su valutazioni volontarie di modelli di IA.

Gli esperti chiedono inoltre alle grandi aziende di IA di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni e ritengono urgente mettere in atto politiche che si attivino automaticamente quando l’intelligenza artificiale raggiunge determinati traguardi di capacità. Meccanismi dunque capaci stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi. “Le aziende – ha concluso Russell – si lamenteranno del fatto che è troppo difficile soddisfare le normative, che ‘la regolamentazione soffoca l’innovazione’. È ridicolo. Ci sono più normative sulle paninerie che sulle società di IA”.

Condividi