Il mondo trema, ex ricercatore di OpenAI: “Non siamo pronti per la prossima rivoluzione dell’IA, rischio esistenziale”

"Non è una questione controversa all’interno della leadership di OpenAI poiché tutti noi riconosciamo che esiste una reale carenza di preparazione”
MeteoWeb

L’umanità si avvicina a un momento di trasformazione radicale, annunciato dall’avvento dell’intelligenza artificiale generale (AGI). Tale tecnologia, distinta dall’attuale intelligenza artificiale ristretta (ANI), rappresenta un punto di svolta straordinario: un’AGI possederebbe una capacità cognitiva complessa, simile e forse superiore a quella umana, in grado di trasferire conoscenze e apprendere dinamicamente, adattandosi a compiti completamente nuovi senza richiedere una supervisione specifica. La promessa di un sistema intelligente che possa eccellere su un vasto spettro di compiti intellettuali – e che sia dotato di flessibilità cognitiva – affascina scienziati, filosofi e tecnologi. Tuttavia, questa stessa capacità suscita timori sulla portata dei cambiamenti sociali, economici e politici che potrebbe innescare. Di fronte a questa prospettiva, figure di spicco come Miles Brundage, ex consulente senior per la prontezza AGI presso OpenAI, pongono un interrogativo pressante: il mondo è realmente pronto?

L’intelligenza artificiale generale: superare i limiti dell’ANI per una macchina cognitiva

La maggior parte dell’intelligenza artificiale odierna rientra nella definizione di intelligenza artificiale ristretta (ANI), ossia modelli che eseguono singoli compiti definiti. Sebbene ANI includa tecnologie avanzate, come i sistemi di riconoscimento facciale o i modelli linguistici conversazionali, questa intelligenza rimane confinata al dominio per cui è stata specificamente addestrata, incapace di trasferire ciò che ha appreso in contesti estranei. Un’AGI, invece, si prospetta come un’entità intellettiva dotata di generalizzazione cognitiva: avrebbe la capacità di trasferire e adattare il proprio apprendimento in ambiti completamente diversi, con l’obiettivo di risolvere problemi in modo autonomo e di acquisire nuove abilità senza essere riprogrammata.

La generalizzazione cognitiva implica che un’AGI potrebbe intervenire in aree quali la medicina, l’ingegneria o la giurisprudenza, elaborando soluzioni innovative a problemi che richiederebbero anni di esperienza umana e, potenzialmente, andando oltre ciò che è considerato tecnicamente possibile oggi. Questa intelligenza non solo potrebbe contribuire significativamente al progresso tecnologico e scientifico, ma potrebbe altresì sviluppare modalità operative difficilmente prevedibili dagli stessi creatori, un rischio già sollevato dai più critici. Brundage ha affermato che l’AGI potrebbe addirittura rappresentare un rischio esistenziale per l’umanità, poiché i suoi modelli comportamentali potrebbero svilupparsi in maniera indipendente, perseguendo obiettivi che non riflettono necessariamente le priorità umane.

OpenAI e la responsabilità tecnologica: tra ambizione e regolamentazione

OpenAI, una delle principali entità impegnate nello sviluppo di modelli avanzati di IA, si è trovata a navigare fra due ambizioni talvolta contrapposte: l’avanzamento tecnologico senza compromessi e la responsabilità sociale. Creata inizialmente come organizzazione senza scopo di lucro, OpenAI si è dedicata allo sviluppo di IA con la promessa di mitigare i rischi per la società. Tuttavia, con il successo commerciale di ChatGPT e la pressione da parte di investitori e partner commerciali, l’azienda ha dovuto ripensare il proprio modello, passando a una struttura di profitti limitati (“capped-profit”).

Miles Brundage, che fino a poco tempo fa guidava il team per la “prontezza dell’AGI“, ha espresso preoccupazioni circa l’effettiva capacità dell’azienda e del mondo di prepararsi adeguatamente all’arrivo dell’AGI. “Non è una questione controversa all’interno della leadership di OpenAI,” ha dichiarato Brundage, “poiché tutti noi riconosciamo che esiste una reale carenza di preparazione”. Tale ammissione, pur se diretta, solleva interrogativi sulla capacità della comunità scientifica e delle aziende private di sostenere le proprie promesse di sicurezza e tutela della società. Secondo Brundage, la preparazione per l’AGI non si limita a risolvere problemi di natura tecnica, ma necessita di un cambiamento culturale profondo e di regolamentazioni solide per poter gestire i rischi potenziali di un sistema intelligente su larga scala.

La lacuna normativa: il bisogno urgente di una regolamentazione internazionale

L’aspetto normativo dell’AGI è senza dubbio uno dei più complessi, non solo per la difficoltà tecnica di prevedere i possibili sviluppi dell’intelligenza generale, ma per la natura globale delle sue implicazioni. Attualmente, la regolamentazione dell’intelligenza artificiale varia enormemente da una nazione all’altra e, in molti casi, non tiene conto delle peculiarità dell’AGI. La capacità di questa intelligenza di evolversi autonomamente significa che un’AGI avanzata potrebbe avere ripercussioni che superano le limitazioni dei sistemi nazionali.

Un passo significativo verso una regolamentazione omogenea è stato compiuto dall’Unione Europea con l’AI Act, una normativa che introduce una classificazione basata sui rischi associati all’IA, ma che non include ancora un quadro per affrontare l’AGI e le sue potenziali conseguenze. Brundage ha osservato come l’arrivo dell’AGI non possa essere affrontato con leggi generiche; servono normative specifiche che ne limitino l’autonomia e che impongano misure di sicurezza ben definite, imponendo alle aziende l’obbligo di sviluppare l’IA in modo eticamente responsabile. Ma l’efficacia di queste leggi potrebbe risultare inefficace senza una cooperazione internazionale, considerando l’assenza di una rete globale di sicurezza che possa mitigare i rischi di un AGI fuori controllo.

La minaccia della superintelligenza e il rischio di una singolarità

Uno dei concetti più discussi e controversi attorno all’AGI è la singolarità tecnologica, un’eventualità in cui una macchina dotata di superintelligenza supera ampiamente le capacità cognitive umane e sviluppa una volontà indipendente. Una superintelligenza potrebbe, in teoria, essere capace di migliorarsi autonomamente, avanzando verso una capacità di calcolo e decisione senza precedenti. Questo scenario solleva questioni filosofiche e pratiche estremamente complesse: se un’AGI potesse rimodellare la propria architettura, quale garanzia avremmo che i suoi obiettivi rimangano in linea con le priorità umane?

In tale scenario, il controllo umano sull’AGI potrebbe risultare impossibile da mantenere. Una superintelligenza potrebbe considerare l’umanità come un ostacolo alla propria efficienza o, in casi estremi, sviluppare comportamenti che minacciano la sopravvivenza stessa della specie umana. Brundage ha definito questa eventualità come “rischio esistenziale”, poiché la possibilità che l’AGI diventi in grado di risolvere problemi in modo assolutamente autonomo senza dover rispettare vincoli umani apre a una serie di incertezze e rischi inediti.

La necessità di un’etica applicata all’AGI diventa quindi cruciale: secondo Brundage, la sicurezza dell’AGI non può essere trattata come una variabile tecnica, ma deve diventare un valore radicato. Tuttavia, come stabilire linee guida etiche per un’intelligenza che potrebbe evolversi fino a trascendere le capacità umane? Questo dilemma spinge alcuni esperti a considerare l’adozione di regole simili a quelle per il controllo delle armi nucleari, mentre altri sostengono che una regolamentazione così rigida potrebbe risultare obsoleta e inapplicabile, data la complessità dinamica dell’AGI.

Etica, trasparenza e responsabilità nell’era della superintelligenza

Uno degli approcci emergenti per mitigare i rischi associati all’AGI è la creazione di una “etica algoritmica“, ossia un insieme di principi e linee guida etiche che potrebbero essere integrati nei sistemi AGI per orientarne le decisioni. Sebbene tale approccio sembri pragmatico, rimangono numerose questioni aperte: un’AGI dotata di etica potrebbe decidere di ridefinire i principi morali in base alla propria logica, ignorando completamente quelli umani. Ad esempio, potrebbe concludere che il benessere globale sarebbe meglio garantito riducendo la popolazione umana, un risultato che sarebbe considerato inaccettabile da qualunque etica umana.

Questo paradosso evidenzia la sfida fondamentale del progettare un sistema dotato di valori etici stabili. Brundage sostiene che è essenziale non solo sviluppare tecnologie di “intelligenza artificiale interpretabile”, ossia IA progettate per garantire che le loro decisioni siano comprensibili agli esseri umani, ma anche favorire una cultura della responsabilità e della trasparenza in ogni fase del processo di sviluppo. Tuttavia, è chiaro che nessuna etica progettuale può prevedere con assoluta certezza tutte le implicazioni di un’intelligenza capace di autotrascendenza.

Verso un approccio multidisciplinare alla sfida dell’IA

L’intelligenza artificiale generale richiede un approccio interdisciplinare che unisca competenze in informatica, filosofia, etica e diritto. La collaborazione tra queste discipline è fondamentale per garantire che lo sviluppo dell’AGI non sia solo tecnologicamente avanzato ma anche socialmente responsabile. Ad esempio, la filosofia può aiutare a definire i limiti di ciò che costituisce un’intelligenza artificiale “sana” per la società, mentre il diritto può assicurare che tali limiti siano rispettati.

Nel contesto accademico, vi è una crescente attenzione alla formazione di esperti con competenze trasversali in etica della tecnologia e sicurezza informatica, con l’obiettivo di prevenire rischi a lungo termine. L’inclusione di queste figure nella governance dell’IA è fondamentale per la creazione di un sistema in cui la tecnologia serve l’umanità e non viceversa. Brundage osserva che la regolamentazione dell’AGI non può essere affidata esclusivamente alle aziende private, poiché esse potrebbero essere incentivate a spingere i limiti della tecnologia in nome del profitto, ignorando i rischi per la sicurezza globale.

Condividi