La riunione dei Rappresentanti Permanenti dei 27 (Coreper I) ha dato il via libera all’AI Act, il nuovo sistema di regole dell’Ue sull’intelligenza artificiale. Si tratta della prima legislazione al mondo a livello orizzontale e di ampio respiro sull’intelligenza artificiale. L’intesa tra i Ventisette si basa sull’accordo provvisorio raggiunto con i negoziatori del Parlamento Europeo l’8 dicembre 2023. “Dobbiamo avere regole per un’intelligenza artificiale sicura per tutti noi e incoraggiare l’innovazione al più presto. L’AI Act stabilirà anche regole chiare per etichettare i deep fake e i contenuti manipolativi“, ha scritto su X la vicepresidente della Commissione europea, Vera Jourova.
Per garantire che la definizione di sistema di intelligenza artificiale fornisca criteri sufficientemente chiari per distinguerla da sistemi software più semplici, l’accordo Ue allinea la definizione all’approccio proposto dall’OCSE. Il regolamento non si applica a settori che non rientrano nell’ambito di applicazione del diritto europeo e non dovrebbe, in ogni caso, incidere sulle competenze degli stati membri in materia di sicurezza nazionale o su qualsiasi entità competente in questo ambito. Inoltre, non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Analogamente, si prevede che non si applichi ai sistemi utilizzati solo a scopo di ricerca e innovazione o alle persone che utilizzano l’intelligenza artificiale per motivi non professionali.
È stato stabilito un livello orizzontale di protezione, compresa una classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi. Quelli che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio rendere noto che il contenuto è stato generato dall’intelligenza artificiale affinché gli utenti possano prendere decisioni informate in merito all’ulteriore utilizzo. Un’ampia gamma di sistemi ad alto rischio sarebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere accesso al mercato europeo, chiariti e adeguati in modo tale da renderli tecnicamente più realizzabili e meno onerosi per i portatori di interessi, ad esempio per quanto riguarda la qualità dei dati o in relazione alla documentazione tecnica che le pmi dovrebbero redigere per dimostrare che i loro sistemi ad alto rischio sono conformi ai requisiti.
Per alcuni usi dell’intelligenza artificiale, il rischio è considerato inaccettabile, per cui saranno vietati. Per esempio vengono vietati la manipolazione comportamentale cognitiva (ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini) , lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso (lo scraping è la tecnica informatica con cui si estraggono i dati dagli output generati da un programma; se ciò avviene sui siti internet, prende il nome di web scraping), il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l’orientamento sessuale o le convinzioni religiose.
È stato stabilito anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi.
Della regolamentazione fanno parte indicazioni specifiche per i modelli di base, i grandi sistemi in grado di svolgere un’ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo di dati o la generazione di codici informatici. Tali modelli devono rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più rigoroso per i modelli di base “ad alto impatto”. Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.