Elon Musk e un gruppo di esperti di intelligenza artificiale e dirigenti del settore chiedono una pausa di sei mesi nello sviluppo di sistemi più potenti di GPT-4 di OpenAI appena lanciato, in una lettera aperta citando potenziali rischi per la società e l’umanità.
La lettera, rilasciata dal non-profit Future of Life Institute e firmata da più di 1.000 persone, tra cui Musk, ha chiesto una pausa sullo sviluppo dell’intelligenza artificiale, fino a quando i protocolli di sicurezza condivisi per tali disegni siano stati sviluppati, implementati e controllati da esperti indipendenti. Tra i firmatari figurano il CEO di Stability AI Emad Mostaque, i ricercatori di Alphabet-owned (GOOGL.O) DeepMind e i pesi massimi dell’IA Yoshua Bengio e Stuart Russell.
Le preoccupazioni in merito all’intelligenza artificiale
Secondo il registro per la trasparenza dell’Unione europea, il Future of Life Institute è finanziato principalmente dalla Fondazione Musk, dal gruppo no profit Founders Pledge e dalla Silicon Valley Community Foundation con sede a Londra.
Lunedì scorso, l’Europol ha aderito al coro di preoccupazioni etiche e legali sull’avanzamento dell’intelligenza artificiale con strumenti come ChatGPT, avvertendo che potrebbe potenzialmente verificarsi un abuso del sistema tramite tentativi di phishing, disinformazione e criminalità informatica.
L’approccio del governo britannico
Nel frattempo, il governo britannico ha presentato nuove proposte per un quadro normativo “adattabile” per l’intelligenza artificiale. A tal proposito, l’approccio del governo britannico, delineato in un documento programmatico pubblicato mercoledì scorso, potrebbe condividere la responsabilità di gestire l’intelligenza artificiale (AI) tra i regolatori per i diritti umani, la salute e la sicurezza, e la concorrenza, piuttosto che creare un nuovo organismo dedicato alla tecnologia.