Skip to main content

Elon Musk, esperti di intelligenza artificiale e leader del settore hanno firmato una lettera aperta chiedendo una pausa di sei mesi sullo sviluppo di sistemi di intelligenza artificiale che superino il GPT-4 di OpenAI a causa dei potenziali rischi per la società e l’umanità nel suo complesso.

Oltre a Musk, altri titani del mondo della tecnologia e dell’intelligenza artificiale hanno aggiunto le loro firme alla lettera. Questi includono il CEO di Stability AI Emad Mostaque, i ricercatori di DeepMind e i pionieri dell’IA Stuart Russell e Yoshua Bengio. Anche il co-fondatore di Apple, Steve Wozniak, ha aggiunto la sua firma alla lettera aperta. Tuttavia, il CEO di OpenAI Sam Altman non ha firmato la lettera aperta, secondo un portavoce di Future of Life.

Il documento evidenzia potenziali interruzioni della politica e dell’economia causate dai sistemi di intelligenza artificiale competitiva. Richiede inoltre la collaborazione tra sviluppatori, responsabili politici e autorità di regolamentazione.

“I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema.

“La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che ‘Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per la creazione nuovi modelli.’ Siamo d’accordo. Quel punto è adesso.

“Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

“I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti”, si legge nella lettera.

Il professore della New York University Gary Marcus, firmatario della lettera, ha condiviso i suoi sentimenti in merito.

“La lettera non è perfetta, ma lo spirito è giusto: dobbiamo rallentare fino a comprendere meglio le ramificazioni. Possono causare gravi danni… i grandi giocatori stanno diventando sempre più riservati su ciò che stanno facendo, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi “, ha affermato.

Un link alla lettera aperta è disponibile qui.

Non esitate a contattarci con consigli sulle novità. Basta inviare un messaggio a Simon

Elon Musk si unisce ad altri titani della tecnologia per chiedere una pausa sull’addestramento dell’IA che supera GPT-4

Leave a Reply