![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgwbhf-LGxDAXeuHcARtqIyJeOPgTsbIIbnenHX6LfsyWD-cjRJrN83vDk4tY-IT9K4FXsu1FPIIt81-gzUyRsPPu1FEnZR9c0KzNPv5sahpf44ARUltKEQX2HJGN6oERqDAn4XSZFl-WPFLmXb354ehEz92QK_hO27ECD5sdunm_pzi6NenkDl0OHD/w640-h360-rw/64769745e9ff7167703d72a6.jpg)
Actualidad sadefenza
Ridurre il rischio esistenziale generato dall'intelligenza artificiale dovrebbe essere una "priorità globale", affermano 350 esperti.
L'intelligenza artificiale (AI) potrebbe rappresentare un "rischio di estinzione" per l'umanità dell'entità di una guerra nucleare o di una pandemia, secondo una lettera aperta firmata dai 350 dirigenti più importanti di quel settore tecnologico.
Leader nello sviluppo dell'IA tra cui il CEO di OpenAI Sam Altman; il vincitore del Turing Award Geoffrey Hinton; i CEO di DeepMind e Anthropic, e diversi dirigenti di Microsoft e Google, avvertono che ridurre il rischio esistenziale generato dall'intelligenza artificiale dovrebbe essere una " priorità globale" .
"Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale, insieme ad altri rischi sociali come le pandemie e la guerra nucleare", si legge nella lettera, pubblicata dal Center for AI Safety, un'organizzazione senza scopo di lucro.