News

Oltre 800 personalità chiedono il divieto dell'IA superintelligente: cosa accadrà?

Punti salienti dell'articolo:
  • Oltre 800 leader globali, tra cui Geoffrey Hinton e Steve Wozniak, chiedono il divieto dell'IA superintelligente
  • Il 73% degli americani vuole una robusta regolamentazione dell'IA avanzata e il 60% chiede prove di sicurezza prima dello sviluppo
  • Sam Altman prevede la superintelligenza entro il 2030, ma solo il 5% del pubblico supporta l'approccio "muoviti veloce e rompi"
  • I rischi percepiti includono obsolescenza economica umana, perdita di libertà civili e potenziale estinzione umana
  • La lettera del 2023 con Elon Musk ebbe poco effetto; il successo della petizione attuale rimane incerto

Introduzione

Oltre 800 personalità globali, tra cui due "padri dell'intelligenza artificiale", Steve Wozniak di Apple e Prince Harry, hanno firmato una lettera aperta per chiedere un divieto dello sviluppo dell'IA superintelligente fino al raggiungimento di specifiche condizioni di sicurezza. Questo movimento rappresenta una delle più significative prese di posizione contro la corsa tecnologica senza freni che caratterizza il settore dell'AI.

Chi ha sottoscritto la lettera per il divieto dell'IA superintelligente?

L'IA superintelligente è un sistema di intelligenza artificiale che supera significativamente le capacità umane in praticamente tutti i compiti cognitivi. La petizione ha raccolto firme da un'ampia coalizione: due dei tre "Godfathers of AI", Geoffrey Hinton e Yoshua Bengio, fondatori tecnologici come Richard Branson (Virgin Group), figure politiche di primo piano, accademici, religiosi e perfino membri della famiglia reale britannica.

Tra i firmatari anche personalità pubbliche come Glenn Beck, l'ex stratega della Casa Bianca Steve Bannon, l'ex presidente del Joint Chiefs of Staff Mike Mullen, l'attore Joseph Gordon-Levitt, i musicisti Will.I.am e Grimes, oltre al Duca e alla Duchessa di Sussex, Prince Harry e Meghan.

Cosa chiede la lettera aperta

La lettera, organizzata dal gruppo di sicurezza dell'AI Future of Life Institute (FLI), richiede una moratoria sullo sviluppo dell'IA superintelligente fino a quando non si raggiunga:

  • Un ampio consenso scientifico sulla possibilità di sviluppare tale tecnologia in modo sicuro e controllabile
  • Un forte supporto pubblico per procedere con questo sviluppo

La petizione riconosce i potenziali benefici dell'intelligenza artificiale, come miglioramenti senza precedenti nella salute e nella prosperità umana, ma sottolinea come l'obiettivo dichiarato dalle principali aziende tech di creare superintelligenza entro il prossimo decennio abbia sollevato preoccupazioni significative.

I rischi percepiti dell'IA superintelligente

I firmatari della lettera citano molteplici rischi legati alla superintelligenza:

  • Obsolescenza economica umana: perdita massiccia di posti di lavoro e spostamento del controllo economico verso le macchine
  • Perdita di libertà e dignità: rischi di disempowerment, violazione delle libertà civili e perdita di autonomia decisionale
  • Sicurezza nazionale: potenziali conflitti geopolitici derivanti da disparità tecnologiche
  • Scenario estremo: il potenziale di estinzione totale dell'uomo, sebbene meno probabile, viene esplicitamente menzionato

Cosa pensa il pubblico della corsa verso l'IA superintelligente?

Un sondaggio condotto negli USA su 2.000 adulti ha rivelato dati importanti sul sentimento pubblico. Solo il 5% degli americani supporta il mantra "muoviti veloce e rompi le cose" (move fast and break things) che caratterizza lo sviluppo dell'IA presso le principali aziende tech.

Dati ancora più significativi: il 73% degli americani richiede una robusta regolamentazione dell'IA avanzata, e il 60% concorda sul fatto che l'IA non dovrebbe essere sviluppata fino a quando non sia provato che è sicura e controllabile. Questo forte disallineamento tra il ritmo della ricerca privata e le aspettative pubbliche alimenta il movimento per il divieto dell'IA superintelligente.

La timeline della superintelligenza secondo i leader del settore

Nonostante le pressioni normative, i capi delle principali aziende AI continuano a prevedere una rapida realizzazione della superintelligenza. Sam Altman, CEO di OpenAI, ha recentemente dichiarato che la superintelligenza arriverà entro il 2030 e che fino al 40% dei compiti economici contemporanei saranno automatizzati dall'IA nel prossimo futuro.

Mark Zuckerberg, CEO di Meta, ha sostenuto che la superintelligenza è ormai prossima e "potenzia" gli individui. Tuttavia, la recente divisione di Meta Superintelligence Labs in quattro gruppi più piccoli suggerisce che il traguardo potrebbe essere più lontano dalle previsioni iniziali.

Il precedente del 2023 e l'efficacia della mobilitazione

Nel 2023, una lettera simile firmata anche da Elon Musk aveva chiesto una pausa nello sviluppo dell'IA. Quella petizione ebbe poco o nessun effetto tangibile sulla ricerca e sullo sviluppo commerciale. Gli esperti ritengono che la lettera attuale, pur coinvolgendo un numero maggiore di firmatari e coprendo un spettro più ampio di settori, potrebbe incontrare resistenze simili dall'industria tech.

Prospettive future e regolamentazione

La richiesta di un divieto dell'IA superintelligente rappresenta un momento cruciale nel dibattito sulla governance dell'intelligenza artificiale. Mentre la comunità scientifica e il pubblico generale esprimono preoccupazioni concrete, le aziende tecnologiche continueranno verosimilmente la loro corsa verso la superintelligenza. La vera sfida sarà trovare un equilibrio tra l'innovazione tecnologica e le misure di sicurezza adeguate.

La questione rimane aperta: la pressione collettiva di oltre 800 figure di spicco globali riuscirà dove ha fallito il tentativo del 2023, oppure il mercato dell'AI continuerà indisturbato verso scenari superintelligenti?

Domande frequenti sull'IA superintelligente e il divieto

Ecco le risposte alle domande più comuni riguardanti il movimento per il divieto dell'IA superintelligente e i relativi rischi di sicurezza.

Cosa significa esattamente "IA superintelligente"?

L'IA superintelligente è un sistema che supera significativamente le capacità umane in quasi tutti i compiti intellettuali, dalle scienze all'arte all'ingegneria. Diversamente dall'IA stretta (specializzata in un dominio), la superintelligenza sarebbe un'intelligenza artificiale generale che opererebbe al di là dei limiti umani su scala massiccia.

Perché oltre 800 personalità chiedono il divieto dell'IA superintelligente?

I firmatari, inclusi due "padri dell'IA" come Geoffrey Hinton e Yoshua Bengio, temono rischi concreti: perdita massiccia di posti di lavoro, perdita di controllo umano, violazioni dei diritti civili e, nello scenario peggiore, l'estinzione umana. Ritengono che la sicurezza debba precedere la velocità di sviluppo.

Quale percentuale di americani supporta il divieto dell'IA superintelligente?

Secondo un sondaggio su 2.000 adulti americani, il 73% richiede una robusta regolamentazione dell'IA avanzata, e il 60% concorda che l'IA superintelligente non dovrebbe essere sviluppata fino a quando non sia provato che è sicura e controllabile. Solo il 5% supporta l'approccio "muoviti veloce e rompi le cose".

Quando arriverà la superintelligenza secondo gli esperti?

Sam Altman di OpenAI prevede la superintelligenza entro il 2030, mentre Mark Zuckerberg di Meta sostiene che sia imminente. Tuttavia, le timeline esatte rimangono molto incerte e dipendono da progressi tecnici non garantiti.

Chi ha firmato la lettera aperta per il divieto dell'IA superintelligente?

Tra i 800+ firmatari figurano Geoffrey Hinton e Yoshua Bengio (padri dell'IA), Steve Wozniak (Apple), Richard Branson (Virgin Group), Prince Harry, Meghan, Glenn Beck, Will.I.am, Grimes e numerosi politici, accademici e leader religiosi globali.

La lettera del 2023 ha avuto effetto sullo sviluppo dell'IA?

La petizione del 2023, firmata anche da Elon Musk, ebbe poco o nessun effetto tangibile sulla ricerca e sviluppo commerciale dell'IA. Gli esperti ritengono che la lettera attuale potrebbe incontrare resistenze simili dall'industria tecnologica.

Quali sono i principali rischi dell'IA superintelligente secondo i firmatari?

I rischi citati includono: obsolescenza economica umana (perdita massiccia di lavori), perdita di libertà e dignità, rischi di sicurezza nazionale, disempowerment umano e, nello scenario peggiore, l'estinzione totale dell'uomo.

Introduzione Oltre 800 personalità globali, tra cui due "padri dell'intelligenza artificiale", Steve Wozniak di Apple e Prince Harry, hanno firmato una Evol Magazine