Prima pagina

Oltre 700 firme per dire “stop” all’IA superintelligente

Il fondatore del gruppo Virgin firma l’appello globale contro lo sviluppo incontrollato


03/11/2025

di Giuseppe Rizzo


Secondo le fonti più recenti, tra i firmatari della nuova lettera aperta promossa dal Future of Life Institute figura anche Richard Branson, fondatore del gruppo Virgin, uno degli imprenditori più noti al mondo. La firma di Branson ha attirato particolare attenzione perché arriva da una figura simbolo dell’innovazione e del rischio d’impresa, che ora sceglie di schierarsi per un approccio più prudente nei confronti dello sviluppo delle intelligenze artificiali “superintelligenti”. La lettera, datata 22 ottobre 2025 e pubblicata dal centro di ricerca americano Future of Life Institute, chiede infatti una moratoria, o addirittura un divieto temporaneo, sullo sviluppo di sistemi di intelligenza artificiale che possano superare le capacità cognitive umane. L’obiettivo è chiaro: garantire che le macchine del futuro siano realmente controllabili e sicure, e che l’umanità non perda il controllo della tecnologia che essa stessa ha creato.
Secondo quanto riportato da Time, la lettera ha già raccolto oltre 700 firme di scienziati dell’IA, ricercatori, accademici, ma anche figure pubbliche e celebrità. Tra i firmatari, oltre a Branson, compaiono diversi esperti di etica tecnologica e alcuni dirigenti del settore digitale che, paradossalmente, hanno contribuito all’avanzamento di queste stesse tecnologie. La loro richiesta non è tanto un rifiuto del progresso, quanto una sospensione consapevole, un “tempo di riflessione” per comprendere i rischi reali e stabilire regole comuni. I promotori temono che la corsa globale all’intelligenza artificiale superi la capacità dei governi di controllarla, innescando una competizione simile a quella delle armi nucleari.
Il documento pone domande cruciali: che cosa significa esattamente “superintelligente”? E come si può definire una soglia oltre la quale la tecnologia diventa potenzialmente pericolosa? Gli stessi autori della lettera ammettono che il termine è ancora vago, ma proprio per questo ritengono urgente un dibattito. Chiedono che lo sviluppo riprenda solo quando sarà possibile dimostrare che i sistemi avanzati di IA rispettino principi di sicurezza, trasparenza e allineamento ai valori umani. Tuttavia, molti osservatori fanno notare che una “pausa globale” è difficilmente realizzabile in un contesto di forte competizione tra Stati Uniti, Europa e Cina.
La lettera del Future of Life Institute non è un episodio isolato. Negli stessi mesi, un altro fronte di protesta è emerso dal mondo della cultura. Centinaia di autori e scrittori — tra cui Dennis Lehane e Lauren Groff — hanno sottoscritto un’altra lettera aperta, rivolta agli editori, chiedendo un impegno a non pubblicare libri interamente generati da intelligenze artificiali. In poche ore la petizione, riportata da PC Gamer, ha superato le 1.100 firme. Gli scrittori denunciano l’uso dei propri testi come materiale di addestramento per modelli di IA senza consenso né compenso, un fenomeno che — sostengono — svuota di valore il lavoro creativo umano.
Il mondo dell’editoria e quello della tecnologia, pur muovendosi su piani diversi, sembrano dunque convergere su un punto comune: la necessità di regole e limiti etici. Nel primo caso, si teme che la tecnologia possa sfuggire di mano; nel secondo, che possa sostituire o sfruttare gli esseri umani nella creazione artistica. Entrambi i movimenti riflettono una crescente consapevolezza collettiva: l’intelligenza artificiale non è più solo un tema tecnico, ma un problema politico, culturale e morale.
La cifra delle “700 firme” rappresenta così un simbolo, più che un numero: il segnale che anche le voci più influenti del mondo economico e scientifico, come quella di Richard Branson, chiedono una pausa di responsabilità. In parallelo, le proteste di autori e creativi sottolineano che non si tratta solo di proteggere l’umanità da macchine troppo potenti, ma anche di difendere la dignità del pensiero umano in un’epoca in cui la linea tra creazione e simulazione diventa sempre più sottile. Le due iniziative, nate in ambiti diversi, tracciano insieme la stessa domanda di fondo: chi controlla davvero il futuro dell’intelligenza?

(riproduzione riservata)