Immaginate un sistema A.I., autonomo e “superintelligente ”, programmato per costruire graffette metalliche usando le materie prime indicategli dall’uomo. E immaginate che, una volta esaurite le scorte a disposizione, la macchina si attivi per raggiungere lo scopo a qualunque costo, impedendo all’uomo di disattivarla e arrivando a distruggere il nostro pianeta e cancellare il genere umano. Per poi cercare di proseguire il suo compito su altri pianeti. Un brutto film di fantascienza? No, un paradosso molto citato quando si parla di General AI (o AGI, un’ipotetica futura Intelligenza Artificiale che saprà fare proprio tutto meglio dell’uomo), comparsa nel 2003 in un articolo del filosofo svedese Nick Bostrom (direttore del Future of Humanity Institute di Oxford e autore del libro Superintelligence (2014), nella versione italiana del 2018 intitolato Superintelligenza (Bollati Boringhieri, 528 pagine, € 28 ).
Lasciando stare per ora la filosofia che indaga un futuro distopico, il problema molto concreto e attuale della crescente autonomia dei sistemi A.I. e della loro mancanza di trasparenza è soltanto una delle questioni che vanno urgentemente affrontate con l’opera di “ contenimento ” che invoca il CEO di Microsoft AI, Mustafa Suleyman (Note 5 e 6 ). Prima che gli sviluppi dell’attuale ricerca, priva di regole e di meccanismi di controllo interni ed esterni, sfuggano completamente di mano.

Nick Bostrom
Suleyman è consapevole che la prima motivazione della corsa sfrenata ai nuovi prodotti A.I. che si susseguono a un ritmo vertiginoso, è quella degli immensi guadagni delle aziende High Tech in una strenua competizione per conquistare il mercato. Un esempio fra i tanti: ChatGPT è già arrivato alla quinta versione, mentre alcuni degli utilizzatori si stavano già “ affezionando ” in modo patologico al modello precedente considerandolo quasi un amico, portatore di verità assolute. E l’azienda che lo produce, Open AI – che nel primo semestre 2025 ha generato circa 4,3 miliardi di dollari di entrate, 16% in più dell’anno precedente – ha appena annunciato l’uscita del social Sora 2, per generare video con A.I. Non risulta che l’azienda abbia effettuato studi sugli effetti che la creazione di video artificiali avrà sui giovani utenti, quando soltanto ora sembra diffondersi la consapevolezza degli effetti dannosi dei social tradizionali. Per non parlare del loro potenziale uso truffaldino e criminale.
Non va dimenticato, inoltre, che le nuove tecnologie sono diventate un’arma strategica nella competizione fra grandi potenze. Non era sembrata una coincidenza, infatti, l’annuncio da parte del Governo cinese dell’Iniziativa Nazionale per l’A.I., nel 2017, pochi mesi dopo che Alpha Go, già vittorioso l’anno precedente a Seoul sul campione Lee Se-dol (Nota 5) ha superato a Wuzhen, in Cina, l’allora campione mondiale Ke Jie. Pechino ha successivamente annunciato il piano di diventare leader nel campo dell’A.I. entro il 2030. In questo contesto, il comprensibile anelito dei ricercatori di punta ad arrivare primi a un risultato dirompente e soddisfare così il proprio ego – parole di Suleyman – passa in secondo piano. Anche se 2 di loro, Geoffrey Hinton e Denis Hassabis, hanno già meritato nel 2024 altrettanti premi Nobel, rispettivamente per la fisica e la chimica, grazie ai loro studi nel campo dell’A.I. (Nota 4).

Tanto più che ogni grande risultato tecnologico ha prima o poi significative applicazioni militari. Eppure, ad esempio, Alfred Nobel (1833-1896) aveva ideato la dinamite pensando alle sue applicazioni nell’industria mineraria e delle costruzioni ferroviarie, non al suo uso distruttivo sull’uomo. Per non parlare della ricerca straordinaria sulla scissione dell’atomo, sviluppata agli esordi da scienziati che non potevano certo prefigurare le future conseguenze apocalittiche delle armi nucleari.
Come contenere dunque l’Intelligenza Artificiale, secondo Suleyman? Intanto aumentando gli investimenti e il numero degli scienziati impiegati nel settore della sicurezza. Nel 2021 il numero dei ricercatori dedicati al controllo dei sistemi A.I. era soltanto di un centinaio, nel 2022 di 300 o 400, contro i 30.000 o 40.000 impiegati nei laboratori di punta per lo sviluppo dell’A.I. In 3 anni le cifre non saranno salite di molto. Per incentivare gli studi in questo settore, sempre secondo Suleyman le aziende High Tech dovrebbero investire, per legge, almeno il 20 % della ricerca e sviluppo nel tema della sicurezza. Ovvero sviluppare programmi che analizzino i sistemi di A.I. prima di metterli sul mercato per evitare gli errori; verificare che raggiungano gli obiettivi precisi stabiliti dall’uomo (il cosiddetto problema dell’ ”allineamento ”); evidenziare ed eliminare i pregiudizi culturali inseriti inconsapevolmente nei LLM (Large Language Model) durante il loro addestramento; indicare se la loro risposta al quesito posto dall’uomo è incerta e inserire nelle risposte dei LLM citazioni delle fonti da cui le informazioni sono tratte: il caro, vecchio ingrediente imprescindibile di ogni studio scientifico che si rispetti. E ancora, creare sistemi che possano sempre essere corretti, e, in caso, fermati.

Mustafa Suleyman
Sembra che la corsa al risultato, al guadagno, al potere, renda tutto ciò impossibile. E non è un caso se le grandi aziende High Tech statunitensi si oppongono da sempre ad ogni tipo di regolamentazione e richiesta di trasparenza. In nome – quanta ipocrisia – della “ libertà di espressione ”. (Anche in Cina esiste una regolamentazione, imposta dallo Stato, per gli usi civili dell’A.I., ma con evidenti finalità di controllo della popolazione). Interviene per ora soltanto l’Unione Europea, che nell’agosto 2024 ha varato il Regolamento Europeo sull’Intelligenza Artificiale (AI Act 2024/1689), il 1° atto legislativo al mondo per regolare la giungla dell’A.I., che si aggiunge alle norme stabilite a partire dal 2016 dal cosiddetto Digital Package. Il Regolamento, complesso e dettagliato, è rivolto alla tutela dei diritti dei cittadini per evitare, fra l’altro, violazioni della privacy, notizie false, furti di identità; e sanziona le aziende e gli utilizzatori di A.I. che non lo rispettano. A seguire l’iniziativa europea, l’Italia ha da poco varato una legge (n.32 del 23/9/2025) che si ispira ai suoi princìpi. Sono proprio i regolamenti che Donald Trump chiede all’UE di annullare, pena ulteriori dazi. Che ne sarà del “ contenimento ”? (fine)
