Cinque anni fa, in piena epidemìa Covid e all’apice del lockdown in atto in molti paesi, la Carnegie Mellon University di Pittsburgh, in Pennsylvania, analizzò più di 200.000.000 di tweets che mettevano in discussione le procedure di protezione che i governi avevano adottato. L’82% dei tweets (di probabile origine russa) erano ad opera di bot (abbreviazione di robot), ovvero programmi che prendono posizione sui social fingendo di essere persone reali, create per diffondere sfiducia nella scienza e nelle politiche sanitarie.

È solo 1 degli esempi della disinformazione resa possibile dalle nuove tecnologie informatiche, ora che  “l’onda tecnologica ” che vede protagonista l‘Intelligenza Artificiale comincia a manifestare tutti i suoi effetti. Già si avvertono alcune delle conseguenze economiche, sociali e politiche prefigurate da Mustafa Suleyman, CEO di Microsoft AI (Nota 5 del 30 settembre) e i gravi pericoli ai quali questa tecnologia esplosiva, che promette di risolvere i problemi dell’umanità e ha già ottenuto risultati straordinari in molti campi, ci sta esponendo. Siamo soltanto all’inizio. Ma ne siamo consapevoli?

Gli esempi di disinformazione in atto sono numerosissimi: bot che indirizzano le campagne politiche, immagini realizzate con l’A.I. che riproducono alla perfezione volti e voci a scopi truffaldini o pubblicitari. E se un domani qualche social diffondesse il video dell’assassinio di un politico in realtà mai avvenuto e ciò scatenasse disordini e scontri fra parti avverse?. Non sembra più fantascientifico.

Tutte le tecnologie sviluppate dall’uomo possono diventare pericolose nelle mani sbagliate. Lo sappiamo. Ma le tecnologie dell’A.I., che si sviluppano e si diffondono ad una velocità troppo elevata per riuscire davvero a monitorarle, hanno un potenziale negativo infinitamente più dirompente delle precedenti, rendendo difficile il loro contenimento e regolamentazione. Intanto, l’interconnessione di tutti i sistemi informatici fa sì che una notizia falsa oppure un semplice errore in un sistema A.I. (che per vezzo viene chiamato “ allucinazione ”), si propaghi in pochi secondi raggiungendo milioni di persone e pervadendo altri sistemi. Lo può fare, ad esempio, diffondendo un’informazione errata in un LLM (large language model, come i vari ChatGPT) oppure propagando un difetto nel sistema di controllo dei futuri autoveicoli autonomi (una delle ricerche di punta di molte aziende A.I.), che metterebbe in pericolo milioni di automobilisti e pedoni.

Il fatto è che un sistema basato su reti neurali e apprendimento profondo è una specie di scatola nera, che rende impossibile ricostruire il percorso che ha condotto al risultato. Tanto meno snidare la causa dell’errore. Non lo possono fare nemmeno i suoi realizzatori, che hanno creato una macchina che “ impara da sola ” e che può lavorare in crescente autonomia dall’uomo. E non basterà “ staccare la spina ” , dal momento che un sistema intelligente autonomo, potente e iperconesso saprà trovare sempre il modo – avvertono gli esperti – di arrivare al risultato che si prefigge.

E di chi sarà la responsabilità degli errori? Dei realizzatori del software? Delle aziende che li commercializzano? Di quelle che li utilizzano? Dell’ospedale oppure dei medici che usano un sistema diagnostico intelligente che li ha indotti in errore?

Un’altra minaccia, che sembra già avverarsi, è quello che Suleyman chiama, il “ trasferimento di potere ” reso possibile dall’A.I. Ovvero le conseguenze distruttive nelle società. Da un lato, l’A.I. può “ svuotare ” dall’interno le democrazie liberali, i sistemi di governo basati sulla fiducia, il dialogo e la diffusione trasparente delle notizie. Come si evolve una società quando non si è più in grado di distinguere il vero dal falso? Che ne sarà della fiducia nei nostri simili e nelle istituzioni? D’altro lato, l’A.I. può rendere ancora più efficaci i sistemi di controllo dei regimi autoritari e renderli ancora più pervasivi. Già oggi la Cina utilizza un sistema di sorveglianza dei suoi cittadini basato su sistemi di riconoscimento facciale e l’analisi dei dati raccolti sui loro movimenti e le loro scelte (un altro uso dei dati da tempo raccolti per fini pubblicitari dalle aziende High Tech) assegnando punti a ciascuno in base al proprio comportamento. Il trasferimento di potere può anche favorire gruppi di influenza politica, criminali o terroristi all’interno di uno Stato, che si dotano di sistemi A.I., accessibili grazie alla disponibilità di software open source, per fare propaganda, acquistare potere o gestire armi intelligenti e relativamente poco costose come i droni, minando l’autorità dello Stato.

Stuart Russell

È solo un assaggio di tutto ciò che il futuro, secondo l’accorato appello di Suleyman, sembra riservarci se non ci affrettiamo a contenere le nuove tecnologie. Il compito più difficile che la nostra specie ha finora incontrato. Lo scienziato invita a riflettere sul “ problema del gorilla “ come lo ha definito Stuart Russell, famoso docente di A.I. I gorilla sono tanto più forti di noi, eppure sono loro ad essere confinati nelle riserve o negli zoo. Noi umani, con i nostri deboli muscoli, abbiamo sempre dominato l’ambiente grazie alla nostra intelligenza. Saremo ancora in grado di farlo, dopo avere creato senza la necessaria regolamentazione macchine tanto più capaci di noi, oppure saremo noi a vivere nelle riserve? (continua)