Mi vanto di non avere mai usato fino ad ora nemmeno per prova o divertimento, tanto meno per impiegarlo al posto delle mie parole, ChatGPT o qualsiasi altro Large Language Model (Deep Seek, Gemini, Claude…). E scrivo le mie note sull’A.I. parlando di libri sull’argomento (cartacei, letti e sottolineati). Libri scritti in anni di lavoro e di studio da scienziati che conoscono dall’interno i temi di cui parlano. Si può essere d’accordo con loro, oppure no. Apprezzare o meno le mie scelte di autori e titoli e temi da trattare. Ma il “ gioco ” è trasparente e le fonti sono documentate. Si, anch’io uso la rete, i motori di ricerca e Wikipedia, senza illudermi che non ci siano errori o distorsioni della realtà. Ma la verifica sui libri e il confronto fra le posizioni di diversi autori, mi sembra ancora indispensabile.

Tanto per cominciare, mi turba sapere che ChatGPT (come gli altri LLM) non capisca quello che dice. Non comprende quello di cui parla, non conosce il significato delle parole che sembra usare come facciamo noi umani. Le sceglie soltanto in base a calcoli statistici, ovvero produce di volta in volta in output parole che sono la più probabile continuazione del testo precedente, in base ai dati su cui è stata addestrata. E quando commette un errore, viene chiamato “ allucinazione ”. Un termine, quasi una giustificazione, che trovo irritante. E comunque “lei” non lo sa di avere scritto una falsità. Verità o falsità, per la macchina sono la stessa cosa. Eppure mi affascina la straordinaria inventiva dei ricercatori nel campo del riconoscimento del parlato (si detta un testo e la macchina lo scrive, strumento utilissimo), della traduzione e infine nella generazione di testi, nei large language models da cui siamo partiti. Che si chiamano large perché vengono addestrati su enormi quantità di dati. Ad esempio ChatGPT-4 è stato addestrato su dati tratti dal web (sì, anche i nostri scritti e senza la nostra consapevolezza o autorizzazione) che, sommati, contengono circa 300 miliardi di parole. Ma i dati dell’addestramento non sono necessariamente verificati, contengono i pregiudizi di chi li ha forniti e non dichiarano le fonti. Lo spiega Francesca Rossi, che lavora all’IBM e ha fatto parte del gruppo di esperti della Commissione Europea che ha pubblicato nel 2019 le linee guida sull’etica dell’A.I. nel breve, utile volumetto Intelligenza Artificiale (Laterza, 208 pagine, € 18).

Insegnare ad una macchina a capire quello che legge oppure scrive, dotarla del nostro senso comune che ci permette di valutare il contesto, in base alla nostra esperienza di vita fatta di prove, errori, sentimenti, percezioni e tanto senso comune, è ancora il sogno impossibile dell’Intelligenza Artificiale Generale, che insegue l’idea di una macchina che ragiona come noi. Siamo ben lontani dal traguardo. Attenzione quindi a credere senza verifiche al programma che ci risponde: sia nel caso di un tema tecnico, oppure di un argomento che riguarda la nostra salute, o quando ci dà consigli psicologici. Anche l’empatìa è inserita nel programma, ma è soltanto simulata. Senza vera empatia, ChatGPT può ad esempio aiutare un giovane a progettare il suicidio, com’è successo negli Usa nel caso di Adam Raine, i cui genitori hanno citato in giudizio Open AI, l’azienda che produce il più famoso LLM dell’Occidente. E ricordiamoci che gli strumenti A.I., addestrati su dati esistenti, possiedono soltanto informazioni che riguardano il passato, non il presente che si sta evolvendo e non il futuro. E non possono essere paragonate, consentitemi il paragone classico, all’Oracolo di Delfi, ispirato dal dio Apollo, che comunque trasmetteva alla sacerdotessa Pizia frasi ambigue, lasciando l’interpretazione agli umani.

Torniamo ai libri allora. Per chi avesse voglia di approfondire (con un certo impegno, ma ne vale la pena) gli sviluppi scientifici e le idee geniali alla base dei recenti successi dell’A.I., consiglio vivamente L’Intelligenza Artificiale. Una guida per essere umani pensanti (Einaudi, pag. 352, € 22.10) di Melanie Mitchell, docente di scienza dei computer alla Portland State University. Dopo una breve carrellata sulla storia dell’Intelligenza Artificiale seguendo il suo sviluppo dal metodo a regole, al machine learning, alle reti neuronali artificiali, all’apprendimento profondo, il libro affronta il tema della “ barriera del significato ”, l’ostacolo più grande da affrontare per i programmi che usano il nostro linguaggio. La Mitchell è stata allieva di Douglas Hofstadter, matematico, filosofo e scienziato cognitivo vincitore nel 1980 del premio Pulitzer, attualmente all’Indiana University, autore del famoso Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante (Adelphi, 852 pagine, € 23.75). Hofstadter affermava di essere terrorizzato per i possibili futuri sviluppi dell’A.I.

Alcuni decenni dopo, la Mitchell sostiene che diamo troppa autonomia a questi sistemi, senza conoscere tutte le loro limitazioni e vulnerabilità. E cita fra gli altri Pedro Domingos, professore emerito alla Washington University, autore de L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo (Bollati Boringhieri, 354 pagine, € 25): «La gente si preoccupa che i computer diventeranno troppo intelligenti e si impossesseranno del mondo, ma il vero problema è che sono troppo stupidi e si sono già impossessati del mondo».