In prima pagina sul Corriere della Sera, il 1° maggio 2026, che onore! Claude, un LLM (modello linguistico di grandi dimensioni creato da Anthropic, ovvero un chatbot d’intelligenza artificiale come Chat GPT, Gemini e Deep Seek), è stato “ intervistato ” da Walter Veltroni, persona attenta ai temi storici e sociali, nonché sensibile umanista. Ho avuto un senso di fastidio. Eppure ho giudicato buone le domande e le risposte sensate, calibrate, sagge, senza errori o “ allucinazioni ”, le insensattezze gratuite e fuori contesto che compaiono spesso nelle risposte dei chatbot. Ho apprezzato la modestia simulata da Claude, che sembra non negare i problemi posti dall’A.I. e non pretendere di essere quello che non è. Che correttezza! “ Impressive! ”, direbbero gli inglesi.

Gli sviluppatori dei LLM hanno evidentemente fatto molti passi avanti. Hanno perfezionato il discorso artificiale, sanato scorrettezze e invenzioni. E allora? Il fastidio è rimasto inalterato. Uno dei motivi risiede nel fatto che qualcuno – lo stesso Veltroni, oppure il direttore del giornale, o un esperto di A.I. – non abbia sentito il dovere di spiegare ai lettori, nello stesso spazio dedicato all’intervista, che le risposte ottenute da Claude sono soltanto frutto di calcoli statistici. E non abbia sottolineato che è una macchina e quindi non pensa ma calcola, non capisce quello che dice, non ricorda, non ha esperienze, non è intelligente. Non dovrebbero essere prerequisiti affinchè le risposte siano significative per noi umani? E soprattutto, siamo certi che tutti i lettori lo sappiano? Siamo sicuri che tutti gli utenti entusiasti dei chatbot più diffusi (Chat GPT ha 900.000.000 milioni di utilizzatori a settimana!) non finiscano per antropomorfizzare queste macchine suadenti? E che siano portati a confondere il verosimile con il vero, la simulazione con la realtà e di conseguenza siano indotti, in alcuni casi, ad affidarsi all’A.I., magari per cercare un senso alle loro vite come hanno già fatto i giovani che si sono tolti la vita dopo le interazioni con i LLM, per cui sono in corso cause legali negli Stati Uniti?

Perfino in Cina, nonostante l’acerrima competizione con gli USA per conquistare il predominio in campo A.I., il Governo ha proibito alle aziende di usare modelli che possano incoraggiare sentimenti autodistruttivi o creare dipendenza psicologica, come nei casi già verificati di boyfriend o girlfriend artificiali. Per non parlare dei numerosissimi utenti che chiedono ogni giorni ai chatbot di rispondere a domande sulla loro salute sentendosi rassicurati come se parlassero con un professionista. Un fenomeno in crescita, sul quale mettono in guardia molti studiosi e di cui riparleremo. Ma non fa pensare il fatto che se poniamo 2 volte la stessa domanda, proprio la stessa, al chatbot – come avverte anche Claude nell’intervista – otteniamo una risposta diversa? E che le riposte dipendono dalle domande, in senso più forte di quanto non avvenga con un umano? Walter Veltroni sa proporre le domande giuste da uomo di cultura quale è; e certamente non ha bisogno di Claude per scrivere e pensare. Ma i giovani, gli inesperti, i non consapevoli? Quanti saranno tentati di affidarsi alla macchina per simulare competenze che non hanno? Succede sempre più spesso, me lo ha raccontato un giovane in cerca di lavoro nel settore delle organizzazioni umanitarie. Alcuni suoi colleghi, nonostante fossero qualificati a produrre una relazione prima del colloquio di lavoro, si sono affidati per pigrizia a Chat GPT. Gli esaminatori se ne sono accorti e li hanno esclusi. Non cercavano chi delega le proprie capacità cognitive a una macchina.
Ci si accorge che qualcosa suona artificiale ascoltando i chatbot. Leggendo l’intervista, ho pensato all’appellativo “ Pappagallo stocastico ” con cui nel 2021 un gruppo ricercatrici, fra cui Timnit Gebru e Margaret Mitchell che guidavano il gruppo sull’etica nell’AI di Google, hanno chiamato gli LLM Pappagallo perché i chatbot ripetono parole apprese dagli umani senza capirle; e stocastico, che vuol dire casuale, come se il pappagallo in questione rispondesse a caso. Le autrici criticavano lo sviluppo dei chatbot, poiché fra l’altro venivano addestrati su enormi quantità di dati che contenevano in molti casi pregiudizi e inesattezze. La loro presa di posizione ha fatto discutere e non molto tempo dopo Gebru e Mitchell sono state allontanate da Google. Soltanto 1 anno dopo sarebbe uscito con grande clamore Chat GPT, prodotto da Open AI.

Walter Veltroni
Ciò detto, nessuno nega che i chatbot possano rivelarsi molto utili per compiti ripetitivi, per catalogare e organizzare dati nelle aziende o nella ricerca scientifica senza rinunciare alle verifiche e al controllo umano. Allo stesso tempo, è innegabile che questi prodotti sono realizzati da un ristretto gruppo di aziende in gara per conquistare un mercato miliardario, le quali non hanno alcun interesse al benessere e alla crescita delle persone che usano i loro prodotti come giocattoli, o come consiglieri. Aziende che rifiutano ogni regola e ogni verifica dell’affidabilità dei modelli che immettono sul mercato. Senza menzionare i costi elevatissimi, per costruire e far funzionare i giganteschi centri dati che divorano energia, acqua e distese di territorio. Altro fastidio mi ha colto pensando che le risposte date a Veltroni, le belle frasi utilizzate, sono state copiate da milioni di dati d’addestramento contenuti in articoli, libri e saggi pubblicati negli anni da giornalisti, studiosi, scrittori che hanno studiato, lavorato, faticato. A loro insaputa e senza che siano stati corrisposti diritti d’autore. Così va il mondo. Tanto studio finito in bocca (anzi, nel becco) di un pappagallo stocastico.
