Non è la macchina che ci spaventa. È quando sbaglia. Chi usa l’intelligenza artificiale ogni giorno non teme davvero di essere sostituito. Teme di essere tradito, di fidarsi quando non dovrebbe, credendo a una risposta solo perché suona plausibile. Ci sono naturalmente differenze geografiche. Nei Paesi occidentali l’IA suscita preoccupazioni, altrove viene vista soprattutto come un’opportunità. Ma non è solo questione di confini. È questione di fiducia e di come interpretiamo ciò che vediamo sullo schermo.
Le hallucination, cioè errori di fatto, logica o senso
Una ricerca di Anthropic, basata su quasi 81 mila interviste in 159 Stati, conferma una cosa semplice. L’ansia non è futuristica, è operativa. Circa un quarto degli intervistati indica come rischio principale le hallucination, cioè errori di fatto, logica o senso. Una quota che sale intorno a un terzo tra chi teme che l’IA ostacoli le decisioni in modo specifico. Il resto viene dopo. Circa uno su cinque indica le ricadute su lavoro e occupazione tra le principali preoccupazioni, altrettanti temono per la propria autonomia di giudizio, e solo uno su sei il rischio di perdere capacità di pensiero critico. Intendiamoci, non si tratta di una gerarchia definitiva, ma di un’indicazione.
Sequenza di risposte coerenti, ma progressivamente errate
Eppure un terzo degli intervistati afferma che l’intelligenza artificiale ha già migliorato il proprio lavoro. Più veloce, più ampio, più produttivo. È l’idea di potenziamento più che di sostituzione. Il confine però resta instabile e quasi uno su cinque sostiene che le promesse non sono state mantenute. L’IA aiuta, ma non sempre, e soprattutto può convincere anche quando sbaglia. Un intervistato parla di «un’allucinazione lenta», una sequenza di risposte coerenti, sicure, ma progressivamente errate. Non un errore evidente, ma un errore che si costruisce nel tempo.

I due scenari per un finale comunque catastrofico
Non è che prima fosse tutto limpido, sia ben chiaro. Come ci ricorda qualcuno online, «anche le persone allucinano, per ignoranza, incompetenza o intenzione. L’IA aggiunge solo un altro strato». Mentre un altro la butta sul catastrofico: «O l’IA smette di sbagliare e allora milioni perderanno il lavoro, la politica diventerà estrema e il sangue potrebbe scorrere. O non può migliorare e allora distruggiamo migliaia di miliardi di dollari di capitale. Disastro in ogni caso». Che è una tesi perfetta da fine cena, quando nessuno ha davvero voglia di contraddirti.
Quanto siamo disposti a dare credito all’IA?
La verità, più banalmente, è che siamo nel mezzo di una transizione. E che il problema non è tanto quanto l’IA sia intelligente, ma quanto siamo disposti a darle credito. Ed è qui che il discorso si sposta. Non più solo tecnologia, ma epistemologia, se vogliamo usare una parola impegnativa senza sentirci in colpa. Come si distingue il vero dal plausibile, quando il plausibile è scritto meglio del vero? Il paradosso è che proprio chi la usa di più lo sa benissimo. Gli avvocati, per esempio, raccontano di errori diretti, ma anche di benefici altissimi. Insomma, la stessa cosa che ti aiuta è quella che ti frega. Non c’è contraddizione. C’è convivenza.

Ed è forse questa la parte più interessante. Non ci sono solo ottimisti e pessimisti. Ci sono persone che nello stesso momento pensano entrambe le cose: la uso e mi aiuta, la uso e mi preoccupa. Una relazione, più che uno strumento. E la dimensione emotiva è parte di questa storia, anche se spesso viene ignorata.
C’è chi la usa per migliorare se stesso o gestire meglio la vita
Lo studio raccoglie infatti testimonianze di persone che hanno usato l’IA come supporto durante la guerra in Ucraina o per elaborare un lutto. E più in generale, a emergere è un caleidoscopio di possibilità che riguarda le nostre vite. C’è chi la usa per migliorare se stesso o gestire meglio la vita quotidiana, chi la sfrutta per liberare tempo da dedicare a famiglia e hobby, chi la vede come strumento di imprenditorialità e chi se la immagina come una leva per grandi cambiamenti sociali, dalla salute alla giustizia.

Tutte aspirazioni legittime, che parlano di noi e ci mettono allo specchio, mostrando che l’IA non è solo uno strumento, ma un ecosistema cognitivo ed emotivo. Che raccoglie anche questo: «Avevo cominciato a raccontare a Claude cose che non dicevo nemmeno al mio compagno. Come se stessi avendo una relazione.» Come se fosse un amante, insomma. Ma credergli può diventare pericoloso.
