Abbiamo rincoglionito anche l'intelligenza artificiale
Le allucinazioni nell’Ai, ovvero le risposte false ma convincenti, sono in aumento, e l’uomo è il principale responsabile.
In evidenza

Il problema si aggraverà quando l’Ai inizierà a imparare direttamente dai social, dove verità e falsità si mescolano senza soluzione di continuità
Un paio d’anni fa, quando ancora l’intelligenza artificiale sembrava roba da laboratorio e non da chat di tutti i giorni, Wired Usa pubblicò un articolo dal titolo “Confessioni di uno scrittore di intelligenza artificiale virale”. La scrittrice e giornalista Vauhini Vara raccontava la propria esperienza con GPT-3, una delle prime versioni del generatore di testo di OpenAI. Provandolo per la prima volta (e prima che arrivasse a tutti), rimase colpita dalla capacità della macchina di toccare corde emotive profonde, riuscendo a scrivere su un dolore che lei stessa non era mai riuscita a raccontare: la morte della sorella. Era l’inizio dell’Ai, le prime volte in cui si cominciava davvero a parlare di intelligenza artificiale nella scrittura, e mi colpì il passaggio in cui la giornalista raccontava che, dopo vari tentativi, l’intelligenza artificiale trovò parole che le sembrarono vere e commoventi, dando vita a Ghosts, un saggio che sarebbe poi diventato virale.
La prima risposta dell’Ai sulla sorella fu surreale: immaginò che fosse guarita. Solo dopo ripetuti tentativi e aggiustamenti, Vara riuscì a guidare la macchina verso un racconto più autentico del dolore, finché GPT-3 trovò parole che la commossero davvero, riuscendo a restituire la verità della sua esperienza più profonda. E scrisse: “Stavamo tornando a casa da Clarke Beach, quando ci siamo fermati a un semaforo rosso, lei mi ha preso la mano e me l’ha stretta. Questa è la mano che teneva: la mano con cui scrivo, la mano con cui sto scrivendo questo”. Dopo che Ghosts, divenne virale, Vara continuò a sostenere che alcune delle frasi più potenti erano nate proprio da quel confronto con l’Ai. Col tempo però, notò che i modelli successivi erano diventati più piatti, prevedibili, pieni di cliché. Capì cosa stava succedendo solo dopo aver parlato con Sil Hamilton, ricercatore alla McGill University, che le spiegò come OpenAI avesse perfezionato i modelli per farli diventare buoni chatbot: cortesi, sicuri, prevedibili, in stile aziendale.
Dopo GPT-3 (2020) sono arrivati GPT-3.5 (2022), GPT-4 (2023) e GPT-4 Turbo (2023), più veloce ed economico. Al momento, GPT-4 e 4 Turbo sono le versioni più recenti disponibili. E cosa è cambiato? I modelli sono diventati più potenti, più veloci e più bravi a seguire le istruzioni. Ma hanno mantenuto un problema di fondo: le cosiddette allucinazioni, ovvero quando l’intelligenza artificiale inventa fatti, date, citazioni o dettagli inesistenti, pur continuando a scrivere con tono sicuro e convincente. È uno dei limiti più delicati di questi strumenti, soprattutto quando si usano per informare, raccontare storie vere o prendere decisioni importanti. Lo scorso 6 maggio, il New York Times, ha dedicato un lungo approfondimento proprio a questo. Spiegando come, a più di due anni dal debutto di ChatGPT, le Ai vengono usate ovunque — dalle aziende ai privati — ma nessuno è ancora riuscito a garantirne l’affidabilità. Anzi, i sistemi più avanzati di OpenAI, Google e DeepSeek commettono più errori di prima. Sono migliorati nei calcoli, ma più imprecisi sui fatti.
Questi modelli, infatti, non distinguono il vero dal falso e a volte inventano informazioni: il fenomeno è noto come allucinazioni. In alcuni test, scrive i Nyt, i nuovi sistemi hanno mostrato tassi di errore fino al 79%. “Si passa molto tempo a distinguere tra risposte corrette e inventate”, ha spiegato al Nyt Pratik Verma, ceo di Okahu, società che aiuta le aziende a gestire le allucinazioni dell’IA. Senza controllare questi errori, il valore dei sistemi rischia di svanire. E sebbene OpenAI e Google abbiano lavorato per ridurli, con l’arrivo dei nuovi sistemi di ragionamento le allucinazioni sono tornate a crescere, come confermano anche i test interni di OpenAI. Basta farsi un giro sui forum di smanettoni informatici per scoprire che in molti discutono di come scaricare le vecchie versioni dell’AI in locale, nel timore che i nuovi aggiornamenti ne compromettano le capacità.
E i numeri pubblicati sempre dal Nyt confermano le allucinazioni. “Il modello o3 di OpenAI ha avuto un tasso di allucinazione del 33% nel test PersonQA (che consiste nel rispondere a domande su personaggi pubblici), più del doppio rispetto al modello precedente o1. Ancora peggio è andata al nuovo o4-mini, che ha raggiunto il 48%. Nel test SimpleQA, che pone domande più generiche, le percentuali sono salite al 51% per o3 e al 79% per o4-mini, mentre o1 si era fermato al 44%”. Insomma, le allucinazioni esistono, aumentano, e l’Ai è tutt’altro che quella che aveva commosso la giornalista nello scrivere la frase sulla sorella. E se è vero che la macchina ha fatto enormi passi avanti, non possiamo fare a meno di pensare che, in qualche modo, l’uomo abbia rincoglionito anche l’intelligenza artificiale. L’essere umano infatti gioca un ruolo cruciale nella generazione del fenomeno delle allucinazioni nei modelli di intelligenza artificiale.
L’errore umano si infiltra nel processo di addestramento dell’intelligenza artificiale in due momenti chiave. Il primo è durante la fase di feedback umano: i modelli come quelli basati su RLHF (reinforcement learning from human feedback) imparano grazie alle valutazioni delle persone. Se però chi supervisiona commette errori — ad esempio giudicando corretta una risposta sbagliata — l’Ai finisce per interiorizzare queste imprecisioni, trasformando le allucinazioni in parte integrante del suo modo di rispondere. Il secondo punto critico riguarda i dati di addestramento. L’intelligenza artificiale apprende da tutto ciò che le viene dato in pasto: forum, articoli, blog, commenti, spesso pieni di errori, distorsioni o informazioni non verificate. E se il modello è ottimizzato più per risultare fluido e convincente che per essere davvero corretto, il rischio è che generi risposte che “suonano bene” ma che in realtà sono sbagliate.
Demis Hassabis, co-fondatore e CEO di DeepMind, tra i nomi più autorevoli nel campo dell’intelligenza artificiale, ha lanciato un avvertimento: l’industria dell’Ai sta affrontando un rallentamento nei progressi tecnologici. E ha spiegato che i dati utili per addestrare i modelli sono ormai agli sgoccioli, e senza nuovi approcci il progresso rischia di fermarsi. La soluzione? Far apprendere le AI da sé, attraverso tentativi ed errori, generando dati sintetici. Un metodo efficace per ambiti oggettivi come matematica e programmazione, ma che si complica nelle scienze umane, dove la verità è spesso un’opinione.
Difficile immaginare cosa potrà diventare il fenomeno delle allucinazioni quando l’Ai inizierà ad apprendere direttamente dai social: se già ora fatica a distinguere il vero dal falso, immersa tra complotti, gattini parlanti e ricette miracolose, il rischio è che la realtà diventi solo un optional. Tanto più si allontana la macchina dall’uomo, tanto più c’è speranza che funzioni davvero. Vale la pena riproporre la chiusura dell’articolo di Vauhini Vara: “Mi fece infuriare. Il modello di intelligenza artificiale che mi aveva aiutato a scrivere “Ghosts” tutti quei mesi prima – che aveva evocato la mano di mia sorella e mi aveva permesso di stringerla nella mia – era morto. La sua sorellina aveva l’insensata efficienza di una spillatrice. Ma poi, cosa mi aspettavo? Stavo conversando con un software creato da alcune delle persone più ricche e potenti del mondo”.
Altre Notizie della sezione

Torture, esecuzioni, sparizioni forzate: Teheran processa le “spie israeliane”
22 Giugno 2025La denuncia di Amnesty: l’Iran ordina l’applicazione automatica della pena di morte per ‘spionaggio’ con processi sommari. Almeno 8 nel braccio della morte.

Open Arms, i giudici: «Salvini non era obbligato a fornire il porto sicuro»
20 Giugno 2025La sentenza va anche oltre e precisa che chi ha sbagliato è stata proprio Open Arms nel non cercare altre soluzioni.

Il primogenito del Senatur di nuovo nei guai
19 Giugno 2025Riccardo Bossi condannato per maltrattamenti alla madre. Era già stato condannato a due anni e sei mesi per aver percepito indebitamente il reddito di cittadinanza.