Il concetto di vero o falso alla luce dell’AI

by Claudia
4 Agosto 2025

Un mese fa, una coppia di amici, prima di partire per gli Stati Uniti, ha cancellato dai suoi smartphone tutti i riferimenti al presidente Trump. Erano terrorizzati di essere rimandati a casa, una volta atterrati al JFK di New York, perché sui giornali era apparsa una notizia inquietante: un turista norvegese era stato respinto dopo i controlli all’aeroporto di Newark, New Jersey, e costretto a tornare in Norvegia. Sul suo telefonino avevano trovato un meme che ritraeva il vicepresidente JD Vance, grasso e calvo.

Che qualcosa in questa storia non tornasse si poteva capire subito. Innanzitutto, la fonte che tutti i media hanno ripreso non è delle più affidabili: il «Daily Mail», tabloid che ha un rapporto altalenante con la verità e una frequentazione assidua con la bufala. Questo però non ha impedito a media anche seri, prestigiosi e solitamente affidabili di rilanciare la buffa storia di questo ventunenne norvegese inviso agli Stati Uniti d’America per il suo senso dell’umorismo e la passione per lo shitposting. Il ragazzo è stato  sottoposto a un controllo da parte delle autorità aeroportuali, come capita spesso a chiunque atterri negli Usa. Inoltre, è stato davvero respinto dalla stessa autorità portuale, solo che con il respingimento non c’entra niente il meme ma l’uso di stupefacenti.

In un’epoca dominata dal mondo virtuale, distinguere il vero dal falso è sempre più difficile. Fenomeni come le fake news – notizie false presentate come vere – proliferano online, mentre strumenti di AI generativa creano immagini, video e testi talmente realistici da ingannare anche l’occhio più attento. Il risultato è un ecosistema informativo inquinato da misinformation (informazioni false diffuse in buona fede) e disinformation (informazioni false diffuse deliberatamente) dove le fonti storiche possono essere falsificate e l’opinione pubblica manipolata.

Il concetto di vero o falso alla luce dell’IA è uno dei nodi più complessi e dibattuti. L’avanzamento dell’AI ha scardinato le tradizionali concezioni di verità e falsità, ponendo nuove sfide e opportunità. Per un’AI, la «verità» è spesso definita dai dati su cui è stata addestrata. Se contengono pregiudizi o informazioni errate, l’AI tenderà a riprodurre tali errori. Non possiede una comprensione intrinseca della verità, ma elabora pattern e correlazioni. Molti modelli di AI generativa, per ridurre le «allucinazioni» (la produzione di informazioni false o inventate), vengono integrati con motori di ricerca o basi di conoscenza verificate. In questo modo, la loro «verità» diventa una funzione della veridicità e dell’affidabilità delle fonti a cui attingono.

Insomma, il concetto di vero o falso nell’era dell’AI non è più un semplice binomio, ma una questione multidimensionale e dinamica. L’AI non «conosce» la verità nel senso umano o filosofico, ma la elabora e la genera in base ai dati e agli algoritmi. La sfida è quella di sviluppare un’AI che sia non solo potente e utile, ma anche affidabile e trasparente, e di creare un ecosistema digitale in cui la verità possa emergere in modo più solido, nonostante le nuove forme di disinformazione abilitate dall’AI. Sarà possibile o andiamo incontro a un mondo distopico, dove si realizzano tutte le catastrofi cognitive rappresentate nella serie inglese Black Mirror?

Come ha scritto Stefano Bartezzaghi, «uno dei massimi studiosi del Falso è stato Umberto Eco, che ha dedicato all’argomento studi semiotici, articoli, corsi universitari, conferenze, esperimenti scientifici e persino romanzi (Baudolino, Bompiani 2000; Il cimitero di Praga, Bompiani, 2010). Quello che Eco conclude è che difendersi dal Falso non è affatto difficile; quello che è difficile è avere un concetto del Vero. Per rendersene conto basta guardare a coloro che hanno un concetto solidissimo del Vero: per esempio i terrapiattisti o gli antivaccinisti. La loro fiducia è incrollabile e sono impermeabili a qualsiasi tentativo di dimostrazione del fatto che quanto loro credono vero sia in realtà falso».

A rafforzare questa paura di Eco, esiste l’effetto «camera dell’eco» dei social media: gli algoritmi tendono a mostrare agli utenti contenuti simili a quelli con cui già interagiscono. Ciò significa che la disinformazione, una volta entrata in una cerchia (per esempio i seguaci di una teoria cospirazionista), può rimbalzare e rafforzarsi continuamente senza contraddittorio, creando bolle informative in cui le false narrazioni diventano verità personali indiscutibili.