L’intelligenza non è un’esclusiva degli esseri umani

Apocalittici e integrati: le previsioni sull’arrivo delle AGI, le intelligenze artificiali generali, macchine in grado di svolgere gli stessi compiti degli esseri umani allo stesso livello di competenza, sta contrapponendo filosofi, esperti di informatica e guru della Silicon Valley.

Qualche settimana fa il gruppo di ricerca americano AI Futures Project, guidato da Daniel Kokotajlo, ex ricercatore di OpenAI (quella di ChatGPT per intenderci) ha reso nota una previsione secondo la quale entro il 2027 vedremo la nascita delle AGI, seguite a breve distanza di tempo dalle ASI, o superintelligenze artificiali, in grado in poco tempo di sconvolgere il panorama politico, sociale ed economico del mondo come lo conosciamo.

Fantascienza? Provocazione? Il dibattito è lanciato e sullo sfondo resta la domanda, pressante (anche se secondo alcuni mal posta), su cosa ne sarà dell’intelligenza umana. Perché su una cosa sembrano quasi tutti d’accordo: il problema non è se vedremo la nascita delle AGI, ma quando.

Nello Cristianini, professore di Intelligenza Artificiale presso l’Università di Bath, nel Regno Unito, cerca di mantenere un certo distacco dall’emotività che spesso traspare da questi dibattiti, ancorando le sue riflessioni il più possibile ai dati concreti. Autore di una trilogia sull’avvento dell’IA, composta da La scorciatoia (2023), Machina Sapiens (2024) e da Sovrumano (2025), tutti pubblicati da Il Mulino, ha provato a immaginare come potrebbe essere questa nuova intelligenza sintetica.

Professor Cristianini, ci sono visioni contrapposte tra gli esperti sulla possibilità di arrivare alla creazione di AGI e addirittura di ASI, che superino l’intelligenza umana. Lei cosa ne pensa?
Bisogna essere molto chiari: l’intelligenza è l’abilità di risolvere problemi mai incontrati prima non è un’esclusiva degli esseri umani. Per AGI si intende un’ipotetica IA che possa risolvere gli stessi problemi, o svolgere gli stessi compiti cognitivi, allo stesso livello di competenza. Ma questo non richiede che essa comprenda il mondo allo stesso modo di un essere umano. Certo è che se avessimo una forma di AGI, che ci eguaglia in tutto, non ci vorrebbe molto per fare un passo in più e superarci.

A che punto siamo nella ricerca in questo campo?
È possibile confrontare le prestazioni in vari campi diversi, e quindi fare dei confronti, e negli ultimi anni il progresso è stato notevole: in molti compiti il divario si è ridotto di molto, in alcuni siamo già stati superati.

Secondo John Searle, filosofo USA, il computer ha la capacità di eseguire una serie di istruzioni, un programma, cioè ha capacità di sintassi, ma ciò non implica che possa conoscere il significato delle sue azioni. Che ne pensa?
Francamente non ho mai compreso il valore di questa posizione: se una macchina legge una cartella clinica e fa una diagnosi corretta, ripetutamente, in che senso diciamo che non ha capito? Penso che Searle non abbia un’idea abbastanza generale di che cosa sia la comprensione, e pensi solamente all’esperienza umana di «sentire di avere compreso», mentre l’intelligenza esiste in molte forme e specie diverse. Dobbiamo evitare l’antropocentrismo, che ci ha rallentato in tante altre occasioni.

Discutendo dei limiti dell’IA generativa, alcuni sottolineano che questi sistemi si basano principalmente su capacità predittive e non equivalgono a una comprensione completa del mondo.
È vero solo in parte. Teniamo presente che gli attuali modelli di IA creano rappresentazioni gerarchiche del loro ambiente (anche quello testuale) che hanno anche 120 livelli di astrazione: queste rappresentazioni interne sono una forma di comprensione, anche se diversa dalla nostra. Ma è vero che siamo ancora agli inizi, quando si parla di modelli che comprendono il mondo fisico, da usare per esempio nelle automobili autonome, e nei robot. Comprendere anche la parte fisica e visiva del mondo sarà un passo necessario, e il progresso in questa direzione è rapido.

Le IA sono delle «scatole nere», nel senso che non sappiamo quali processi portano da un dato input a una particolare risposta. Questo non pone un problema di metodo scientifico, se si presuppone che esso sia basato sulla verificabilità e riproducibilità dei processi? Non rischiamo insomma di perdere per strada la nostra capacità di ragionamento scientifico appoggiandoci solo alle macchine?
Penso che stiamo seguendo il metodo scientifico. Diversi gruppi di ricerca applicando la stessa ricetta hanno riprodotto gli stessi risultati, le prestazioni sono misurate rigorosamente e riproducibili. Non c’è bisogno di comprendere come funziona un seme per farlo germogliare, o per studiare in dettaglio la botanica e perfino la genetica. Leggere l’interno dei modelli è comunque importantissimo e sarà la prossima sfida. Capisco la domanda sulle nostre capacità di ragionamento: cosa facciamo quando qualcosa impara a fare previsioni, che non sappiamo spiegare? Forse non abbiamo bisogno di comprendere le ragioni che spingono YouTube a raccomandarci un certo video, ma per una diagnosi sarebbe bene conoscerle. Quale è il ruolo che vogliamo attribuire alla scienza: semplice fonte di previsioni o anche di spiegazioni?

È giusto regolamentare l’utilizzo dell’IA come sta cercando di fare l’UE o, al contrario, bisognerebbe togliere ogni ostacolo come negli USA?
Come ha detto, la legge Ue non regolamenta la ricerca, ma solo l’utilizzo. Sono certo che l’uso di questa tecnologia vada regolamentato: si immagini una città senza il codice stradale, come sarebbe il traffico? E anche se ci sono esenzioni per la ricerca, questa va condotta comunque in modo molto prudente.

Quale forma potrà avere un’IA superintelligente e quali potranno essere le conseguenze sul mondo reale? Come si immagina il mondo tra 10 anni, è preoccupato?
Nessuno sa veramente come potrebbe essere una superintelligenza, dal momento che non c’è mai stata, e dobbiamo avvicinarci con cautela e lentamente. Ma molto dipenderà da come sceglieremo di usarla: se la mettiamo a controllare risorse essenziali potrebbe essere un problema. Se invece la utilizziamo per problemi limitati, potrebbe essere di grande aiuto. Non suggerisco di delegare alcun controllo. È bene preoccuparsi un po’, anche quando pare prematuro, e studiare il fenomeno. Conoscere queste cose toglie la paura, e anche il sospetto. Essere coinvolti e partecipare, soprattutto per gli studenti di oggi, è un modo per rendere l’intero settore più sicuro e trasparente.

Related posts

Città e avventura a zero emissioni

Capire la lingua dei segni con l’aiuto di un avatar

Batterie scariche? Bastano 5 minuti per sostituirle