Quando un centinaio di anni fa inventammo la prima macchina che sapeva produrre un calcolo, la nostra reazione fu di pura meraviglia ma senz’altro modesta in confronto a quella che abbiamo avuto quando abbiamo inventato una macchina in grado di produrre un testo di senso compiuto. Il senso di ammirazione, speranza e paura che ci suscitano poche parole messe bene in fila non è neanche lontanamente paragonabile alla reazione che abbiamo davanti al più complicato dei calcoli.
Come mai risolvere un calcolo impossibile ci emoziona meno di una manciata di parole?
Nel corso della storia, abbiamo sempre cercato di comprendere e comunicare il mondo in cui viviamo, tessendo reti di simboli e significati che ci permettono di condividere conoscenze, emozioni e miti, il che senz’altro spiega in parte questa differente reazione. Ma cosa significa “comprendere” una lingua? E in che misura la comprensione di una macchina si avvicina a quella umana?
Alla base della teoria matematica della comunicazione, sviluppata da Claude Shannon, c’è l’idea che il linguaggio possa essere analizzato in termini di trasmissione di dati, segnali e rumore. Gli LLM, fondamentalmente, operano su queste premesse: analizzano grandi quantità di testi, individuano pattern statistici e producono risposte basate su probabilità. Questo permette loro di processare una grande quantità di dati e rispondere in maniera coerente con la nostra richiesta iniziale, ma equivale a comprendere il significato delle parole?
Per noi esseri umani, il significato è radicato in esperienze, contesti culturali, emozioni e in un complesso reticolo di interazioni sociali che si sono evolute nel tempo. La parola “amore”, ad esempio, non è soltanto una sequenza di simboli, ma racchiude in sé millenni di storie, legami emotivi e riflessioni filosofiche. Gli LLM, al contrario, non possiedono un vissuto o una coscienza che possa dare un senso “profondo” alle parole: per loro, ogni termine è un segno statisticamente correlato a innumerevoli altri segni, senza che vi sia un “sé” che sperimenta o vive il mondo.
È qui che scaturisce il dilemma: possiamo davvero definire questi sistemi “intelligenti”? In parte insieme a Massimo Chiriatti abbiamo provato a rispondere a questa domanda all’interno di HI! Human Intelligence, il mio primo docufilm uscito da poco su Amazon Prime Video. Se consideriamo l’intelligenza come la capacità di risolvere problemi, apprendere dall’esperienza e adattarsi al contesto, gli LLM dimostrano una forma di abilità computazionale straordinaria. Tuttavia, questa “intelligenza” è di natura diversa da quella umana o animale. Mentre un cervello umano non solo elabora informazioni, ma le integra con emozioni, intuizioni e un senso del sé, l’intelligenza artificiale resta confinata a regole e pattern estratti da dati preesistenti.
Il termine “intelligenza” assume in questo contesto una valenza ambivalente. Da un lato, vi è la capacità tecnica di elaborare e rispondere a enormi moli di dati. Dall’altro, l’intelligenza autentica, quella che caratterizza l’essere umano, si manifesta nella consapevolezza, nell’empatia e nella capacità di riflettere sul proprio essere. Le macchine, pur eccellendo nella simulazione del linguaggio, non possiedono la dimensione della coscienza, quella scintilla che rende l’essere umano unico.
In altre parole, l’intelligenza che osserviamo nelle macchine è una simulazione: una rappresentazione statistica che, sebbene sorprendente per la sua capacità di emulare risposte umane, non implica una reale comprensione o coscienza. La nostra intelligenza, profondamente radicata in un continuum evolutivo e culturale, si basa su una complessa interazione tra biologia e società, un processo che le macchine non possono replicare completamente.
Negli ultimi anni, ho avuto il privilegio di dialogare con numerose aziende che si interrogano sulle potenzialità e sui limiti dell’intelligenza artificiale. È fondamentale che, in questo contesto, comprendiamo bene le differenze tra il linguaggio umano e quello “computazionale”. Altrimenti, rischiamo di alimentare aspettative irrealistiche, proiettando nelle macchine i desideri inconsci e le paure che invece appartengono al nostro mondo emotivo e simbolico.
Una comprensione più profonda di come funzionano gli LLM e di cosa significhi realmente “comprendere” è essenziale non solo per chi opera nel mondo della tecnologia, ma per l’intera società. Solo così potremo utilizzare queste innovazioni in maniera etica e responsabile, evitando di trasformare uno spazio vuoto – quello della conoscenza tecnica e filosofica – in un terreno fertile per miti moderni.
Essere consapevoli che l’intelligenza artificiale, per quanto avanzata, opera su principi diversi da quelli che sottendono il linguaggio e il pensiero umano, ci aiuta anche a comprendere questa differenza che non solo arricchisce il nostro dibattito sul futuro della tecnologia, ma ci permette anche di sviluppare aspettative realistiche e di evitare di cadere in illusioni ideologiche. Solo così possiamo sperare di integrare la tecnologia nel nostro tessuto culturale, mantenendo viva la capacità di pensare, creare e innovare.