In passato, le grandi rivoluzioni (agricola, scientifica, industriale) hanno ridefinito l’organizzazione sociale e le conoscenze che avevamo di noi stessi. Oggi, l’IA non solo modifica il cosa sappiamo, ma soprattutto il come arriviamo a saperlo.
Se, da un lato, la diffusione degli algoritmi offre la possibilità di esplorare enormi quantità di informazioni, consentendo a ognuno di noi un accesso senza precedenti a fonti di ogni genere, dall’altro si profila il rischio di affidare porzioni sempre più ampie del nostro pensiero a macchine che fungono da intermediari.
Questa intermediazione algoritmica non è mai neutra: ogni software, ogni piattaforma, ogni sistema di raccomandazione incarna le priorità, gli interessi e persino i bias di chi l’ha costruito, o di chi lo possiede.
Gli algoritmi filtrano, semplificano, selezionano. Parlo spesso del rischio che corriamo “soggettivizzando” le AI, ma un rischio ancora peggiore è quello di “divinizzarle”, ponendo in loro una fiducia acritica e trasformandoli in una autorità epistemica suprema.
Le AI ci dicono cosa cercare, cosa guardare, cosa imparare, ma la verità resta di un ordine superiore rispetto alla correlazione statistica, che è solo uno dei modi in cui possiamo costruirla.
Cosa succede se passiamo da una modalità di costruzione della conoscenza basata sull’incontro di posizioni conflittuali, a un flusso ininterrotto di risposte preconfezionate in cui l’esperienza soggettiva si frammenta in frasi, dati e suggerimenti che scorrono, velocissimi, sui nostri dispositivi?
Non lo sappiamo ancora, ma tale velocità non può essere innocua perché non ci lascia il tempo per una riflessione lenta, per la sedimentazione del pensiero. Occorrono pause e silenzi per generare idee nuove e coltivare uno sguardo critico. Al contrario le AI ci restituiscono un sapere in “tempo reale” ma privo di contesto, che resta provvisorio e spesso superficiale.
È innegabile che l’idea di un’intelligenza collettiva ampliata da capacità di calcolo di quest’ordine di grandezza può realmente favorire la cooperazione globale. Ma tale potenziamento rischia di rivelarsi illusorio se non viene accompagnato da un’etica dell’uso dei dati e da una rinnovata attenzione alla complessità.
La pretesa di oggettività delle AI si scontra infatti con il fatto che ogni algoritmo è, in fondo, un luogo ideologico: crea gerarchie d’importanza, forma il nostro sguardo e plasma le nostre domande.
Potremmo essere tentati di credere che un aumento quantitativo delle informazioni equivalga a un aumento qualitativo di conoscenza. Eppure, accedere a una massa sterminata di dati non ci rende automaticamente più saggi.
Senza una cornice concettuale, un filtro interpretativo e un ragionamento critico, il sapere diventa una sequenza di input sterili, destinati a perdersi nella nostra attenzione intermittente.
La modernità liquida, col suo bagaglio di incertezze e frammentazioni, incontra ora le AI e sperimenta una paradossale amplificazione di ansia cognitiva: più informazioni circolano, più cresce il disorientamento su ciò che davvero conta, ciò che merita di essere studiato e custodito.
La tecnologia digitale, inoltre, tende a standardizzare la creatività, risolvendo l’eccezione in pattern statistici. La scintilla del nuovo, che nasce dal conflitto e dall’errore, rischia di essere omologata perché le AI predittive proiettano il passato nel futuro, consolidando l’idea che non ci sia spazio per alternative radicali.
Ma la vera comprensione non abita nel consenso automatico e nella reiterazione di schemi preesistenti. Ha bisogno di attriti, di scontri dialettici, di quell’antagonismo fertile che scuote le fondamenta di un sistema per creare qualcosa di inatteso.
Se vogliamo dare forma a un’“intelligenza aumentata” che non sia mera accelerazione del pensiero computazionale, è indispensabile preservare la negatività del dubbio, la lentezza della riflessione e la resistenza del discorso critico.
Occorre pensare un design etico delle AI che rispetti la dignità umana, valorizzando i saperi locali e mantenendo aperto lo spazio per il dissenso. Solo così potremo invertire la tendenza a delegare la nostra fatica cognitiva a sistemi che, pur semplificandoci la vita, rischiano di omologare e impoverire la nostra capacità di pensare.
La sfida è grande: rimane da vedere se avremo il coraggio di sottrarre le AI alla dittatura dell’efficienza, restituendole la missione più alta di potenziare, e non annullare, la nostra vera libertà di comprendere.