Con il teologo ed esperto di tecnologia Paolo Benanti spieghiamo in quale modo è possibile coniugare etica, filosofia e sviluppo tecnologico e immaginare una società più giusta ed equa.
Joe Casini: “Buongiorno, buona domenica e benvenuti ad una nuova puntata di Mondo Complesso, il podcast in cui parliamo di complessità sempre con ospiti nuovi. Oggi abbiamo un ospite d’eccezione perchè abbiamo Paolo Benanti, quindi benvenuto Paolo!”
Paolo Benanti: “Buongiorno e buona domenica a tutti”
Joe Casini: “Paolo Benanti è teologo, esperto di etica ma anche di tecnologia. Qui parliamo di intersezione e te Paolo sei capitato a fagiolo per parlare di queste intersezioni. Noi partiamo di solito con una domanda semplice e quella che ti volevo fare, dato che ti occupi di etica e tecnologia, è: quali connessioni ci sono tra etica e tecnologia? Dato che magari potrebbero sembrare due mondi distanti.”
Paolo Benanti: “C’è un’apparente contraddizione perché se compro una macchina, un artefatto tecnologico, io vorrei che non avesse quella cosa che ha a che fare con l’etica, cioè la libertà di fare cose che non voglio. Il pistone si muove nel cilindro o il motore rotativo, se la prendo elettrica, si muove secondo quella legge e deve fare così e se non fa così ci sono dei problemi. Se questa è la tecnologia potremmo pensare che abbiamo un problema da un punto di vista dell’etica, che c’entra l’etica con la tecnologia? La risposta semplice a una questione complessa viene in realtà dalla storia della tecnologia stessa, quando mi sono trovato a fare il dottorato, con una borsa di studio in America, mi hanno portato a vedere le cose per introdurre il tema dell’etica della tecnologia e questo professore ci ha portato a New York, tipo gita scolastica, se non fosse che eravamo dieci dottorandi quindi dieci maschi competitivi tutti insieme, e ci ha fatto vedere una lunga autostrada a sei corsie, la Parkways che unisce Manhattan con Long Island, e da bravo sadico professore ha detto una cosa molto semplice: cosa vedete? Ecco, voi immaginate dieci ragazzi competitivi, tutti volevano sembrare più brillanti possibili e abbiamo detto di tutto mentre la risposta era solo una cioè asfalto e cemento armato. A quel punto, con questo stile molto da cattedratico americano ci ha portato in una biblioteca pubblica dove ci aspettavano dieci copie di un libro di mille pagine, che è uno dei migliori libri pubblicati in America che ha vinto non so quanti premi, che raccontava la vita di questo politico che ha dato forma a New York così come la vediamo oggi e raccontava come e perché è stata fatta questa autostrada che era la Parkways. Erano gli anni 40 c’era una determinata visione sociale, forse oggi non più accettabile, in cui si diceva che la città non doveva essere per tutti ma le parti migliori della città per le persone reputate migliori e quindi questo politico che cosa fa? Siccome a Long Island c’è Jones Beach, uno dei posti più deliziosi, siccome il 40 la parte migliore della società era considera la media ricca borghesia bianca fa in modo che solo loro possano andare in spiaggia cioè non costruisce un sistema di trasporto pubblico e quei punti in calcestruzzo che stanno sulla Parkways li fa costruire due piedi di una sessantina di centimetri più bassi dello standard, cioè gli autobus non si possono muovere. Ecco, l’etica intercetta la tecnologia proprio più qui, quando si chiede che tipo di forma d’ordine e di potere la tecnologia inietta all’interno del reparto sociale, quindi non è che ha a che fare con i freni motori o con i gradi di libertà che ha un sistema meccanico, ma ci chiede l’utilizzo strutturato della tecnologia che implementiamo nella nostra società come cambia le relazioni tra di noi. Veniamo tutti fuori dalla pandemia ed è stato un algoritmo sul portale della sanità regionale che ci ha detto chi, come, quando poteva fare il vaccino prima degli altri. L’etica della tecnologia si chiede proprio questo se nella Costituzione scriviamo che siamo tutti uguali ma nella platform, per esempio, abbiamo login e password che ci danno diritti diversi come stanno insieme le due cose? Quindi, mi dispiace, ma l’etica della tecnologia più che rispondeste è un modo di fare domande e sarò costretto a fare domande alle vostre domande.”
Joe Casini: “Va benissimo, questa è una cosa che a noi piace tantissimo. Il secondo step è la domanda nella domanda. Ti chiedo come prima cosa: vorresti una domanda che si focalizzasse più sui temi della tecnologia o che si focalizzasse più sul tema della religione?”
Paolo Benanti: “Andiamo sulla tecnologia che quell’altra siamo in alta stagione, sotto Natale.”
Joe Casini: “Vorresti una domanda più con un taglio personale o professionale?”
Paolo Benanti: “Andiamo sul professionale.”
Joe Casini: “In questi ultimi anni abbiamo parlato di nuove tecnologie, in particolare in questi ultimi mesi c’è tutto il tema dell’AI generativa, che è un tema molto evocativo, quando mi capita, per esempio, di fare interventi, speech e quant’altro cerco di andare a captare quali sono le fantasie che la tecnologia ci attiva. Sul tema della tecnologia riponiamo spesso paura ma anche desideri, quindi c’è un’attivazione emotiva molto forte, tant’è che spesso la tecnologia viene associata a derive distopiche che sono delle fantasie che ci facciamo su come la nostra società potrebbe o vorremmo si evolvesse. Quindi, la domanda che ti volevo fare è: tu che tipo di traiettoria di sviluppo ti immagini? Anche alla luce di quest’ultimo passaggio che stiamo vivendo che è in forte hype che sono appunto le AI generative.”
Paolo Benanti: “Dunque, è interessante questa domanda perchè proprio ieri sera Sam Altman, il fondatore di Open AI, ha tirato fuori sei tweet a razzo in cui parlava del fatto che loro hanno dei pezzi di artificial general intelligence, erano le 22.30 da noi e alle 22.45 c’erano già duemila replay da tutto il mondo. Questo potrebbe tracciare un po’ l’orizzonte, Turing ci ha detto che la macchina è intelligente se ci confonde, cioè se non sappiamo più che cos’è uomo e che cos’è macchina, per certi versi e voglio essere provocatorio, alcune cose che tirano fuori strumenti come CHAT GPT, strumenti generativi, in parte hanno già passato il test di Turing perché in parte già non riconosciamo più se l’ha fatto un uomo o una macchina. Questo è interessante per tanti motivi, primo perché ci chiede di ripensare al test di Turing e ci chiede di ripensarlo in un’ottica della complessità perché Turing dice che quando, al di là del muro, non sappiamo riconoscere se ci risponde una macchina o un uomo, la macchina è come l’uomo. Ma questo inverte, e lui non ci ha pensato perchè era un tecnico e matematico non un filosofo, un modello che Platone ci aveva presentato tremila anni prima quando nel mito della caverna ci dice che non è l’ombra sul muro a fare la conoscenza ma è andare oltre, noi lo abbiamo accettato e questo gioco ci sta affascinando, ho giocato con CHAT GPT ho consumato qualche Cascata del Niagara di corrente per farmi rispondere, però è evidente che non basta a definire che differenza c’è tra una macchina che funziona e noi che esistiamo. Le intelligenze artificiali generative hanno questo grande potere rifrattivo, come se fossero una lente sfocata per noi miopi e non vediamo più i confini di dove finisce l’umano e dove inizia la macchina e quindi arriviamo alla domanda: qual è la sfida? La sfida è che di fronte ad una macchina che si umanizza ogni giorno di più c’è il rischio che noi ci macchenizziamo sempre di più, cioè che capiamo noi stessi con la lente della macchina, e quindi con una sorta di processi da aggiustare, di sotto algoritmi da modificare, più o meno performanti. Per cui, che cos’è l’amore? Grande domanda, che nasce dal cuore dell’essere umano, potremmo pensare che l’amore è un algoritmo biologico che serve, in fondo, a regolare il prosieguo della nostra specie. Allora se l’algoritmo biologico amore è questo e niente di più noi siamo figli di un paio di algoritmi biologici che si combinavano bene tra di loro, però questa cosa non era solo come ha funzionato l’attrazione tra i nostri genitori, riguarda anche quel di più che fa sì che una vita possa dirsi ben spesa e ben vissuta perché vissuta in una qualità che non è semplicemente una quantità. Allora qualcosa non basta, forse ci sarà anche qualcosa di questo tipo dentro di noi perché siamo anche biologia ma c’è qualcosa che eccede questo strato. L’intelligenza artificiale generativa imita qualcosa ma la macchina non sa di aver creato una bella poesia, è l’uomo che la legge che dice che è interessante, ecco noi siamo qualcuno, quella è qualcosa, la sfida sta qua.”
Joe Casini: “Da lettore delle tue opere una cosa molto stimolante è mai come in questa epoca, a proposito di intersezioni e come tutta la parte si fa all’umanesimo e a tutte le forme di cultura che non sono strettamente tecnico-scientifiche, è anche il fatto che mai come in questo momento ci dobbiamo domandare cosa ci rende umani perché nel momento in cui iniziamo a potenziare le nuove tecnologie dandogli sempre più aspetti della nostra vita il rischio è che se non capiamo molto bene cosa ci definisce come essere umani o magari un giorno lo perderemo e non ce ne saremo neanche resi conto. Il rischio è che se non iniziamo a porci attenzione ad un certo punto ci potremmo perdere in questo percorso.”
Paolo Benanti: “Assolutamente e direi, proprio per tenere la complessità al centro di questa nostra chiacchierata, quello che è il nostro essere umani non è una conoscenza data per certa e per sempre ma è un processo, è qualcosa che continua a interrogarci, perché una giraffa non si chiede che vuol dire essere giraffa mentre noi sì, e che cambia nel corso del tempo. Solo per dirlo con tre tappe fortissime: nella prima tappa capiamo il nostro stato della riflessione dell’essere umano quando guardiamo gli scheletri, sugli scheletri umani se andiamo su Via Appia dentro i sepolcri romani di matrice anche greca troviamo l’espressione ‘conosci te stesso’, essere umani significa conoscere le nostre condizioni e i nostri limiti perché avendo una sola vita te la godi bene. Questo comando che era per approfondire che cosa siamo, qual è la qualità della nostra vita, dura più o meno fino a quando Linneo, con i teatri anatomici, inizia a dissezionare tutto il creato, lui ha studiato Aristotele, tutto si va descrivendo con una cosa simile e una cosa che differisce con quella simile per cui per l’uomo non c’è più un comando sopra il suo scheletro ‘conosci te stesso’ ma è iniziata ad esserci un’affermazione, cioè l’animale a cui siamo più simili, e qual è la differenza tra noi e quella scimmia sapiens, perché sembra che noi abbiamo delle abilità che gli altri non hanno. Quindi, da un imperativo che ci apre al futuro, ‘conosci te stesso’ ad una specifica, oggi abbiamo un problema che mette in crisi questi due modelli che non è solo un problema sull’homo ma sul sapiens perché la macchina o la chat generativa è un po’ sapiens pure lei. Allora se sapiens non è più nostro rimaniamo solo delle scimmie? Ecco questa domanda è la domanda che viviamo oggi, quello che è in crisi è il senso dell’umanità più che il potere della macchina per cui se non sappiamo più dire perché un’operazione a rischio di vita è meglio che la faccia un uomo che può sbagliare rispetto ad una macchina, il problema non ce l’abbiamo con la macchina ma ce l’abbiamo con la specificità umana. Questa è una delle sfide di oggi.”
Joe Casini: “Ora passiamo alla domanda dal pubblico che cade proprio a fagiolo. Tra le varie domande, tutte vertevano sul tema della distopia, ce n’è una che ci ha colpito molto e segue un po’ la chiacchierata che stiamo facendo ed è: esiste qualcosa che, secondo te, la macchina non potrà mai replicare?”
Paolo Benanti: “Forse non potrà replicare l’errore come sbagliamo noi, però detta così è sciocca la risposta perchè quello che non può replicare è l’autoconsapevolezza dello sbaglio che è associata a questo, cioè alla macchina puoi chiedere di farmi un Van Gogh e me lo fa uguale magari anche un po’ meglio, però la consapevolezza che ha avuto Van Gogh quando l’ha visto, quel sentimento che ha provato dentro che gli ha detto ‘questo è bello’, quella cosa lì è solo umana, quell’accadimento di unicità che è tipico dell’esistere, grandi autori della letteratura dicono che la grandezza della vita non è la destinazione ma il viaggio stesso, il fatto che mentre viviamo ci cambia, questo la macchina non lo può fare perchè ogni volta la spengo quando la riaccendo è uguale e deve essere uguale sennò non è macchina. In questa direzione, tra il funzionare e l’esistere, c’è qualcosa che la macchina non può replicare, può far finta di esistere ma proprio perchè macchina funzionerà e basta. Non è un problema di fotocopia ma è l’idea di quell’imitazione della realtà che da sempre abbiamo chiamato arte, l’abbiamo chiamata arte quando scolpivamo, quando con le vernici colorate abbiamo lasciato le impronte delle mani nelle caverne paleolitiche, l’abbiamo chiamata arte con la pittura, con la fotografia, con il video, anche con la computer grafica ma le immagine generate saranno tante e affascinanti ma sarà arte solo se la parte umana la riconoscerà come tale, può quella macchina diventare una nuova forma di pennello che comando a parole invece che con la manualità però l’artista è sempre la parte umana, quello stupore che proviamo come esseri umani di fronte a qualcosa che accade quello la macchina non ce lo può avere e quindi non lo può replicare.”
Joe Casini: “Mi viene in mente una teoria che ogni tanto esce fuori “Death internet theory”, quando tu dicevi in quanto esseri umani l’arte è come noi valutiamo quello che abbiamo davanti, il significato che gli diamo, c’è tutta una teoria che ora le macchine, in qualche modo, iniziano ad avere tra loro una sorta di reciprocità, se ne parla nei mercati azionari dove tutte le transazioni vengono fatte da algoritmi, quindi sono gli algoritmi che interagendo tra loro danno un valore a quel mercato piuttosto che i contenuti su internet, i post sui social network e così via, essendo realizzati da algoritmi in funzione di altri algoritmi, che sono i motori di ricerca, anche lì questa reciprocità ci vede un pochino fuori dal loop. L’altro spunto che mi viene in mente, c’è una componente molto cronica, banalmente si parla anche spesso di posti di lavoro, cioè in qualche modo questa nuova transazione tecnologica mette in crisi alcuni aspetti profondamente strutturati di come abbiamo pensato le nostre società negli ultimi secoli.”
Paolo Benanti: “La prima cosa che mi viene da dire con una battuta è ‘ti ho rotto il format’”
Joe Casini: “Hai hackerato il format è vero.”
Paolo Benanti: “Però questa è anche la risposta alla domanda che mi hai fatto, cioè due esseri umani interagendo tra di loro rompono il format e si fanno portare avanti da qualcosa che è la thaumazein aristotelica che è lo stupore che guida la curiosità. I due algoritmi che collidono sul prezzo in internet non rompono il format, quindi direi che la battuta è anche una risposta breve che però mette tutto questo che è il fatto che l’uomo possa andare fuori schema e questo andare fuori schema perchè c’è altro che gli interessa e non perchè c’è un calcolo che non torna o un divide by zero, cose del genere, è forse una caratteristica dell’uomo. Tant’è vero che fuori schema la possiamo capire, sto provocatoriamente giocando con le parole, tutte quelle volte che guardando la natura qualcuno pensa al creatore. Quello è andare fuori schema, think outside the box, tu vedi tutta questa bellezza e dici ‘com’è possibile che non ci sia un senso a questa bellezza, da dove viene questa bellezza’, se tu vedi una cavolo di Bruxelle che si forma con tutte quelle forme regolari quasi frattali come puoi non essere preso da un ‘ma com’è questa roba qua?’. Questo mandarci fuori schema, che poi è anche quello che ci fa ridere di fronte a una battuta, una barzelletta è un andare fuori schema, dove a un certo punto c’è un no sense che produce qualcosa che ride, una macchina non ride. Infatti, la cosa più difficile da fare è far fare a Siri o all’assistente digitale una battuta, non ci riesci, non può andare fuori schema.”
Joe Casini: “Ora passiamo alla domanda che chiamiamo del filo del rasoio. Ho letto sul tuo blog alcuni articoli molto interessanti per esempio sui malware applicati a tecnologie sanitarie, diagnosi in particolar modo. In qualche modo noi ci muoviamo su questo tread off, da una parte le tecnologie acquistano valore nella misura in cui sono condivise, quindi ci sono le famose esternalità positive, quanto più la tecnologia viene adottata tanto più acquista valore, dall’altra parte più le tecnologie sono utilizzate, condivise e tanto più siamo comodi nell’utilizzarle più si pone un problema dal punto di vista della sicurezza. La domanda che ti volevo è su questo paradosso: da una parte abbiamo l’esigenza di diffondere e adottare tecnologie e dall’altra parte quanto più le diffondiamo tanto più nella nostra società e nella nostra vita aumenta il grado di rischio che abbiamo nell’utilizzarle.”
Paolo Benanti: “Questo esistenzialmente è una grande scoperta che abbiamo fatto il giorno 1 che abbiamo utilizzato una tecnologia, cioè quando nella caverna il primo membro della nostra specie ha preso una clava in mano era un utensile per aprire più noci di cocco o era un’arma per aprire più teste dei neanderthal? Questa domanda sull’ambivalenza tecnologica, strumento di forza o strumento di fragilità e dipendenza, c’è da sempre e riguarda l’ambiguità e siccome è una domanda ambigua riguarda proprio l’uomo e l’utilizzo che fa della tecnologia. Anche nel momento di maggior fuoco sull’artefatto tecnologico torniamo al problema del manicum che è relazionato alla mano. Il problema della tecnologia è l’uomo che la usa, siamo sempre noi il problema. Però vorrei aggiungere un’altra prospettiva a questa domanda del filo del rasoio questo è vero in maniera diversa per due tipi di tecnologie, c’è la tecnologia special purpose, la cosa che mi serve la faccio sempre meglio in maniera sempre più efficiente, tuttavia noi conosciamo degli stadi dell’evoluzione umana in cui tiriamo fuori delle tecnologie che non servono a fare una cosa ma che cambiano il modo con cui facciamo tutte le cose e queste si chiamano tecnologie general purpose. Per qualche studioso di tecnologia forse la prima è stata la ruota, senz’altro l’energia a vapore, l’energia chimica, l’energia elettrica, internet e l’intelligenza artificiale sono tecnologie general purpose, la corrente elettrica non serve a fare qualcosa ma facciamo tutto con la corrente. Sulle tecnologie general purpose che cambiano radicalmente il modo di fare tutte le cose, questo discorso che facevi tu sulla fragilità e la diffusione ha almeno due chiavi interessantissime: la prima è che come noi diffondiamo la tecnologia general purpose non è mai neutrale ma risponde sempre a una certa visione di mondo per cui quando abbiamo diffuso la corrente elettrica l’abbiamo diffusa secondo due modelli; in America Samuel Insull, colui che ha fondato la general electric company, ha detto ‘let’s democratize it’, abbassiamo le tariffe, le famiglie la consumano, tutto va a corrente elettrica ne guadagnamo tutti. Se andiamo in Russia il primo piano quinquennale di Lenin si chiama il piano goelro che prevede la sovietizzazione delle repubbliche mediante la diffusione della corrente elettrica. Quindi di nuovo come noi diffondiamo questa tecnologia general purpose è un modo di vedere la società, è un modo di voler fare la società in una certa maniera ed ecco che se oggi noi diamo all’intelligenza artificiale as a service via cloud e la diamo secondo un modello americano o secondo un modello cinese abbiamo due cose e questa domanda che hai fatto tu è radicalmente da vivere perché è una tecnologia general purpose. La seconda questione viene dall’attualità e guardate un po’ cosa bombardano i russi in Ucraina, una tecnologia general purpose, la corrente elettrica perché facendo saltare la corrente inchiodi un paese che si basa tutto su questo livello tecnologico. Se durante la pandemia si inchiodava il sistema di distribuzione le città da oltre 2 milioni di persone vivevano la fame come l’assedio di Leningrado. Se le tecnologie si inceppano si inceppa anche la vita, cioè c’è un’infrastruttura che ci consente di fare tante cose ma dipendiamo da essa.”
Joe Casini: “Verso il finale c’è una domanda che io chiamo la birra di troppo. Una frase che mi ha colpito molto di un tuo libro e che ti volevo chiedere di commentare dice che lavorare su possibili scenari significa combinare teorie e narrazione in modo rigoroso. Questa frase qui mi ha colpito molto, il fatto di combinare teoria e narrazione, cosa intendevi?”
Paolo Benanti: “Che lo scenario è tra il plausibile e il possibile, per cui la teoria ci dice che la macchina intelligente, l’intelligenza artificiale, è qualcosa che imita l’uomo, io ti posso raccontare una scena nel futuro in cui l’uomo è surrogato da una serie di dispositivi, la teoria mi dice cosa e dove sarà possibili surrogare, la narrazione mi permette di farti immaginare se, come e dove questo sarà bene, sarà male, come dobbiamo intervenire e quando. Nella narrazione ti metto davanti a qualcosa che ti consente di immaginare qualcosa che non c’è, se lo faccio agganciato alla teoria questo qualcosa è plausibile, cioè è qualcosa che potrebbe accadere e quindi inizio a prepararti a quelle che sono le possibili risposte a tutto questo. Lo scenario serve a questo, non è una profezia, non è una simulazione, ma siccome la parola serve a istruire l’immaginazione di un altro membro della mia specie, con narrazione e teoria posso prepararmi e prepararci a l’eventuale e quindi essere in grado di vivere la sfida dell’imprevedibile di domani.”
Joe Casini: “Potremmo dire che la reazione è una tecnologia abilitante?”
Paolo Benanti: ”Assolutamente sì, ci ho scritto un libro intero che si chiama ‘la grande invenzione’. La parola è la prima forma di tecnologia, la parola intesa come linguaggio sintattico, tutti gli animali comunicano, però siamo l’unica specie che ha un linguaggio sintattico, questa cosa qui ci da un’unicità che è quella di poter generare delle cose in maniera quasi infinita, i discorsi generabili sono infiniti, nel discorso io posso farti vedere, posso istruire la tua immaginazione, è un artefatto di questo tipo e per esempio se dovessimo andare a caccia di mammut io e te paleolitici possiamo creare una capacità di caccia senza avere l’istinto, che per esempio è necessario ai lupi per cacciare. Allora questa tecnologia che è la tecnologia dell’immaginazione consente di creare, non solo una storia condivisa tra noi, qualcosa che ci unisce che non è più visibile ma è immaginabile che si chiama storia. Bertrand Russell diceva che nessun cane ti dirà mai che è figlio di due onesti ma poveri cani, noi sì. Puoi raccontare qualcosa che non c’è più, se ti dico Napoleone tu te lo immagini, lo vedi, qui nasce un altro grande problema cioè che non tutto quello che ti faccio immaginare è reale e quindi se le storie hanno una grande potere hanno anche un grande rischio perché posso creare, il nemico, le fake news, un qualcosa di inesistente e posso dire un qualcosa di profondo che non è storico ma è vero.”
Joe Casini: “Siamo arrivati purtroppo alla conclusione della nostra chiacchierata, resta l’ultima domanda che è la domanda del Secret Santa. Il primo tra gli ospiti che ti propongo, a proposito di parole, è Vera Gheno che è una sociolinguista, il secondo ospite è Alessandro Sahebi, giornalista che si occupa soprattutto di questioni legate al reddito, il terzo ospite che ti propongo è Derrick De Kerckhove, sociologo e ha fatto molte ricerche sul tema delle intelligenze collettive e abbiamo parlato di visioni di società. Quali di questi tre ospiti ti incuriosisce di più?”
Paolo Benanti: “Vera Gheno.”
Joe Casini: “La domanda che Vera ha lasciato è: qual è stata l’ultima volta che hai pensato di fare qualcosa di utile per gli altri?”
Paolo Benanti: “La domanda è anche abbastanza professionale, nel senso che stamattina ho dato un po’ di panini a un po’ di affamati e siccome ci era avanzato un po’ di dolce rispetto al minimo di sopravvivenza, direi stamattina stessa. Sono stato fortunato io.”
Joe Casini: “Da questo punto di vista c’è anche il tema di come sta cambiando la nostra società. Secondo te ci stiamo un po’ allontanando o avvicinando al fare qualcosa di utile per gli altri?”
Paolo Benanti: “Una delle mie professoresse, Sherry Turkle, diceva sempre “alone together”, ci sono tecnologie che ci fanno stare insieme in maniera molto semplice ma forse siamo così soli. Alcuni usi della tecnologia e delle tecnologie sociali che facciamo ci lasciano molto soli, con i nostri like, con una metrica che non è una vera relazione umana, altri, invece, riescono ad unirci quando siamo distanti e, come al solito, da bravo eticista non ti posso dire sì o no, ma dipende da quello che vogliamo e da quello che cerchiamo nella tecnologia.”
Joe Casini: “Chiudiamo la puntata alla grande. A questo punto, se vuoi, puoi lasciare una domanda per i prossimi ospiti.”
Paolo Benanti: “Io ti farei una domanda francescana. I francescani si sono chiesti che cosa significasse avere troppo. Allora la domanda che lascio al prossimo ospite è questa: c’è qualcosa che stiamo consumando troppo? Di che cosa possiamo fare a meno?”
Joe Casini: “Bellissima domanda. Paolo grazie per essere stato con noi. Buona domenica a tutti e ci vediamo tra due settimane con la prossima puntata di Mondo Complesso.”
Paolo Benanti: “Grazie e buona domenica a tutti.”