Una chiacchierata con Andrea Pescino sull’intelligenza artificiale e gli scenari che ci pone al giorno d’oggi. Parliamo di progetti innovativi, di macchine che aiutano e talvolta salvano l’uomo e di regolamentazione internazionale per evitare un futuro distopico.
Joe Casini: “Buongiorno, buona domenica e benvenuti al nuovo episodio del podcast di Mondo Complesso, il podcast che parla della complessità del mondo in cui viviamo e lo fa cercando in ogni puntata di interconnettere i diversi saperi insieme ad ospiti diversi. Oggi abbiamo come ospite Andrea Pescino, benvenuto!”
Andrea Pescino: “Buongiorno. Grazie.”
Joe Casini: “Andrea è un esperto di intelligenza artificiale da lunga data – potremmo dire da prima che diventasse intelligente! – e lavora con varie aziende in particolare a capo di StratejAI che è un’azienda che si occupa di progetti legati all’intelligenza artificiale e fa anche consulenze per il Parlamento Europeo. Andrea è una persona che ha una conoscenza sia tecnica che un punto di vista legato all’implementazione consapevole dell’intelligenza artificiale nelle aziende e nella nostra società. Quindi, rinnovo il benvenuto ad Andrea e cominciamo con la chiacchierata di oggi! La prima domanda che ti volevo fare è quella che noi chiamiamo la «domanda semplice». In apertura facciamo sempre una domanda in apparenza semplice, ma che poi nel momento in cui si va a rispondere da sempre qualche spunto di riflessione inaspettato e la domanda semplice con la quale apriamo questa puntata è: si parla spesso di cosa può fare l’intelligenza artificiale invece io ti vorrei domandare cosa non può fare l’intelligenza artificiale?”
Andrea Pescino: “È una bella domanda, non è troppo semplice, quantomeno diciamo che forse per rispondere in maniera adeguata bisogna contestualizzare la situazione attuale. Quindi quella moderna è un’intelligenza artificiale che si basa prevalentemente sui dati e quindi riesce ad analizzare la storia passata e quindi partendo dalla storia passata riesce a riprodurre quello che poi è un segnale, ogni informazione, un qualcosa che c’è all’interno. Quindi se io voglio avere un algoritmo di intelligenza artificiale che identifica se sono malato o guardare i miei esami di laboratorio, devo analizzare quelle che sono le valutazioni fatte dai medici competenti nel passato e allora riesco poi a ritrovare questo segnale. Questo quantomeno fino ad oggi, quindi l’informazione che abbiamo fino ad oggi, in cui grazie all’analisi dei segnali soggetti come Amazon riescono a prevedere che cosa vogliamo comprare perché hanno analizzato la storia di gente come noi nel passato. Visto che avere dei dati di qualità creava un limite, oggi stanno emergendo delle intelligenze artificiali generative che sono in grado di partire dal nulla. L’altra dimensione, che sicuramente è più interessante, è che spesso quando si parla di IA c’è questa percezione che ci ucciderà tutti sterminando gli umani, un po’ come in Terminator! In realtà oggi c’è una cosa che è un po’ il Santo Graal di chi studia e ricerca intelligenza artificiale che viene chiamata l’artificial general intelligence (AGI) che però ancora oggi è abbastanza una barzelletta, cioè rimane confinata nei laboratori e ha probabilità di successo molto basse, ma che rappresenta proprio il fatto di avere un sistema complesso che è in grado di ragionare come un essere umano, quindi prendendo delle situazioni complesse. In un mondo complesso ci sta fare questa riflessione. Oggi le intelligenze artificiali sono dei mirini laser, sono degli oggetti che ti consentono di puntare molto precisamente, aiutare molto efficacemente un essere umano a fare una cosa.”
Joe Casini: “Quindi diciamo che non può fare ancora molte cose, smentiamo tutte le paranoie alla Terminator! Tu facevi riferimento a uno dei temi che è la velocità con la quale questa intelligenza avanza. Una delle questioni a mio avviso è se saremo in grado di renderci conto quando questo sviluppo a un certo punto ci potrà sfuggire di controllo, tu che opinione hai?”
Andrea Pescino: “Allora ci sono state delle delle accelerazioni recenti che sono legate un po’ agli investimenti e quindi visto che l’automazione porta ritorno sugli investimenti, ovviamente ci sono stati tanti soldi che sono stati messi in automazione sia in maniera esplicita in borsa che magari un pochino implicita. La Cina ha un programma di investimenti di intelligenza artificiale per quest’anno che è più grande dell’intero programma Horizon di 5 anni della commissione europea, solo per darvi un’idea. Horizon ovviamente spazia su più campi di ricerca, quindi ci sono tanti soldi che vengono messi
sull’intelligenza artificiale, il che evidentemente poi porta a delle accelerazioni. Ci sono dei limiti ancora fisici di calcolo e di sostenibilità anche di questi grandi calcoli, fare il training di un algoritmo di intelligenza artificiale consuma in termini energetici come una piccola cittadina. Oggi abbiamo dei limiti che sono legati anche alle competenze, c’è una mancanza molto significativa nel mondo, quindi si stanno cercando proprio competenze un po’ dappertutto perché ne mancano parecchie.”
Joe Casini: “Ti interrompo un attimo perchè abbiamo toccato tanti argomenti che poi immaginavo da subito sarebbero usciti fuori. Hai fatto riferimento alla sostenibilità anche dal punto di vista energetico e ambientale dello sviluppo dell’intelligenza artificiale, perché poi gli argomenti sono in qualche modo sempre tutti interconnessi. Tu hai fatto riferimento anche al bisogno di sviluppare nuovi saperi, quando si parla di intelligenza artificiale si pensa all’ingegnere o al data scientist, in realtà è un campo che ha bisogno di una forte integrazione di saperi, quindi oltre a queste figure quali sono i saperi di cui secondo te abbiamo bisogno per poter sviluppare in maniera etica e sostenibile l’intelligenza artificiale.”
Andrea Pescino: “L’intelligenza artificiale viene chiamata GPT, una general purpose technology, quindi una cosa che può avere impatto nel marketing, negli HR. Ad esempio ho partecipato a una conferenza delle Nazioni Unite su come l’IA potrebbe accelerare quelli che sono chiamati sustainable development goals, quindi gli obiettivi sostenibili per il 2030 delle UN: dalla disponibilità dell’acqua al food safety, al climate change, la smart agriculture, l’educazione. È molto pervasiva e bisogna fare in modo che tutte le competenze in qualche misura comincino ad avere degli approcci diciamo data driven, dove faccio delle scelte basate su un oggetto che me le raccomanda. Dall’altra parte ci vogliono delle competenze di generazione di dati di qualità, qualunque algoritmo di IA è tanto più intelligente quanto più di qualità è il set di dati che ha alla base. Faccio l’esempio di un progetto che stiamo facendo in Africa dove stiamo riconoscendo i crops, quindi i campi che spesso sono anche molto piccoli, molto frazionati, dalle immagini satellitari. Lì cosa succede? Ci sono dei dati, dei dataset che vengono annotati e quindi c’è un essere umano che guarde e dice «questo è mais», se la persona che annota, ogni tanto prende una topica ovviamente, i dati sono di scarsa qualità, oppure se il contouring ovvero l’identificazione del perimetro del campo viene fatto in maniera sbagliata, qualunque tipo di informazione di qualità poi viene meno. Puoi capire facilmente che l’annotazione di un campo non lo può fare un matematico che è capace di fare invece le reti neurali convoluzionali che servono poi per andare a riconoscere questo segnale. Lui del mais, del chestnut, del mango non sa neanche di cosa stiamo parlando, quindi è evidente che serve sempre un lavoro dove c’è un biologo che abbia quel tipo di competenza, che abbia quel tipo di comprensione. Quando si fanno questi progetti di solito, almeno dal mio punto di vista, che oggi faccio più progetti dal punto di vista strategico che da punto di vista applicato, è sempre una scoperta ogni volta. Adesso ne stiamo facendo uno, per esempio, per il gastric cancer e sto scoprendo delle cose sulle mucose gastriche meravigliose di cui ignoravo totalmente l’esistenza, però senza delle persone che hanno quella competenza, che capiscono che posso ottimizzare un’endoscopia utilizzando l’intelligenza artificiale, non potremmo farlo.”
Joe Casini: “Avendo l’opportunità di seguire progetti in tutto il mondo, vedi anche delle differenze sugli ambiti di applicazione o di interesse, cioè le differenze magari culturali possono dare degli orientamenti diversi o ti sembra che poi il fenomeno venga sviluppato più o meno ovunque nella stessa direzione?”
Andrea Pescino: “No, hai centrato un ottimo punto e la differenza è pazzesca, nel senso che c’è proprio una tendenza. Da un lato abbiamo delle grandi opportunità in Italia, quindi cercando di fare un po’ di «partigianeria» perché per esempio abbiamo, sembra paradossale, ma avendo una disoccupazione giovanile molto alta e avendo un livello dell’università altrettanto alto, possiamo effettivamente creare delle competenze in un mondo che ne chiede tante. Dall’altra parte il mondo italiano è un mondo che ha scarsa attitudine a lavorare sui dati, lavoriamo un po’ tutti sulle percezioni, viviamo di istinto, abbiamo una scarsa attitudine verso la pianificazione, la review. Mentre i tedeschi, sono i nordix, loro sono avanti tantissimo, non tanto perché hanno le competenze ma perché nel momento in cui gli dai l’algoritmo, gli dai lo strumento loro lo seguono. Hanno proprio più attitudine culturale, quindi l’impatto sarà più semplice per loro rispetto a una nazione come quella italiana che invece ha più l’attitudine a risolvere il problema in maniera spontanea rispetto ad un approccio più programmatico.
Joe Casini: “Quindi c’è anche un tema legato alla formazione, oltre alla formazione prettamente universitaria anche la formazione prima e dopo, come vedi la situazione?”
Andrea Pescino: “Guarda questa è proprio una cosa che spesso viene sottovalutata moltissimo, non viene compresa. Un conto è la competenza proprio tecnica, vengono chiamati data professional e sono persone che lavorano sulla matematica, la statistica, quindi persone che hanno quel tipo di competenze. Poi invece c’è un tema chiamato digital literacy quindi la capacità di interagire con strumenti digitali in maniera efficace: io posso costruire lo strumento più bello del mondo ma se poi non lo uso…”
Joe Casini: “Di questo ne parlavamo in qualche puntata fa con Donata Columbro che diceva che sapere utilizzare i social non significa postare, dovrebbe voler dire molto altro e lo stiamo totalmente ignorando. Credo che in qualche modo sia lo stesso discorso.”
Andrea Pescino: “I social, ad esempio, sono un sensore, un generatore di dati pazzesco, potentissimo, da cui posso estrarre tantissime informazioni. Ci sono già una quantità di studi universitari ma ti do un esempio di una cosa che quando uscì lo studio sorprese in molti: l’Università di Philadelphia fece questo studio, è pubblico si può andare a guardare, dove presero Google Maps e lo utilizzarono come predittore relativamente forte su quello che era il rischio automobilisti. A seconda di dove tu vivevi, io guardavo le foto di dove vivevi e in funzione di questo dicevo quello che era il tuo rischio di fare un incidente automobilistico, che dovrebbe dare da pensare per certi versi. Così come ce n’è una recente, anche questa è uscita un anno e mezzo fa, la stavamo guardando un paio di settimane fa con Novartis e riguarda il linguaggio utilizzato su Twitter nelle varie zone che era un predittore del rischio cardiovascolare, quindi io guardo come la gente parla e in funzione di quello capisco il rischio medio cardiovascolare di quella zona.”
Joe Casini: “Hai usato il termine «capisco» e proprio su questo volevo farti una domanda, magari faccio una semplificazione un po’ estrema ma andiamo a vedere le varie rivoluzioni industriali. Noi abbiamo, in qualche modo, nel tempo prima dato in outsourcing il lavoro fisico poi la nostra memoria e ora, forse, stiamo iniziando a dare in outsourcing la nostra capacità di dare un significato alle cose. Quindi quando usi il termine «capisco» la domande è: quanto effettivamente capiamo? Nel momento in cui emergono delle evidenze da parte di un’intelligenza artificiale sulla correlazione di alcuni fenomeni, siamo nelle condizioni effettivamente di capire sulla base di cosa quelle evidenze vengono riscontrate oppure, in qualche modo, corriamo il rischio di accettare – più o meno passivamente – il significato dato da un soggetto esterno? Penso soprattutto nell’ambito della medicina: un medico ora per far diagnosi potrà avvalersi di strumenti più sofisticati, per contro nel momento in cui perde quel grado di controllo sulla diagnosi, che ruolo ha in questo rapporto a tre tra intelligenza artificiale, medico e paziente?”
Andrea Pescino: “Hai toccato tre/quattro temi, con una domanda, tutti belli spessi. C’è un primo tema che è quello che viene chiamato explainable AI, quindi quanto gli algoritmi, vengono chiamati «clear boxes», oggetti da cui poi riesco a dire «ho capito che il segnale di rischio cardiovascolare sul linguaggio di Twitter è questo» quindi riesco a darti, non solo il predittore, quindi la heatmap che ti fa vedere il rischio rosso/giallo/verde, ma ti dico anche perché utilizzano questo linguaggio. Quindi ti do non solo un’informazione in termini di segnale, ma ti do anche un’informazione in termini di causalità e quindi ti do l’opportunità di fare delle cose. Ci sono delle modalità di explainability che vengono chiamate postdoc explainability, dove le saliency maps per esempio vai a vedere «io ho capito che probabilmente è legato a questo questo questo segnale» oppure questa informazione è più forte nel predire questo tipo di segnale, ma non ti do la causalità piena. L’explainability è un tema che in alcuni casi è un valore aggiunto, quindi io ti spiego anche perché quell’informazione c’è, in alcuni casi è un falso mito. Faccio l’esempio del falso mito che è un esempio eclatante di una delle conversazioni più forti che ci sono in questo momento a livello di policy making, ovvero le auto a guida autonoma, il dilemma del prigioniero, il passeggino, eccetera eccetera. Il grande tema che poi molto spesso viene portato è: quanti morti per chilometro fa un essere umano rispetto a quanti morti per chilometro fa un sistema a guida autonoma? Perché se tu alzi il punto di vista e dici: ho capito che la singola condizione io non so perché quell’auto a guida autonoma è andata sopra un passeggino, ed è drammatico e ne parleranno i giornali per quattro settimane, ma se alla fine fanno un ottavo dei morti nel complessivo in un anno…”
Joe Casini: “Non deve dimostrare di essere infallibile, basta dimostrare che sia migliore di noi.”
Andrea Pescino: “E quindi questo è un altro tema. Adesso te ne butto ancora un altro, che è un tema che riprende molto il discorso che hai citato tu sulla diagnosi del dottore. In realtà, esistono gli ibridi, nel senso che qualunque tipo di algoritmo e di intelligenza artificiale ha delle misurazioni di performance che vengono chiamati «rox» – però adesso senza andare sul tecnico – tu immagina che normalmente un algoritmo genera, adesso poi dico una roba che se mi sente qualcuno di super esperto poi mi scriverà sicuramente una mail, ovviamente dei falsi positivi ogni tanto, oppure dei veri negativi. Quindi c’è il problema che alla fine genera delle informazioni dove tutti dicono «Sì, effettivamente potrebbe avere un cancro» e invece non ce l’ha. Molto spesso quando invece si sono accomunate le due cose, e quindi l’algoritmo per-seleziona e poi dà a un radiologo che guarda la diagnosi per immagine e lui ci mette poi il suo valore aggiunto, cosa si fa? Si ottimizza il tempo del radiologo, quindi l’algoritmo ti dice «guarda questa è una formazione ipodensa, non so se l’hai notato» e gli mette anche l’highlight e lui poi la valuta. L’insieme dell’essere umano con la macchina viene chiamato in tanti modi, «l’ippogrifo» un ibrido delle due cose: se l’algoritmo dell’intelligenza artificiale ha una percentuale di successo del 97% e il radiologo del 96% insieme ce l’hanno del 99%. Quindi se tu metti un umano nel processo di selezione ottieni quello che si chiama «human in the loop». Noi siamo efficienti, abbiamo bisogno di scartare subito una cosa, gli outliner a noi non piacciono, il nostro cervello dice «no, questo non succede», lo scarta, perchè dobbiamo essere veloci. Al contrario l’algoritmo ti dice «è un outliner, però dacci un’occhiata» e l’essere umano quindi è in grado di valutarlo in maniera più precisa, quindi insieme la percentuale è molto più alta. Gli aerei guidano da soli da tanti anni e lo diamo un po’ per scontato.”
Joe Casini: “Come la battuta che dice che il miglior equipaggio su un aereo prevede un cane perché morde la mano al pilota quando prova a fare qualcosa! Però al di là del discorso performance che è molto interessante, mi verrebbe anche da farti il contrappunto sul discorso della responsabilità. Tu prima hai parlato di Unione Europea che conosci anche da vicino e io credo che in Europa su questi aspetti ci stiamo giocando una partita fortemente identitaria. A livello europeo effettivamente stiamo parlando di GPT-3 e intelligenza artificiale in qualche modo ci può dare la possibilità di sviluppare ancora meglio la nostra entità e il nostro ruolo nel mondo. Uno di questi aspetti, secondo me, è dove poniamo la responsabilità. Facevamo l’esempio delle auto a guida autonoma, c’è un discorso di performance che è quanti incidenti si verificano ma c’è anche poi un discorso di responsabilità, cioè nel momento in cui si verificano gli incidenti su un auto a guida autonoma di chi è la responsabilità? Nel momento in cui viene fatta una diagnosi basata sull’intelligenza artificiale di chi è la responsabilità? Tu dicevi se c’è un umano nel giro è evidente che l’ultima parola ce l’ha lui, però c’è bisogno che qualcuno si prenda la responsabilità e se non c’è questo essere umano di chi è la responsabilità?”
Andrea Pescino: ”È il tema che sta frenando sostanzialmente la diffusione massiccia delle auto a guida autonoma, nel senso che è un tema che si sta un po’ rimpallando dove ovviamente c’è un tema più alto. Secondo quasi tutti le auto a guida autonoma elettriche, aggiungo complessità alla complessità, sono l’oggetto che sostanzialmente potrebbe ridurre in maniera più significativa le emissioni di greenhouse gases. Il problema qual è? Fra l’altro lo potrebbero fare sia sulle auto diciamo civili, quelle che trasportano passeggeri, che sulle auto industriali, quindi logistica, quelli che trasportano invece merci, che in questo momento hanno anche dei problemi di efficienza, nel senso che possono guidare al massimo 40 ore durante una settimana, ovviamente non guidano di notte, mentre invece le auto guida autonoma potrebbero girare 24/7 senza nessun problema. Si fermano solamente a fare i recharge della loro batteria e basta, quindi c’è un tema per cui tanti dicono «cavoli è una soluzione talmente di valore per problemi più grandi che abbiamo» quindi di sostenibilità, di prodotto interno lordo, di riduzione delle emissioni, di competitività a livello internazionale che dobbiamo farlo, dobbiamo trovare la strada. Ovviamente poi ci sono dei freni che sono legati un pochino all’industria tradizionale delle auto, perché è evidente che se tu sdogani – sapete bene che francesi e tedeschi ne producono un po’ di auto, sono abbastanza importanti in Europa – e quindi naturalmente fino a quando non saranno anche loro pronti sarà difficile vedere una normativa molto permissiva. Dall’altra parte ci sono i cinesi e gli americani, tra poco troveremo in Cina le auto a guida autonoma e noi saremo indietro, quindi anche la questione identitaria che citavi tu va fatto anche un po’ in un’ottica globale e anche un po’ più significativa. Oggi c’è un mercato per cui ciascun essere umano che possiede un’automobile paga un’assicurazione, ok? Ma la responsabilità non è tua, se ti distrai e guardi il telefonino e passi sopra a una persona paga l’assicurazione, se io sommassi tutte le assicurazione che pagano tutti gli individui e le pagasse la Tesla con la guida autonoma, la Tesla pagherebbe la metà di assicurazioni e le compagnie, forse, sarebbero scontente ma probabilmente, visto che la mortalità oggi – quindi non con tutte le macchine a guida autonoma, quindi in un sistema ibrido – è un sesto, quindi la Tesla potrà pagare la metà delle assicurazioni ma dare il triplo di rimborso a ciascun incidente, perciò di nuovo non è un problema dal punto di vista matematico.”
Joe Casini: “Allora abbiamo snocciolato tante questioni, sapevo che questa chiacchierata sarebbe volata perché poi le implicazioni sono tante e abbiamo toccato questioni che ci riguardano. Ci avviciniamo alla chiusura e in chiusura nel nostro format c’è un momento che è quello della domanda fatta tra ospiti. È un momento che utilizziamo per inanellare un pochino gli argomenti. Nella puntata precedente abbiamo avuto come ospite Enrico Cerni che è responsabile della faculty interna di una multinazionale italiana, la domanda che ti ha lasciato è questa: tutta la conoscenza che abbiamo sviluppato in questi secoli che ruolo può avere, se può averlo, nello sviluppo dell’intelligenza artificiale?”
Andrea Pescino: “È una bella domanda e sì, ovviamente quando ci si proietta un pochino più indietro, faccio più fatica, per limiti miei, però la quantità di dati è un prodotto che si è evoluta esponenzialmente negli anni, quindi paper accademici che pubblichiamo oggi sono una quantità pazzesca, ma quella che abbiamo prodotto negli ultimi 40 anni, è molto difficile avere la capacità di poter analizzare anche solo che una minima percentuale. Oggi uno dei campi dell’intelligenza artificiale che è proprio quello del natural language processing, quindi la capacità di estrarre informazioni da un testo fa sì che, ad esempio, ci siano oggetti che sono in grado di trovare farmaci analizzando studi sulle molecole che sono stati fatti in 50 anni di storia piuttosto che oggi si fanno i virtual clinical trials, quindi non si chiamano più dei pazienti e gli si da una dose di qualcosa per vedere come reagiscono ma sono virtuali, su un insieme di pazienti virtuali partendo proprio dall’analisi della conoscenza del passato, quindi il lavoro di estrazione delle informazioni e della conoscenza è un lavoro che sta abbastanza emergendo e ovviamente rimane sempre un po’ il limite della qualità, della digitalizzazione.
Joe Casini: “Su questo leggevo un articolo proprio ieri, neanche a farlo apposta, di un esempio di intelligenza artificiale applicata sull’archeologia per la lettura, ricostruzione delle steli, in generale di tutte le scritture a incisione che abbiamo danneggiato, interrotto, non perfettamente leggibili che in maniera molto accurata riesce, non solo a ricostruire il segno grafico, ma anche a fare un’interpretazione. Quindi nel momento in cui va un’intelligenza artificiale a interpretare quelli che possono essere i nostri documenti, i documenti della nostra storia, si sviluppa anche una lettura diversa di quello che è stato il nostro sviluppo culturale come specie?”
Andrea Pescino: “Questo addirittura è un arricchimento per certi versi, ci sono tanti campi in cui si stanno applicando queste metodologie di testualizzazione, di computer vision, che sono sempre più diversi, sempre più ricchi. Quindi c’è sicuramente spazio e la conoscenza del passato è una cosa che in qualche misura va rispettata e va valorizzata.”
Joe Casini: “Sarà sicuramente un’ampia applicazione molto intrigante nei prossimi anni. E invece la domanda che ti chiedo di lasciare agli ospiti della prossima puntata che sono due, la prossima puntata sraà particolarmente ricca, e sono Azzurra Rinaldi e Isabella Borrelli. Sono rispettivamente un’economista e un’esperta di PR e di comunicazione, ma in particolare ciò che le accomuna è che sono molto attive per quanto riguarda le questioni di genere sia legate al femminismo che alle comunità LGBTQ+, quindi parleremo di diritti e di come nella società andiamo a ridefinire i nostri ruoli, le nostre sensibilità e priorità. Non so se vuoi lasciare una domanda alle ospiti della prossima puntata.”
Andrea Pescino: “ Volentieri. è un tema che in qualche misura ho sempre legato e in alcuni casi si è anche ritrovato, qua parliamo di diversity inclusion nel senso più ampio, per esempio sulla parte del gender un tema che spesso ho portato anche in sedi politiche è il fatto che lo sviluppo della competenza sulle IA è una delle opportunità di inclusioni più forti che io vedo perchè, ad esempio i matematici, fisici o gli statistici sono spesso donne. Mentre nel mondo della programmazione è sempre stato prevalentemente maschile, adesso si sta aprendo alla presenza femminile, invece il mondo dell’analisi dei dati, della multidimensionalità, quindi andare su analisi in RN, quindi spazi vettoriali n-dimensionale, è un mondo dove ho sempre visto il cervello femminile per formare particolarmente bene e quindi credo che sia un’opportunità abbastanza significativa. Dall’altra parte c’è un po’ rischio che essendoci grande concentrazione di investimenti, essendoci un passato nel mondo digitale dove tante aziende sono presidiate più per generi maschili che questa opportunità di inclusione si perda, dall’altra parte la stessa cosa può valere anche un pochino per tutta la parte LGBTQ+. Ad esempio una volta uno ha fatto un algoritmo di fisiognomica dove partendo dall’analisi del video si riusciva a capire l’orientamento, ovviamente è stata una cosa bersagliata e spesso è un problema di comunicazione più che un problema di scienza, come può fare una comunità che reclama l’inclusione e la diversità a sfruttare questa opportunità e a non viverla come una minaccia? Perché poi ciascuna cosa è una minaccia e non un’opportunità, quindi forse davvero nello stimolo della massimizzazione delle opportunità collettiva cosa può fare una comunità che spinge per l’inclusione per fare in modo che questa sia un’opportunità per loro? Perché per il femminile lo è sicuramente, sono abbastanza d’accordo, sull’LGBTQ+ è uno strumento e come tutti gli strumenti purtroppo può essere usata nel bene o nel male, quindi potrebbe essere anche una minaccia, ma sarebbe bello che fosse un’opportunità. Cosa può fare quella comunità e cosa possono chiedere anche a chi invece sviluppi gli IA per fare in modo che sia un’opportunità?”
Joe Casini: “Grazie, sulla scia di questo spunto che ci hai lasciato proveremo a fare una riflessione. Il risvolto tra opportunità e minacce è anche un modo per sintetizzare intelligenza artificiale, in questa chiacchierata abbiamo chiacchierato molto delle opportunità e che sicuramente ci sono degli stimoli, quindi ti ringrazio per questa chiacchierata, grazie per essere stato con noi.”
Andrea Pescino: “Grazie a voi è stato un bel momento piacevole e spero che poi possa restituire valore a tutti.”
Joe Casini: “Assolutamente, anche io ne sono convinto. Con tutti voi ci vediamo tra due settimane dove, come dicevamo, avremo come ospite Azzurra Rinaldi e Isabella Borrelli e vi ricordo, come al solito, che le puntate di Mondo Complesso le potete ascoltare in streaming su Spotify e su iTunes ma mondo complesso è anche una newsletter e potete trovare tutte le informazioni su un mondocomplesso.it Buona domenica e a presto!”