• Arte e Cultura
  • Empowerment
  • Innovazione e Sostenibilità
  • Public Program
  • Lezioni Italiane
  • Argomenti
  • Arte e Cultura
  • Empowerment
  • Innovazione e Sostenibilità
  • Progetti speciali
  • Lezioni Italiane
  • Public Program
  • Centodieci Extra
  • Tipo di contenuto
  • Articoli
  • Video
  • Podcast
  • Webinar
  • Eventi
Immagine principale di: L’etica dell’intelligenza artificiale
Icona
Innovazione e Sostenibilità

L’etica dell’intelligenza artificiale

Federico Bastiani
Di Federico Bastiani
Sono giornalista pubblicista, nato nel 1977 a Pisa e laureato in Economia aziendale. Ho scoperto la passione per il giornalismo dopo un viaggio a Buenos Aires e l’incontro con le Madri di Plaza de Mayo. Da quel momento non ho più smesso di scrivere collaborando con varie testate. Sono startupper (cofondatore di emotID), collaboratore dell’economista Loretta Napoleoni e soprattutto babbo di Matteo e Noah. Sono anche l’agente letterario dell’esploratore inglese George Meegan (La Grande Camminata, Mursia, 2012). Nel 2010 ho curato il libro edito da Rizzoli A riveder le stelle sul Movimento a Cinque Stelle. Il mio motto è “il possibile [...]
Scopri di più
Pubblicato il 23.05.2022 alle 10:10

Luciano Floridi è una delle voci più autorevoli della filosofia contemporanea. È professore ordinario di Filosofia ed Etica dell’Informazione all’Università di Oxford e di Sociologia della Cultura e della Comunicazione presso l’Università di Bologna. Abbiamo parlato con lui del suo ultimo libro “Etica dell’intelligenza artificiale” (ed. Raffaello Cortina)

Lei si occupa di Intelligenza Artificiale da diverso tempo, perché un libro sull’Etica dell’IA? 

Il libro nasce dall’idea di un “divorzio” che stiamo vivendo. Da una parte l’IA ci permette di risolvere problemi con successo. Se la mia lavastoviglie non fosse “intelligente”, spaccherebbe tutti i piatti o l’auto a guida autonoma andrebbe a sbattere. Oggi abbiamo la possibilità di fare queste cose con strumenti che hanno l’intelligenza della caffettiera di mia nonna però hanno un successo straordinario. Ecco il divorzio. Non è un matrimonio tra ingegneria e biologia che crea IA tipo androidi di Star Wars che capiscono, sono intelligenti, motivati etc. Dal momento in cui separiamo l’agire dal capire, quando l’intelligenza va da una parte e la capacità di agire dall’altra, in questa spaccatura si annidano tutti i problemi. 

Nel film 2001 Odissea nello Spazio del 1968, Kubrick s’immaginava un futuro dove l’uomo perdeva il controllo sul computer che aveva creato. Forse non siamo tanto lontani se guardiamo ai recenti incidenti occorsi alla Boeing con il 737 Max. Un algoritmo che mistificava la realtà, impediva ai piloti di riprendere il controllo dell’aereo. Dobbiamo preoccuparci?

Il rischio dell’autonomia di questi strumenti è un problema che va inquadrato bene sennò le persone si impauriscono per le ragioni sbagliate e non hanno paura quando dovrebbero averla. Questi strumenti hanno un’autonomia vincolata nella gestione di alcuni compiti come guidare un aereo o tagliare l’erba in giardino. Io ho due robottini autonomi che tagliano l’erba. Se uno di questi robottini scavalca una barriera che avevo messo per proteggere l’aiuola perché ho lasciato una falla aperta, e distrugge le rose, di chi è la colpa? Del robottino o mia che non ho prestato attenzione? L’autonomia vincolata di queste macchine può essere anche pericolosa (prendiamo un’auto o un aereo), su questo bisogna lavorare certamente, ma non dobbiamo preoccuparci dell’autonomia svincolata, con le macchine che prendono il sopravvento, è pura fantascienza. 

Questi algoritmi però vengono programmati da qualcuno ed immagino si pongano delle questioni “etiche”. Facciamo un esempio. Sto viaggiando su un’auto senza conducente. Ad un certo punto comprare un ostacolo. In un nanosecondo l’algoritmo deve fare delle scelte, sterzare a sinistra mettendo a rischio la mia vita di passeggero con un frontale oppure girare a destra, salvandomi la vita ma compiendo la scelta poco etica d’investire tre persone che camminano lungo la carreggiata. L’algoritmo dovrebbe essere etico in questo caso e fare quale scelta “giusta”?

Molti di questi problemi vengono risolti in modo molto semplice e grazie anche alla legislazione. Un’auto che non facesse il bene del conducente non la comprerebbe nessuno anche se l’algoritmo fosse etico. Torniamo con i piedi per terra. La legislazione ci dice che se lei stai guidando e per salvarsi purtroppo investe qualcuno, non sarà una cosa immorale. In etica si chiamano “richieste supererogatorie” cioè richieste di un agire morale che va molto al di là di quello che sarebbe una normale richiesta di buon senso e buona volontà. È come se le dicessi: se lei fosse una buona persona dovrebbe donare metà dello stipendio in beneficenza. Un’auto che mettesse in secondo piano il guidatore nei momenti di rischio, e lo forzasse al suicidio pur di salvare gli altri, è un’auto che non sarebbe etica e non avrebbe successo di mercato.

Quindi sta dicendo che è il mercato che farà la scelta giusta?

Il mercato è anche indice della nostra moralità. Lasciando stare il mercato, semplicemente la società non accetterebbe uno strumento pericoloso per la propria vita. A nessuno si deve imporre il dovere morale di sacrificarsi per salvare l’altro. Questo ci fa tornare al tema del controllo umano. Proprio perché si possono verificare circostanze senza via d’uscita, prima di arrivarci, un buon design prevede la soluzione che può essere un banale pulsante rosso che permette di agire. 

E c’è la volontà di mettere un bel pulsante rosso sulle tecnologie? Penso ad esempio a Tesla che produce auto intelligenti o dobbiamo preoccuparci?

Ci sarà. Non c’è ora, perché come umanità siamo irresponsabili, quindi prima faremo errori e poi arriveremo ai ripari. È come se mi avesse chiesto cento anni fa se le auto avrebbero avuto dei sistemi per limitare i danni in caso d’incidente. Lei avrei detto no ma che ci saremmo arrivati ed infatti abbiamo avuto le cinture di sicurezza, gli airbag, etc. ma quante persone sono morte per arrivare a quelle soluzioni? Il tasto rosso me lo aspetto dopo molti incidenti. La questione è, quanti morti ci dovranno essere prima che il design, l’ingegneria, gli standard ISO agiscano per rendere sicuro il prodotto? Certamente si svilupperanno auto con intelligenza artificiale di livello 5, ma in contesti dove è possibile controllare l’ambiente circostante come il trenino che gira all’interno del Terminal di un aeroporto. L’aeroporto viene costruito affinché il trenino possa funzionare bene ed in sicurezza. 

In termini di governance, per evitare tutti questi problemi, lei scrive che il modo migliore per prendere il treno tecnologico non è inseguirlo ma farsi trovare pronti alla prossima stazione. Non mi sembra che nella storia umana siamo mai riusciti nell’intento.

Purtroppo ha ragione. Lei pensi alla realtà aumentata, al Metaverso, passi enormi in avanti, e noi siamo ancora qui discutendo di una legislazione europea sull’IA. Questo è frustrante, perché non è che non si possa fare, non è che il legislatore scopre oggi che esiste la realtà virtuale, sono anni che ci lavoriamo. Chi non conosce Second Life? Roba di dieci anni fa. Purtroppo aspettiamo sempre l’ultimo momento per prendere il treno ma così lo perderemo sistematicamente.

Visto che parliamo di algoritmi etici, cosa ne pensa della volontà di Musk di acquisire Twitter per rendere l’algoritmo più democratico?

Il mio giudizio non è positivo. Musk commette un grave errore concettuale. Dice che Twitter dovrà diventare come le piazze delle città. Io nella piazza della mia città non posso mettere un banchetto e vendere quello che voglio, non posso fare un comizio senza autorizzazione perché si sono regole in uno spazio pubblico. Perché questo non dovrebbe valere nella vita on line? La libertà di parola intesa in senso assoluto, è una sciocchezza senza fine. E uno dei tanti diritti che abbiamo ma che deve fare i conti con gli altri diritti e doveri. Non è una questione di mettere bavagli o chiudere account, silenziare, pensiero unico etc., si tratta di diritti e doveri che vanno messi sulla bilancia e vanno mediati. Musk questa cosa non la capirà mai perché non appartiene alla sua cultura e se glielo lasceranno fare nasceranno pasticci. Concludo con quest’osservazione. Musk ha offerto quarantaquattro miliardi di dollari per quest’operazione che sono i soldi che gli Stati Uniti hanno stanziato per affrontare il tema del riscaldamento climatico. Cosa penseranno le generazioni future quando si troveranno un pianeta distrutto e leggeranno queste cose? 

Non mi è chiara una cosa. Lei è un’ottimista o un pessimista?

Sono frustrato. Ottimista sulle opportunità e pessimista sulle nostre capacità di coglierle. Quando abbiamo cambiato strada? Quando abbiamo commesso errori. Purtroppo quello che posso augurarmi è una piccola catastrofe, non un disastro. La catastrofe è improvvisa e radicale, uno shock che ci sveglia, il disastro invece è l’aragosta che bolle in pentola e non si accorge che sta morendo. 

Ma abbiamo già avuto la pandemia, non le basta?

Temo di no. Quando dico piccola catastrofe intendo un po’ più grande della pandemia. Purtroppo. Solo allora prenderemo le necessarie misure.

Condividi questo articolo

Leggi anche

Leggi tutti gli articoli
  • Icona
    Innovazione e Sostenibilità
    27.03.2018

    Viviamo in una (magica) combinazione di presente e futuro: il futuro istantaneo

    Leggi l'articolo
  • Icona
    Innovazione e Sostenibilità
    05.09.2014

    Ti osservo e ascolto, poi ti parlo e ti propongo un incontro. Non [...]

    Leggi l'articolo
  • Icona
    Innovazione e Sostenibilità
    13.09.2016

    Il nuovo mantra per le PMI? Investire in formazione e istruzione digitale

    Leggi l'articolo
  • Icona
    Innovazione e Sostenibilità
    22.11.2016

    Auting, il servizio di car sharing per chi vuole condividere la propria auto

    Leggi l'articolo

Tutti i consigli utili per innovare con lode

Iscriviti alla nostra newsletter

al trattamento di dati per la finalità dell’attività di marketing di vario tipo, inclusa la promozione di prodotti, servizi, distribuzione di materiale a carattere informativo, pubblicitario e promozionale, eventi, invio di newsletter e pubblicazioni come indicato nell’informativa.

© Centodieci 2025
| Privacy Policy & Cookie Policy | Feed RSS|Sitemap HTML|Dichiarazioni di accessibilità| A+ A-