
Date le infinite possibilità che offre l'Intelligenza Artificiale, questa tecnologia è diventata una delle più pervasive, talmente tanto che un suo abuso potrebbe diventare addirittura pericoloso. È quindi necessario definire un’etica, delle regole e dei campi dove l’Intelligenza Artificiale può operare. Per parlare di questi aspetti abbiamo invitato Francesca Rossi, Global Leader per il settore dell’Etica dell’intelligenza artificiale di IBM.
Nella sezione delle notizie invece parleremo degli investimenti delle big tech per rafforzare la cybersicurezza americana e della possibilità di sfruttare il proprio SPID o CIE per firmare referendum popolari online in modo sicuro.



Brani
• Ecstasy by Rabbit Theft
• Gang by jiglr
Quando si verificano queste situazioni in cui la macchina fa degli errori, chi è responsabile di queste cose? L'importante è capire che l'etica dell'AI non mira solo a soluzioni tecnologiche a questi problemi, ma è tutto un insieme di soluzioni, alcune tecnologiche, ma che devono sempre essere complementate con tanti tipi di soluzioni.
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi parleremo di etica dell'intelligenza artificiale, cercando di capire non solo cosa significhi, ma soprattutto perché è importante interrogarci su questo aspetto tecnologico.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina su Spotify, Apple Podcast, Google Podcast oppure direttamente sul nostro sito.
Secondo un recente rapporto stilato da Verizon Communications negli ultimi due anni, in concomitanza con l'aumento dello smart working a causa del Covid-19, gli attacchi informatici in particolare di phishing e ransomware sono aumentati rispettivamente dell'11 e del 6% in tutto il mondo.
Tra i paesi più colpiti vi sono gli Stati Uniti, che dopo l'attacco all'oleodotto Colonial Pipeline e quello alla piattaforma di gestione Orion di Solarwinds, hanno deciso di sviluppare, grazie all'appoggio delle principali Big Tech, un modello che rinforzi la cyber sicurezza nazionale in tutta la filiera della tecnologia.
Tra i partecipanti vi sono anche Google e Microsoft, i quali investiranno nei prossimi cinque anni un totale di 30 miliardi di dollari, per migliorare il livello delle attuali soluzioni per la sicurezza informatica a livello nazionale.
Apple e Amazon invece sono rimaste al momento in disparte, anche se il colosso dell'e-commerce ha annunciato che a partire da ottobre renderà disponibili i materiali di formazione sulla sicurezza informatica che ha sviluppato per mantenere al sicuro le proprie informazioni dall'attacco di possibili cybercriminali.
Durante il mese di agosto e in concomitanza con il referendum sull'eutanasia legale promosso dall'associazione Luca Coscioni, un emendamento al decreto semplificazioni ha reso possibile la raccolta delle firme per i referendum e le leggi di iniziativa popolare anche online.
Fino ora l'unico modo per raccogliere le firme era, secondo una legge di oltre ai 50 anni fa, allestire banchetti nelle città e utilizzare speciali moduli.
La raccolta delle firme in formato digitale è possibile in quasi tutti i paesi dell'Unione Europea e infatti nel 2019 l'ONU aveva condannato l'Italia per violazioni del patto internazionale sui diritti civili e politici a causa degli ostacoli alla raccolta delle firme sugli strumenti di democrazia diretta.
Per autenticare il firmatario sono sufficienti lo speed o la carta di identità elettronica e per il momento per l'autenticazione e la raccolta delle firme sarà necessario affidarsi ad un ente certificatore convenzionato con l'Agenzia per l'Italia digitale, mentre dal 2022 verrà realizzata una piattaforma governativa.
Qualche mese fa avevamo parlato nella puntata "Intelligenza Artificiale: verso un mondo humanless?" di cosa sia l'intelligenza artificiale e di quanto sia fondamentale in numerosi settori.
Date come abbiamo visto le infinite possibilità che offre, negli ultimi anni questa tecnologia è diventata una delle più pervasive, talmente tanto che un suo abuso potrebbe pure diventare pericoloso.
È quindi necessario definire un'etica, delle regole e dei campi dove l'intelligenza artificiale può operare.
E per parlare di questo siamo in compagnia di Francesca Rossi, responsabile globale per il settore dell'etica dell'intelligenza artificiale per IBM.
Benvenuta Francesca.
Grazie, buongiorno a tutti.
Innanzitutto, quali problemi ha ad oggi l'intelligenza artificiale e questi problemi in qualche modo possono essere risolti?
Allora, intanto prima di proprio concentrarci sui problemi direi che ha tante cose positive che porta nella nostra vita personale, professionale, cioè quindi ci aiuta a risolvere tanti problemi in modi che prima non erano possibili, solo pensare anche ai comandi vocali che usiamo.
Fino a pochi anni fa non era possibile invece con le nuove tecniche, con l'uso di dati e di tecniche di apprendimento automatico, adesso con queste applicazioni relative a queste cose, all'interpretazione della nostra voce, all'interpretazione del testo, all'interpretazione delle immagini e questo ha tantissime applicazioni, non
solo in cose personali o in assistenti personali, sul telefonino oppure nelle nostre case, ma anche in tante applicazioni nel campo delle aziende, quindi in ospedali, in aeroporti, in istituti finanziari, eccetera.
Quindi ci sono tantissime applicazioni molto positive che aiutano le persone che fanno quei lavori a farli in modo migliore.
Però come hai detto è anche proprio perché una tecnologia così pervasiva, usata in così tanti campi applicativi, che fa nascere delle domande di tipo su qual è l'impatto che questa tecnologia ha e se la tecnologia ha delle caratteristiche che potrebbero portare a un impatto negativo.
Quindi chiaramente ci sono domande che vengono appunto in generale ogni volta che c'è una tecnologia così pervasiva che viene usata così tanto, come cambierà la nostra società e anzi come sta cambiando la nostra società, riusciamo a stare dietro al cambiamento della nostra società e riusciamo ad usarla nei modi positivi e non evitare l'uso in modi negativi.
Quindi queste sono domande generali di qualunque tecnologia che possa arrivare o è arrivata anche in passato e che sia usata in modo pervasivo.
Per l'intelligenza artificiale ci sono anche delle domande un po più specifiche, proprio sulle legate alle tecniche che vengono usate in questo campo.
Una caratteristica è che molte di queste tecniche hanno bisogno per funzionare bene di grandi quantità di dati e quindi chiaramente nascono domande relative all'uso di questi dati, chi li raccoglie questi dati, cosa ci fa, a chi li dà, per cosa vengono usati, vengono usati per fare una profilazione di me e poi per usarli per altre cose.
Quindi chiaramente la gestione dei dati è una cosa molto discussa che porta poi a delle politiche o delle regole o degli standard, eccetera.
Per esempio sappiamo che in Europa c'è una legge che non c'è in altre parti del mondo, che è la General Data Protection Regulation, che mette in chiaro alcuni diritti dei chi rilascia i propri dati, perché chiaramente più dati anche personali, l'intelligenza artificiale ha su di noi, più ci dà delle soluzioni personalizzate, quindi in principio è una cosa positiva, ma bisogna essere sicuri di come li usa.
Un'altra cosa importante è che il fatto che alcune di queste tecniche apprendono come risolvere problemi a partire da grandi quantità di dati, allora questo vuol dire che noi non diciamo esattamente a queste macchine quali sono i passi da fare per risolvere un problema, ma lo apprendono loro in un modo che è un po nascosto a noi, anche a chi li programma le macchine.
Quindi tutto viene da questo insieme di dati, di esempi che la macchina vede, e quindi se questi dati non rappresentano bene per esempio tutte le categorie di persone che possono essere coinvolte in questo problema da risolvere, allora questo può creare, quello che la macchina deciderà di fare, dei possibili discriminazioni tra categorie di persone.
Se per esempio i dati da cui la macchina ha preso come risolvere un problema sono soprattutto relativi a uomini invece che donne, se allora si trova di fronte a un problema che è relativo a una donna, sarà meno in grado di risolverlo bene, solo perché ha visto meno dati.
Quindi in generale bisogna riuscire a vedere, a capire se ci sono questi problemi di possibilmente fare macchine che poi creino delle discriminazioni, e chiaramente in alcuni campi questo è regolamentato da leggi, già prima dell'uso dell'intelligenza artificiale e adesso anche con l'uso di questa tecnologia, ma in altri campi bisogna stare attenti, quindi ci sono degli strumenti anche tecnologici stessi che aiutano a vedere se per caso si creano discriminazioni o no e a mitigarle, e dico mitigarle perché non
è detto che si possano eliminare completamente, ma oltre a questi strumenti tecnologici è importante che chi programma questi sistemi intelligenze artificiali sia educato a questa problematica, che sappia capire che i team abbiano abbastanza persone diverse tra loro, in modo che si riconoscano anche i propri pregiudizi nascosti e inconsci.
Quindi il problema del bias o della fairness di come fare in modo che una macchina non faccia discriminazioni.
Un'altra cosa è che se queste macchine, alcune di queste tecniche basate su apprendimento automatico, deep learining, sono un po "opache", sono un po una scatola nera per riuscire a capire come prendono delle decisioni a partire dai dati in input e quindi questo vuol dire che io a volte non riesco a capire se io voglio usare quello che mi dice la macchina per poi prendere la mia decisione sulla base di quello che mi suggerisce, a volte non si riesce bene a capire perché mi suggerisce quella cosa.
Quindi la questione della spiegabilità, cioè le macchine dovrebbero essere in grado di spiegare perché ci suggeriscono o perché prendono certe decisioni e questo sembra una cosa molto ovvia e ragionevole, ma non è così semplice da fare se si usano appunto queste tecniche che però sono quelle più di successo nel senso di accuratezza, cioè di capacità di risolvere i problemi, come quelle appunto del deep learning eccetera.
Quindi lì c'è tutto uno studio su come fare in modo di tirare fuori queste spiegazioni di decisioni che vengono prese dalla macchina e senza queste spiegazioni chiaramente è difficile fidarsi di una macchina che è un po una scatola nera, è difficile demandare a queste macchine che prendano decisioni da sole senza la supervisione delle persone perché appunto non sa come mai prende delle decisioni.
E poi diciamo ci sono anche tutti gli aspetti di accountability, cioè chi è responsabile? Alcune di queste tecniche sono interamente basate sulla statistica e sulla probabilità, quindi hanno sempre una percentuale di errore, non perché il programmatore ha fatto un errore nel programmare le macchine, ma perché proprio analizzano questi dati e li gestiscono poi, prendono delle decisioni sulla base di analisi statistiche.
Quindi quando effettivamente si verificano queste situazioni in cui la macchina fa degli errori, chi è responsabile di queste cose? Quindi anche queste sono domande importanti insomma che vengono discusse, su cui si trovano tante soluzioni, ma l'importante è capire che l'etica dell'AI non mira solo a soluzioni tecnologiche a
questi problemi, ma è tutto un insieme di soluzioni, alcune tecnologiche, ma che devono sempre essere complementate con soluzioni che riguardano l'educazione, il training, la discussione multidisciplinare, multistakeholder e tanti tipi di soluzioni, quindi standard, linee guida, le leggi, le politiche aziendali, eccetera.
Ed entrando più nello specifico, come hai detto tu all'inizio, l'intelligenza artificiale ha tantissimi aspetti positivi e ci sono degli ambiti in cui un'intelligenza artificiale funziona molto meglio rispetto a, diciamo così, un algoritmo tradizionale e proprio per questo l'intelligenza artificiale viene utilizzata in numerose applicazioni anche molto delicate come in ambito medico o nella guida di automobili, quindi la guida autonoma.
Come dovrà comportarsi l'intelligenza artificiale in questi ambiti?
Diciamo nell'ambito della medicina, appunto secondo me l'approccio preponderante è quello di macchine che non prendono decisione da sole, ma aiutano le persone, i medici, gli esperti, a prendere delle decisioni migliori, quindi che analizzano i dati, anche quantità di dati che una persona da sola non sarebbe in grado di analizzare e poi suggeriscono alcune opzioni di soluzioni per il problema che si ha di fronte, che sia trovare la terapia migliore o capire se una macchia sulla pelle è un melanoma oppure no, qualunque decisione che deve prendere un medico,
ma diciamo l'approccio che mi sembra preponderante è quello di usare le capacità delle macchine che sono complementare a quelle delle persone, non nel prendere decisione in autonomia ma nel aiutare le persone a prendere decisioni migliori, quindi in quel caso appunto è anche lì molto importante questo aspetto della spiegabilità delle macchine perché questo medico che si vede arrivare delle possibili soluzioni da parte della macchina deve capire perché mi suggerisce queste cose e se quindi approvarle e poi usarle per prendere la decisione finale oppure
rifiutarle e prendere una decisione diversa, ma non riuscirebbe a fare questo se non ci fosse questo aspetto in qualche forma per capire perché questa macchina mi suggerisce di fare questa cosa, però insomma nella medicina e in generale quando ci sono queste soluzioni, questi ambiti di decisioni ad impatto così forte nella vita delle persone, come quelle che si trovano in campo medico, è soprattutto un approccio di macchine a supporto delle decisioni prese da una persona.
La guida autonoma diciamo che non ci sono ancora e diciamo che io non la vedo, cioè secondo me c'è ancora molto da fare dal punto di vista tecnologico ma anche delle regole, delle infrastrutture nelle strade eccetera, per fare in modo che ci sia un ambiente in cui queste macchine a guida completamente autonoma possono agire in modo anche sicuro per le persone.
Però la tecnologia che è stata messa a punto con lo scopo di in futuro avere macchine a guida autonoma è senz'altro una tecnologia, perché uno potrebbe dire le macchine a guida autonoma non ci sono ma insomma allora erano quelle che noi aspettavamo per poter salvare tante vite eccetera, ma in realtà la tecnologia che è stata messa a punto nella strada verso le macchine a guida autonoma è già, salva già tantissime vite, perché la maggior parte delle case automobilistiche usano in parte questa tecnologia per sistemi di guida
assistita che chiaramente salvano tantissime vite, aiutano appunto anche in quel caso il guidatore umano a accorgersi magari se appunto si addormenta, si va fuori corsia eccetera, se davanti frenare se vede un ostacolo eccetera.
Quindi per il momento è quello che io vedo come il principale risultato positivo e impatto positivo della tecnologia sviluppata con lo scopo di arrivare a macchina a guida autonoma.
Per il momento sono tutte macchine sotto la supervisione del guidatore umano e anche lì, appunto secondo me, le soluzioni tecnologiche hanno ancora bisogno di fare dei passi avanti per assicurare una maggiore sicurezza, ma poi ci sarà bisogno di mettere in piedi tante altre regole, che siano quali test eseguire per poter dire che una macchina è pronta per essere usata, quali regolamentazioni mettere in piedi.
E se le strade devono avere dei sensori, delle infrastrutture diverse, perché in fondo le strade sono state pensate per guidatori umani.
Quindi i segnali sono stati pensati per guidatori che hanno gli occhi e quindi vedono le cose in un certo modo, non per le macchine che vedono le cose in un modo completamente diverso e che spesso potrebbero fare errori nell'interpretare un segnale di stop, un segnale di precedenza eccetera.
Quindi è il caso di lasciare tutte le infrastrutture come sono e quindi fare in modo che le macchine usino le stesse infrastrutture pensate per le persone, oppure è il caso di cambiarle.
Quindi tutta una serie di cose che vanno al di là della tecnologia, che devono essere un po pensate a risolvere a livello di società, non a livello di una singola azienda, per arrivare a un ambiente sicuro dove ci siano queste tipo di macchine.
Sì e un altro aspetto che hai citato che a mio avviso è molto importante è quello della responsabilità.
Quando oggi una persona o un gruppo di persone compiono un'azione è nella maggior parte dei casi abbastanza facile attribuir loro la responsabilità di quest'azione.
Nel caso invece di una macchina e poi più nello specifico di un'intelligenza artificiale, la situazione ovviamente è totalmente diversa.
In questo caso di chi sarà la responsabilità e quali dovrebbero essere le procedure da seguire in questo caso?
In molte situazioni dove le decisioni hanno un impatto importante sulla vita delle persone, sulla sicurezza delle persone, in realtà le macchine sono a supporto delle decisioni prese dalle persone.
Quindi in quel caso il decisore finale è ancora una persona anche se ha preso la sua decisione supportata dall'analisi dei dati o dalle predizioni o dai suggerimenti fatti da una macchina.
Quindi in quel caso è ancora la persona che si prende la responsabilità, però proprio perché la persona si prende la responsabilità gli dobbiamo fornire tutti gli strumenti perché si è in grado di prendersela questa sua responsabilità, cioè quindi la macchina deve spiegare perché gli suggerisce questa cosa o un'altra, oppure la persona stessa deve essere educata a cosa fare di queste informazioni che vengono della macchina, come interpretarle, come inserirle nel proprio processo decisionale.
Quindi non è che uno gli mette una macchina di fronte e ti dice una cosa e poi vedi te cosa farne.
Quindi c'è tutto un sistema di comunicazione e interazione tra la macchina e la persona che alla fine appunto si prenderà la responsabilità di una decisione che deve essere messo a punto con cose che devono venire da chi produce le macchine, cioè spiegabilità, ecc.
e cose che devono essere anche dal lato dell'operatore, cioè della persona che prenderà la decisione, quindi che deve capire bene cosa fare e come interpretare le cose che gli dice la macchina anche con… no perché la macchina suggerisce cose ma c'è sempre un livello di confidenza che può essere alto, basso, ecc.
come interpretare queste cose.
Quindi quella è una parte importante.
Poi servono anche delle regole che in generale se le macchine prendono delle decisioni devono dire di chi è la responsabilità.
Per esempio in Europa in questi mesi appunto la commissione europea sta proprio mettendo appunto una nuova proposta di legge europea sulla accountability, cioè su chi è responsabile sulla accountability dell'intelligenza artificiale, cioè su chi deve essere considerato responsabile nel caso una macchina faccia un errore che abbia un impatto negativo sulla vita delle persone.
Un'altra cosa importante che per esempio è stata fatta in Europa, sempre a livello di leggi, è questa nuova proposta di legge che è stata pubblicata in aprile, che adesso è in discussione dal Parlamento europeo ecc., che è appunto una proposta di dire cerchiamo di non arrivare al punto che la macchina fa degli errori, cerchiamo di risolvere la cosa prima di arrivare a quel punto lì e quindi cosa devo mettere in piedi per fare in modo che l'intelligenza artificiale in Europa, in questo caso di questa legge, abbia le caratteristiche giuste per evitare queste situazioni.
Quindi c'è tutta una legge molto complessa che analizza le applicazioni dell'intelligenza artificiale, le divide in quattro livelli di rischio, rischio inaccettabile, alto rischio, basso rischio, zero rischio e rischio inaccettabile dice queste sono vietate, queste qui in Europa queste applicazioni non ci possono essere.
Secondo livello di rischio alto dice allora queste sono cose che secondo noi possono avere un impatto negativo importante se non gestite bene e quindi la legge mette una serie di obblighi, dei requisiti sia su chi produce questi sistemi di intelligenza artificiale sia su chi li va a usare e quindi qui si vede proprio che c'è questo ruolo di entrambi questi attori nell'ecosistema dell'intelligenza artificiale, chi lo produce lo deve produrre con le caratteristiche giuste, spiegabile, fair, robusta eccetera eccetera e chi lo usa però deve anche capire bene come usare queste macchine nel modo più safe eccetera.
Quindi queste proposte appunto di leggi che dove l'Europa appunto è un po per prima a mettere insieme queste proposte di leggi così diciamo che coprono l'intera intelligenza artificiale si vedono tante cose appunto importanti che bisogna tenere in considerazione per fare in modo che se c'è qualche errore si capisce a chi dare la responsabilità ma anche insomma prevenire questa situazione cioè fare in modo che l'intelligenza artificiale che viene messa nella vita delle persone non arrivi al punto di dire allora qui c'è un errore di chi è la responsabilità.
E in conclusione quando riusciremo a superare questi problemi, questi ostacoli che caratterizzano l'intelligenza artificiale in questa epoca in questi anni si potrebbe porre un ulteriore problema.
Abbiamo visto nei millenni e ancora di più negli ultimi anni negli ultimi decenni come la tecnologia di fatto sia stata sempre in grado di sostituire il lavoro dell'uomo pensiamo appunto alla natura in antichità ma robot e macchinari industriali al giorno i nostri non c'è il rischio che lo stesso accada con quei lavori che oggi definiamo intellettuali quindi dei lavori che richiedono l'intelletto umano non c'è il rischio appunto che l'intelligenza artificiale riesca in qualche modo a sostituirsi a nelle capacità intellettuali umane e quindi sostituire totalmente anche dal punto di vista lavorativo l'essere un umano.
Beh portato a un livello non ragionevole si potrebbe essere controproducente ma diciamo ripeto secondo me la tecnologia e anche l'intelligenza artificiale va pensata come una cosa a supporto delle persone e non come una cosa che va a sostituire sì magari delegheremo varie tipi di decisioni che decidiamo noi quali sono a queste macchine ma in realtà la tecnologia in generale che sia intelligenza
artificiale oppure no ha secondo me lo scopo di migliorare noi stessi e come noi viviamo insomma nel nostro ambiente quindi per esempio a volte uno dice ma le macchine adesso sono addirittura in grado di scrivere dei romanzi oppure di generare delle nuove pezzi musicali che sono paragonabili come qualità e questo può anche essere vero però secondo me al di là del cioè non è il punto della cosa perché la macchina sarà anche in grado di forze produrre anche in modo apparentemente creativo un pezzo di arte, anche un dipinto o quello che sia, simile a come lo potrebbe dipingere un uomo, ma questo toglie alle persone il processo creativo che è fondamentale.
Il fondamentale non è il risultato, è il processo creativo di cui fa questa persona di cui fa esperienza e che poi lo porterà questa persona ad avere appunto un senso critico e quindi diciamo è chiaro che bisogna tenere in considerazione quelle cose che per noi sono importanti.
Una società per esempio, questo particolare esempio, di persone dove le persone non hanno più esperienza del processo creativo, qualunque esso sia, è una società che secondo me non è dove noi dobbiamo aspirare ad arrivare, quindi è importante sempre ricordarsi che il progresso tecnologico è positivo, ma non è positivo per sé, non è positivo come fine il progresso tecnologico, è positivo come un mezzo per arrivare a un progresso sociale e individuale, sociale della nostra società e
della nostro essere persone e quindi questa è una cosa che sembra ovvia diciamo, però insomma va tenuta in mente a volte dette esplicitamente perché altrimenti se si ci si focalizza troppo sulla tecnologia sembra che migliorare la tecnologia sia lo scopo, ma non è lo scopo, quello è un mezzo per arrivare al vero scopo che è quello di migliorare noi stessi quindi appunto se uno la vede in questo modo vede che certe cose vanno tenute nell'ambito umano anche se le macchine potrebbero essere in grado di fare, di dipingere una cosa migliore di come la dipingiamo noi insomma.
Sì vedremo come la tecnologia ci aiuterà l'intelligenza artificiale ma ovviamente più in generale la tecnologia ci aiuterà nei prossimi anni e nei prossimi decenni.
Va bene Francesca, grazie per questo tuo intervento, buon lavoro e a presto.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia, io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio.
Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentro la tecnologia, seguiteci su Instagram a @dentrolatecnologia dove durante la settimana pubblichiamo notizie e approfondimenti.
In qualsiasi caso nella descrizione della puntata troverete tutti i nostri contatti.
Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.