
Quando si parla di algoritmi di apprendimento automatico, spesso si fa riferimento al concetto di black box (scatola nera), che implica l’impossibilità di capire come l’algoritmo sia riuscito a produrre un determinato risultato. Inoltre, i modelli di intelligenza artificiale possono essere manipolabili e vulnerabili ad attacchi. Per questo motivo, diventa essenziale non solo comprendere il risultato prodotto dall'algoritmo, ma anche il “ragionamento” e il processo che lo ha portato a formulare una risposta. Ma cos'è, quindi, l'IA spiegabile? Come funziona? A cosa serve e, soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo quotidianamente? In questa puntata cerchiamo di rispondere a queste domande, iniziando proprio dal definire cosa si intende per IA spiegabile.
Nella sezione delle notizie parliamo dell’azienda cinese DeepSeek e dei suoi nuovi modelli di IA open source, del successo del test di XB-1 di Boom Supersonic che fa ben sperare per il ritorno dell’aviazione supersonica civile e infine di Waymo che testerà la guida autonoma in 10 nuove città per rendere il proprio sistema sempre più generalizzabile.




Brani
• Ecstasy by Rabbit Theft
• One Taste by More Plastic & URBANO
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi parleremo di come comprendere il funzionamento e il ragionamento dell'intelligenza artificiale e delle sfide che ne derivano.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram, a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina, su Spotify, Apple Podcast, YouTube Music, oppure direttamente sul nostro sito.
Nelle ultime settimane l'azienda cinese DeepSeek ha rilasciato dei nuovi modelli di IA generativa, in particolare DeepSeek V3 e R1 per i ragionamenti e Janus Pro per la generazione di immagini.
Annuncio che ha fatto molto parlare di sé soprattutto per il forte impatto che ha avuto sul mercato occidentale, tra cui un crollo del quasi 17% delle azioni Nvidia.
I modelli di DeepSeek infatti hanno messo in discussione la supremazia degli Stati Uniti nel mondo dell'intelligenza artificiale per alcune loro particolarità.
La prima è che sono Open Source, o meglio "open weights", e di conseguenza sono liberamente scaricabili ed eseguibili localmente.
Dopodiché le prestazioni di questi modelli sono paragonabili e in certi casi superiori alle più grandi intelligenze artificiali sul mercato, come quelle di OpenAI o Google.
Prestazioni che i più grandi modelli Open Source, come Llama di Meta, non avevano finora mai raggiunto.
Ciò che ha fatto più scalpore, tuttavia, è quanto DeepSeek ha investito in questi prodotti.
Per addestrarli infatti sono stati spesi poco meno di 6 milioni di dollari contro le decine di miliardi di investimenti delle aziende americane. E questo ovviamente ha messo in discussione quanto effettivamente sia necessario acquistare sempre più schede grafiche e investire così tanto nella potenza di calcolo, quando si potrebbe, come ha fatto DeepSeek, concentrarsi
piuttosto sull'ottimizzazione dei consumi.
Un significativo passo avanti nel campo dell'aviazione civile supersonica è stato compiuto da Boom Supersonic. Il prototipo XB-1 ha infatti superato il muro del suono raggiungendo Mach 1.1, durante il suo dodicesimo volo di prova. L'aereo mobile, che rappresenta una versione in scala del futuro aereo di linea Overture, ha mantenuto la velocità supersonica per circa 4 minuti
a un'altitudine di 10.300 metri nei cieli della California. Questo risultato si inserisce in un programma di test che ha visto una rapida progressione dalle prove subsoniche di marzo 2024.
L'XB-1, dotato di tre motori General Electric J85-15 Turbojet, sta aprendo la strada a Overture, progettato per trasportare 64 passeggeri a Mach 1.7. La compagnia, che ha raccolto oltre 700 milioni di dollari in finanziamenti, punta a sviluppare autonomamente i propri motori, dopo la conclusione della partnership con Rolls-Royce. Con ordini già confermati
da United Airlines e American Airlines, Boom Supersonic mira a far decollare il primo Overture commerciale entro il 2030, promettendo di portare il trasporto supersonico civile a livelli mai visti dal ritiro del Concorde nel 2003.
Waymo, l'azienda di veicoli a guida autonoma di proprietà di Alphabet, la società madre di Google, ha annunciato che nel 2025 testerà i suoi veicoli autonomi in dieci nuove città, iniziando da Las Vegas e San Diego. L'obiettivo è verificare come il sistema di guida autonoma si adatta a nuovi ambienti urbani con caratteristiche differenti, come condizioni climatiche variabili
e stili di guida locali. A Las Vegas i test si concentreranno sulla gestione del traffico intenso e delle caotiche aree di carico e scarico lungo la Strip, la strada più trafficata della città, oltre alla presenza di "Botts’ dots", ovvero dei piccoli rilievi rotondi sull'asfalto utilizzati come segnaletica stradale al posto delle classiche linee di corsia dipinte. San
Diego, invece, rappresenta un contesto più simile a quello delle città in cui Waymo è già attiva, permettendo di valutare le prestazioni senza un ampio storico di dati locali.
L'azienda invierà meno di 10 veicoli per città, che saranno guidati manualmente per alcuni mesi nelle aree commerciali più trafficate, con lo scopo di raccogliere dati per migliorare la capacità di adattamento del sistema. Waymo sta lavorando affinché in futuro sia possibile avviare un servizio di robotaxi, con test minimi, in nuove città,
rendendo il proprio sistema sempre più generalizzabile.
L'intelligenza artificiale, ormai l'abbiamo capito, ha negli ultimi anni pervaso ogni ambito delle nostre vite quotidiane, diventando per molti parte integrante del proprio lavoro e delle proprie abitudini.
Quella che è entrata in modo così prorompente nella nostra quotidianità, l'IA generativa, come quella che alimenta ChatGPT o Midjourney, però non è l'unica IA esistente, ma anzi ne esistono di diversi tipi, ognuna adibita a scopi ben precisi.
Nella penultima puntata del 2024, ad esempio, abbiamo approfondito gli algoritmi di raccomandazione, ossia quei software di intelligenza artificiale, utilizzati da piattaforme come Netflix o Amazon, che si occupano di proporci contenuti o prodotti che potrebbero interessarci.
Puntata che, tra le riflessioni conclusive, è stato un ottimo pretesto per introdurre l'argomento di cui parleremo oggi, ossia l'intelligenza artificiale spiegabile, o XAI, eXplainable AI.
Quando si tratta di algoritmi di apprendimento automatico, infatti, si fa molto spesso riferimento al concetto della black box, o scatola nera, per cui non ci è dato sapere come l'algoritmo sia riuscito a produrre un certo risultato, ma ci, tra virgolette, "accontentiamo" che il risultato sia generalmente corretto.
Tant'è vero che di fronte a modelli immensi, come il large language model di ChatGPT o Claude ci resta che accettare il fatto che questi algoritmi semplicemente funzionino, e anche incredibilmente bene.
Questa sorta di rassegnazione, però, può andare bene finché la tecnologia viene utilizzata in contesti generalisti, come la creazione di immagini, la generazione di riassunti o la produzione musicale.
Ma, dall'altro lato, esistono ambiti in cui sarebbe estremamente grave o pericoloso fidarsi ciecamente della risposta di un'intelligenza artificiale.
Pensiamo, ad esempio, al mondo della medicina o della giustizia, dove una risposta sbagliata potrebbe causare danni irreparabili, al mondo finanziario, al mondo delle auto a guida autonoma o nella robotica, di cui abbiamo parlato nella recente puntata con Boston Dynamics, soprattutto dove questi algoritmi interagiscono con il mondo esterno, co-occupando gli spazi con gli esseri umani.
Se pensiamo poi a quanto facilmente i modelli di AI possano essere manipolabili o attaccabili, ecco che in questi contesti diventa assolutamente necessario capire non solo il risultato dell'algoritmo in questione, ma anche il, tra virgolette, "ragionamento" e il modo in cui è arrivato a formulare la risposta.
Ma cos'è quindi l'IA spiegabile? Come funziona? A cosa serve? E soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo tutti i giorni? In questa puntata cercheremo di rispondere a queste domande, iniziando proprio a specificare cosa si intende per IA spiegabile.
Quando si parla di eXplainable AI, XAI, generalmente non si fa riferimento infatti a particolari tipi di modelli di apprendimento automatico, quanto più a una serie di tecniche che hanno proprio l'obiettivo di rendere questi modelli più trasparenti, permettendoci di analizzare i passaggi e le motivazioni che hanno portato a una determinata conclusione.
Come abbiamo detto più volte e ripetuto all'inizio di questa puntata, però, non esiste un solo algoritmo di intelligenza artificiale, ma, al contrario, ne esistono di diverse tipologie e ognuno è specializzato per risolvere un particolare tipo di problema.
Esistono di conseguenza modelli più o meno complessi, e che si prestano meglio o peggio a essere compresi e spiegati.
Facciamo alcuni esempi per capire meglio di cosa stiamo parlando.
Algoritmi come la regressione lineare, in cui viene tracciata la linea che collega meglio i punti usati per l'addestramento, i modelli k-NN che dividono i dati in cluster in base alla loro distanza, o gli alberi decisionali.
Tutti questi sono detti interpretabili "by design", e quindi facilmente spiegabili proprio per come sono progettati.
In un albero decisionale, ad esempio, si può ricostruire la catena delle decisioni che l'algoritmo ha preso prima di arrivare al risultato, mentre in una regressione lineare sappiamo che l'output è dato da una formula matematica in cui l'algoritmo ha ottimizzato le costanti.
Quando invece ci spostiamo su modelli più complessi, come le reti neurali profonde, decisamente molto più comuni e potenti, la situazione è ben diversa e notevolmente più complicata.
Questi modelli, infatti, sono sì estremamente potenti e capaci di eseguire compiti molto più articolati, ma alla loro complessità fa sì che anche il loro funzionamento sia meno trasparente e incomprensibile, tanto ad arrivare a descriverli come le famose scatole nere.
Tra questi casi più complicati, però, per fortuna, sono state presentate diverse tecniche per poter, tra virgolette, "entrare nella testa" dell'intelligenza artificiale e capirne meglio i suoi ragionamenti.
In particolare, e qui si entra in una sfera un po' più complicata, esistono quattro principali tecniche utilizzate, chiamate LIME, ossia Local Interpretable Model-agnostic Explanations, SHAP o Shapley Additive Explanations, e l'utilizzo di heatmaps.
Vediamo brevemente cosa sono.
La prima, LIME, è una tecnica che punta a spiegare le decisioni di un'IA approssimando parti del modello con altri, che invece sono interpretabili come quelle di cui abbiamo parlato poco fa.
In questo modo la catena decisionale può essere suddivisa in parti più piccole e comprensibili anche a noi.
La seconda tecnica, SHAP, analizza le variabili in input, assegnando un indicatore chiamato valore di Shapley che rappresenta quanto impatto ha avuto la singola variabile sul risultato finale.
Nel caso di un modello che calcoli la predisposizione a una certa malattia, ad esempio, le variabili in input possono essere lo stato di salute del paziente, il sesso, l'età, la città di nascita, l'uso o meno di certe sostanze e così via.
Grazie a SHAP è possibile quindi capire meglio se e quanto ognuno di questi fattori ha avuto un peso nella decisione finale dell'algoritmo.
Per modelli ancora più complessi, come le reti neurali convoluzionali o gli algoritmi di computer vision, invece, sono spesso di grande aiuto le heatmaps, attraverso metodi come il Class Activation Mapping.
Queste reti neurali, infatti, sono divise in strati specializzati nel riconoscimento di singole caratteristiche delle immagini, come linee dritte o curve, colori, forme e così via.
Man mano che ci si avvicina agli strati che poi andranno a determinare l'output del modello, vengono identificate caratteristiche e forme sempre più complesse fino a riconoscere interi soggetti.
Ed è qui che le heatmaps, o zone di attivazione, giocano un ruolo fondamentale nel mostrarci graficamente quali sono state le aree dell'immagine che maggiormente hanno stimolato i neuroni di questa rete, e permettendoci quindi di comprendere meglio il processo decisionale o risolvere eventuali problemi.
Nel caso di un modello che riconosce cani e gatti, ad esempio, nella foto di un cane le zone dell'immagine più attive potrebbero essere quelle del muso, in qualità di discriminante maggiore tra i due soggetti.
Per questo motivo la tecnica in questione è utilissima anche per la diagnostica e per migliorare l'algoritmo, rendendolo più sicuro e robusto.
A questo punto, dopo aver parlato di reti neurali, viene quasi naturale il paragone con il funzionamento del cervello umano, da cui questi modelli prendono in parte spunto.
Lo stesso cervello che tuttora facciamo molta fatica a comprendere per la sua complessità.
Tuttavia negli anni abbiamo sviluppato tecnologie come quella del neuroimaging che ci permettono di visualizzare le zone del cervello che maggiormente rispondono a certi stimoli, colmando sempre di più quella distanza che ci separa dalla completa comprensione del nostro funzionamento.
Ecco dunque che l'intelligenza artificiale in confronto non sembra poi così tanto complessa e le stesse tecniche che utilizziamo per comprendere il cervello potrebbero essere adottate per studiare le reti neurali artificiali.
Infine, parliamo di un'altra categoria di modelli, quelli che, erroneamente, abbiamo nell'immaginario comune associato all'intelligenza artificiale, i Large Language Models, ossia quei modelli linguistici su cui si basano IA come ChatGPT, Claude o Gemini.
Anche in questo caso, come è prevedibile, è molto difficile guardare nelle scatole nere di questi modelli, e la strada verso la loro comprensione è ancora molto lunga.
C'è, però, una tecnica ampiamente utilizzata che consente ai modelli stessi di avere un approccio più trasparente, ed è la cosiddetta "Chain of Thoughts", o catena di pensieri.
In sostanza, siamo noi stessi, nel prompt, a suggerire all'IA di suddividere il ragionamento in piccoli passaggi sequenziali logici, e sulla base di questi generare la risposta.
Imitando il funzionamento del nostro cervello, infatti, si è notato come anche i modelli linguistici ottengono risultati di gran lunga migliori, soprattutto dove è richiesto un ragionamento, se gli si chiede, appunto, di formare una risposta passo dopo passo.
Se ci pensiamo, è esattamente ciò che anche noi esseri umani facciamo ogni qual volta dobbiamo prendere una decisione o formulare un ragionamento.
Tra l'altro, è proprio su processi di questo tipo, chiaramente ottimizzati, che OpenAI ha costruito i suoi recenti modelli o1 e o3, che ci hanno positivamente stupito proprio per la loro capacità di ragionamento e generalizzazione di situazioni anche complesse.
Utilizzando la Chain of Thoughts, dunque, non solo si, tra virgolette, "obbliga" l'intelligenza artificiale a ragionare, ma ne possiamo studiare in tempo reale i ragionamenti, comprenderli e verificare se il modello ha commesso errori logici o se è affetto da bias e pregiudizi che ne possono alterare l'affidabilità delle risposte.
In conclusione, riprendendo l'introduzione della puntata, in un mondo che fa sempre più uso di queste tecnologie, non possiamo permetterci di fidarci ciecamente di questi algoritmi, soprattutto in campi come la medicina, la giustizia o nei processi aziendali, dove l'affidabilità e la trasparenza di questi sistemi è fondamentale per comprendere i ragionamenti e le motivazioni
dietro determinate risposte.
In questo, le tecniche di intelligenza artificiale spiegabile diventano quindi essenziali per rendere l'IA più trasparente e affidabile.
Sebbene siano stati fatti grandi passi avanti nello sviluppo di queste tecniche, che permettono di comprendere meglio i modelli anche più complessi, siamo ancora ben lontani da una soluzione definitiva. È quindi doveroso e fondamentale continuare a investire nella ricerca affinché gli enormi benefici di questa tecnologia, ad oggi quasi magica, possano
essere sfruttati in maniera etica, trasparente e soprattutto sicura anche nei sistemi più critici.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia. Io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio. Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it, seguiteci su Instagram a @dentrolatecnologia
dove durante la settimana pubblichiamo notizie e approfondimenti. In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social. Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.



