15 febbraio, 2025
INSiDER - Dentro la Tecnologia
Perché dovremmo fidarci dell'IA?
Play
replay_5
pause
forward_10
1 febbraio, 2025 16:07

Quando si parla di algoritmi di apprendimento automatico, spesso si fa riferimento al concetto di black box (scatola nera), che implica l’impossibilità di capire come l’algoritmo sia riuscito a produrre un determinato risultato. Inoltre, i modelli di intelligenza artificiale possono essere manipolabili e vulnerabili ad attacchi. Per questo motivo, diventa essenziale non solo comprendere il risultato prodotto dall'algoritmo, ma anche il “ragionamento” e il processo che lo ha portato a formulare una risposta. Ma cos'è, quindi, l'IA spiegabile? Come funziona? A cosa serve e, soprattutto, a che punto siamo nella comprensione dei modelli di intelligenza artificiale che utilizziamo quotidianamente? In questa puntata cerchiamo di rispondere a queste domande, iniziando proprio dal definire cosa si intende per IA spiegabile.

Nella sezione delle notizie parliamo dell’azienda cinese DeepSeek e dei suoi nuovi modelli di IA open source, del successo del test di XB-1 di Boom Supersonic che fa ben sperare per il ritorno dell’aviazione supersonica civile e infine di Waymo che testerà la guida autonoma in 10 nuove città per rendere il proprio sistema sempre più generalizzabile.

Indice
Testo