
Immaginando un mondo in cui software e macchine non solo eseguono compiti, ma apprendono e migliorano continuamente, rivoluzionando industrie intere e modificando il nostro modo di vivere e lavorare, è fondamentale comprendere come le regolamentazioni possano influenzare lo sviluppo e l’utilizzo di queste tecnologie. Nel caso dell’intelligenza artificiale l'Unione Europea ha fatto da apripista con l'AI Act, un insieme di norme mirate a garantire un uso sicuro e trasparente dell'IA, senza soffocarne l'innovazione. Ma cosa prevede esattamente l'AI Act e quali sono le implicazioni per il futuro dell'intelligenza artificiale? Per capirlo abbiamo invitato Ewelina Jelenkowska, responsabile della comunicazione per la DG CONNECT della Commissione europea.
Nella sezione delle notizie parliamo di una nuova tecnica per immagazzinare l’idrogeno individuata da un gruppo di ricerca dell’ETH di Zurigo e infine dell’arresto in Francia di Pavel Durov, fondatore di Telegram.



Immagini
• Foto copertina: Freepik
Brani
• Ecstasy by Rabbit Theft
• Believe Me by CADMIUM, JAMZ, SIMONNE
Perché l'Unione Europea ha voluto regolamentare? Perché ci sono state tante discussioni sul: ah ma questo metterà l'Unione Europea a svantaggio rispetto agli altri posti, perché lì non ci sono regole, perché lì si può fare tutto quello che si vuole? Diciamo che per noi i cittadini vengono primi, i loro diritti vengono prima, questa è la cultura europea.
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi, nella prima puntata dopo la pausa estiva, parleremo con la Commissione Europea del Regolamento sull'Intelligenza Artificiale, o AI Act, con l'obiettivo di capire qual è l'approccio legislativo adottato dall'Unione per regolamentare questa tecnologia in continuo sviluppo.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina, su Spotify, Apple Podcasts, YouTube Music oppure direttamente sul nostro sito.
Nel corso degli ultimi anni in più di una puntata abbiamo parlato del ruolo chiave che avrà l'idrogeno per conseguire il processo di decarbonizzazione del settore energetico europeo e globale.
Questa molecola infatti possiede un alto contenuto di energia per unità di massa, il che la rende una delle soluzioni più appetibili per la produzione di elettricità a basso impatto ambientale.
Per queste ragioni gli scienziati stanno continuando a sviluppare nuove tecniche per immagazzinare idrogeno in maniera più efficace rispetto alle soluzioni impiegate attualmente.
E una delle più promettenti è stata individuata da un gruppo di ricerca dell'ETH di Zurigo, che ha condotto la propria ricerca sul processo di produzione di idrogeno mediante ferro-vapore.
In questo nuovo metodo l'idrogeno verde, prodotto tramite elettrolisi, viene introdotto in un reattore di acciaio inossidabile a temperatura ambiente, il quale viene poi riempito di ossido di ferro riscaldato a 400°.
Successivamente l'idrogeno reagendo con l'ossido di ferro provoca la separazione dell'ossigeno dal minerale, producendo in questo modo acqua più ferro nella sua forma elementare.
Per generare energia infine sarà sufficiente introdurre nel reattore vapore acqueo, un modo tale da indurre una reazione con il ferro e rilasciare in questo modo idrogeno.
Sabato 24 agosto in Francia è stato arrestato Pavel Durov, fondatore e CEO dell'app di messaggistica Telegram, scatenando sul web un acceso di battito con schieramenti a favore della piattaforma e altri che, invece, sostengono le decisioni delle autorità francesi.
Da tempo, infatti, la Francia aveva emesso un mandato d'arresto nei confronti di Durov, in attesa che incautamente o volutamente atterrasse sul suolo francese.
Le motivazioni dell'arresto sono legate ai diversi rifiuti di collaborare con le autorità per limitare le attività illegali commesse sulla sua piattaforma, dal traffico di droga a materiale pedopornografico, in cui avevamo parlato in una nostra puntata a diverse frodi o a diffusione di fake news.
Lavorando in cloud e non avendo una crittografia end-to-end, infatti, le conversazioni sono accessibili in chiaro da Telegram, che potrebbe benissimo applicare una moderazione automatica sui contenuti che vengono condivisi, a differenza ad esempio di altre piattaforma come Signal o WhatsApp, dove la crittografia end-to-end rende i messaggi leggibili solo al mittente e al destinatario.
Tuttavia, negli anni, la piattaforma è diventata popolare proprio perché permette una totale libertà di utilizzo e perché ha sempre negato l'accesso ai suoi dati a governi o enti esterni.
Libertà che è ovviamente un diritto fondamentale dell'uomo.
D'altro canto, chi sostiene la decisione francese fa leva sul fatto che gli stessi contenuti illegali, come quelli pedopornografici, sono una violazione dei diritti umani e su cui Telegram dovrebbe quindi intervenire.
Attualmente Pavel Durov è in libertà vigilata, in attesa di comparire in tribunale per essere giudicato e sapere quindi se e come Telegram effettuerà un cambio di rotta e inizierà a collaborare con le forze dell'ordine per fermare il giro di attività illegali.
Immaginando un mondo in cui software e macchine non solo eseguono compiti, ma apprendono e migliorano continuamente, rivoluzionando industria intera e modificando il nostro modo di vivere e lavorare, è fondamentale comprendere come le regolamentazioni possano influenzare lo sviluppo e l'utilizzo di queste tecnologie.
E nel caso dell'intelligenza artificiale, l'Unione Europea ha fatto da apripista con l'AI Act, un insieme di norme mirate a garantire un uso sicuro e trasparente dell'IA senza soffocarne l'innovazione.
Ma cosa prevede esattamente l'AI Act e quali sono le implicazioni per il futuro dell'intelligenza artificiale? Di questo parliamo con Ewelina Jelenkowska, responsabile della comunicazione per la DG Connect della Commissione Europea.
Benvenute Ewelina.
Grazie, buongiorno.
Ad inizio dello scorso mese, durante la nostra pausa estiva, è entrato ufficialmente in vigore l'AI Act.
Ci racconti quindi di che cosa si occupa questo regolamento e come mai l'Unione Europea ha sentito la necessità di regolamentare l'intelligenza artificiale per prima a livello globale?
Beh, intelligenza artificiale rappresenta una rivoluzione.
Sarà simile a quello che abbiamo vissuto con la rivoluzione industriale, con internet, quindi lo vediamo già adesso che sta toccando ogni aspetto della nostra vita e quindi va regolamentata, perché noi in Europa in particolare siamo molto sensibili ai nostri diritti, ai principi europei, siamo molto fieri, ci abbiamo lavorato tanto dopo la guerra e quindi volevamo assicurarci che questa nuova rivoluzione che sta arrivando e che nessuno fermerà, e forse per fortuna, rispetti anche tutto quello che sono i nostri principi e i nostri valori europei.
Per questo per l'Unione Europea è stata una priorità assicurarci che gli sviluppi che abbiamo visto stanno andando a velocità pazzesca, che rispettino in Europa quello che sono i nostri valori.
Quindi abbiamo in effetti introdotto la prima regolamentazione al mondo dell'intelligenza artificiale, però una cosa importante da dire, abbiamo regolamentato non tanto la tecnologia quanto l'utilizzo, quindi prima di tutto e questo fa una grande differenza perché ovviamente è difficile regolamentare una cosa che cambia in continuazione, mentre il controllo sull'utilizzo e su come si utilizza e soprattutto quando ha impatto sulle persone, sulle loro vite è fondamentale e dall'altro lato abbiamo regolamentato solamente quel necessario che era necessario, quindi solamente i sistemi dell'intelligenza artificiale che possano avere impatto sui nostri diritti o possano avere impatto sulla sicurezza e quindi rappresentano rischio, sono soggetti alla regolamentazione.
Tutto il resto no, e tutto il resto sono circa, adesso difficile dirlo con precisione, ma circa 90% dei sistemi dell'intelligenza artificiale non sono sotto lo scopo di questo regolamento.
Ok, si, un aspetto interessante che ho sottolineato è che vale la pena ricordare è che l'intelligenza artificiale non è ben definita neanche oggi e poi il rischio è che - o rischio - comunque le potenzialità che ha non sono neancora state scoperte del tutto, quindi la difficoltà di regolamentare un qualcosa di così poco tangibile, apparentemente, è quella appunto di limitare l'innovazione, ma di questo aspetto poi ne parliamo.
Ci spieghi quindi quali sono i rischi che l'intelligenza artificiale pone per i nostri diritti e come quindi l'AI Act prova a porre rimedio a questi rischi?
Allora prima di tutto abbiamo guardato ovviamente alla situazione che c'è oggi, è già tra il momento in cui abbiamo presentato la proposta di regolamento e la sua approvazione è cambiato tanto il mondo, quindi questo ci dice molto, però intanto abbiamo deciso che ci sono alcuni utilizzi che vediamo già succedere al mondo che noi in Europa non vogliamo proprio, quindi abbiamo anche definito un limitato numero di sistemi o di modi di utilizzo dell'AI che noi riteniamo sia contrario ai principi europei e quindi sarà vietato.
Per dare qualche esempio "social scoring", quindi il modo di tenere una specie di pagella dei cittadini soprattutto da parte delle autorità che raccolgono tutta una serie di dati perché sappiamo che noi oggi lasciamo tracce ovunque e quindi è facile anche soprattutto per chi ha accesso a questi dati raccoglierli e per esempio utilizzarli poi contro di noi in contesti non legati, quindi ad esempio se uno magari beve troppo vino un domani non avrà accesso al credito per comprare la casa, quindi questo tipo di cose, questo è social scoring e in Europa sarà vietato, questo è uno diciamo degli esempi.
Un altro esempio utilizzare l'AI per categorizzare le persone, quindi per esempio le informazioni biometriche per dedurre le opinioni politiche, religiose, eccetera eccetera.
Questo noi, amiamo la nostra libertà e quindi non la vogliamo vedere limitata in nessun modo.
Un altro esempio, e qui mi fermo perché ce ne sono pochi ma ci sono ancora altri, per esempio un policing preventivo, cioè non so se…
La polizia predittiva.
Esatto, quindi se ti ricordi Minority Report, c'è stato un film tantissimi anni fa dove tu sulla base delle caratteristiche di una persona prevedi già che commetterà un crimine.
Tutte queste cose ovviamente in Europa non le vogliamo e questo è escluso, questo era semplice, questa è la cattiva AI che non può essere buona in nessun contesto.
Questo è il cosiddetto "rischio inaccettabile", cioè l'intelligenza artificiale pone dei rischi.
Precisamente.
Ok e poi invece ci sono dei rischi accettabili?
Poi ci sono i rischi accettabili che richiedono un livello più o meno elevato di attenzione, dipende da quanto è "rischioso" il rischio, se posso.
Quindi per esempio, magari per semplificarlo, tutto quello che ha a che vedere con l'impiego, con i nostri diritti, con la nostra salute, con la nostra sicurezza, con gestione di sicurezza pubblica, tutto quello ovviamente ha un impatto su di noi e sui nostri diritti, quindi va controllato con grande attenzione.
D'altro canto, intelligenza artificiale può essere molto molto utile, può aiutarci molto, fammi fare un esempio: pronto soccorso.
Al pronto soccorso arrivano tante persone, noi oggi abbiamo dei codici dal verde al rosso per definire le priorità, non è certo in ordine di arrivo ma in ordine di gravità del caso.
Stiamo cercando di farlo al meglio possibile, non sempre funziona, a volte purtroppo ci sono dei casi dove le persone non vengono aiutate in tempo.
Se noi utilizziamo... riusciamo ad utilizzare il sistema dell'intelligenza artificiale che ha la capacità di analizzare i dati oggettivi in un tempo assolutamente irraggiungibile dalle persone, noi potremmo mettere in piedi un sistema quasi infallibile di stabilire chi veramente ha bisogno di essere aiutato per primo.
Detto ciò, deve essere sempre comunque la decisione del medico, dell'uomo, che decide chi va aiutato per primo e soprattutto non vogliamo che per esempio l'intelligenza artificiale dice: "no, questo caso qua è perso, qui non possiamo più aiutare".
Quindi questo tipo di utilizzo, questo è utilizzo di alto rischio e poi diciamo che l'AI Act definisce nei suoi lunghi, grandi, annessi perché è un atto che ha centinaia e centinaia di pagine, definisce quali sono i sistemi.
Che cosa vuol dire? Vuol dire che chi sviluppa questo tipo di sistemi, chi li introduce, chi li utilizza ha tutta una serie di obblighi a iniziare da come viene concepito il sistema, che tipo di dati vengono utilizzati, la trasparenza di questi dati, deve prevedere i rischi e prevedere i modi di mitigarli, avere un sistema di intervenire immediatamente se un rischio sia vera, di avere in modo di rimediare e di migliorare il sistema o anche di staccarlo se effettivamente diventa pericoloso.
Quindi c'è tutta una serie di obblighi molto seri e per esempio se si tratta di un'autorità pubblica ci sono ancora più stringenti rischi, per esempio c'è un obbligo di fare un cosiddetto "impact assessment", quindi una valutazione di impatto preventivo sui diritti fondamentali dei cittadini.
Tutto quello serve a assicurarci che l'AI che viene introdotta ci serve, ci aiuta e non infranga i nostri diritti.
Ok, sì, molto interessante fra l'altro quando hai parlato dell'utilizzo positivo che può avere nella nostra società l'intelligenza artificiale, ho pensato anche ad un esempio non sanitario, ma di efficienza della pubblica amministrazione ad esempio.
Cioè è un tema di cui si parla molto spesso e l'intelligenza artificiale potrebbe rappresentare un ruolo molto rilevante anche in quel caso.
Quindi non vietarla, ma integrarla in modo positivo e regolamentandola nel modo corretto evidentemente permette di utilizzare l'intelligenza artificiale e noi cittadini ne beneficiamo direttamente o indirettamente.
C'è anche un esempio molto concreto di proprio quello: i francesi hanno lanciato un progetto pilota un'annetto fa credo, un anno e mezzo, per utilizzare l'intelligenza artificiale nelle risposte ai cittadini e hanno coinvolto un progetto che è molto molto interessante con dei dei risultati molto molto concreti dove i tempi di risposte a cittadini si sono ridotti da settimane a giorni o a volte anche a ore e dove i funzionari stessi ci hanno raccontato che inizialmente esitavano molto perché non pensavano che potesse essere una cosa utile invece poi si sono ricreduti e tutti quelli che stanno partecipando sono entusiasti.
Detto ciò c'è sempre una persona dietro che controlla e questo è uno uno dei principi anche dell'AI Act, dove l'uomo deve rimanere non solo al centro di interesse ma anche controllo.
Certo e quindi abbiamo parlato di intelligenza artificiale che rappresenta un rischio inaccettabile, un rischio alto per cui ci sono una serie di obblighi e poi c'è anche un rischio un po più basso giusto? In questo caso ci fai un esempio di quale potrebbe essere un rischio basso posto dall'intelligenza artificiale e che cosa prevede per questi rischi l'AI Act?
Allora il rischio basso è quando basta che noi siamo informati che dall'altro lato c'è una macchina.
Un classico esempio potrebbero essere delle varie "chatbot" che ormai sono all'ordine del giorno quando contattiamo la banca, quando contattiamo le linee aeree, la prima proposta è sempre quella di parlare con un chatbot quando accettiamo di fare una conversazione.
Quello dobbiamo essere consapevoli che dietro c'è una macchina e quindi se ci dà una risposta sbagliata o non sufficiente capiamo che c'è una macchina.
Un altro rischio dove riteniamo l'AI Act ha ritenuto che l'informazione che sia generato dall'AI è sufficiente è tutto quello che sono contenuti generati artificialmente tipo notizie che non devono essere fasulle però sono generate artificialmente o anche "deepfake", deepfake che sono il materiale audiovisivo manipolato non necessariamente a scopi maligni ma che è alterato, l'obbligo di trasparenza di chiaramente identificare che è un contenuto che è stato modificato è sufficiente all'utente di giudicare cosa ne vuole fare. Ma anche l'AI che utilizziamo ogni giorno oggi utilizziamo i vari sistemi di navigazione, se la navigazione a volte ci propone una strada, che poi magari non è neanche la migliore, noi comunque siamo consapevoli che un sistema che utilizza intelligenza artificiale.
Sì perché il penultimo esempio che hai fatto sui deepfake, l'intelligenza artificiale in grado di realizzare dei contenuti particolarmente credibili che però sono falsi manipolati e quindi è importante che il cittadino europeo sia consapevole di questo. Quindi questi sono i tre rischi poi tutto il resto invece rimane non regolamentato perché non rappresenta un rischio.
Tu all'interno di queste risposte hai fatto spesso riferimento a due parole: la trasparenza e la spiegabilità dell'intelligenza artificiale. Ci spieghi più nel dettaglio che cosa sono questi due termini e perché l'Unione Europea si è concentrata in particolare su questi?
Allora ogni sistema dell'intelligenza artificiale diciamo che ha bisogno di tre elementi: uno, dati, tanta quantità di dati questa è la forza dell'AI che è in grado di elaborare una quantità enorme di dati, dati che vengono elaborati grazie a degli algoritmi quindi dei sistemi o dei modi di elaborare i dati che devono essere trasparenti, poi c'è ovviamente la capacità di calcolo e le competenze.
I primi due elementi... allora per capire prima di tutto che il sistema sta rispettando i miei diritti, io devo poter sapere e verificare che tipo di dati sono stati utilizzati, come sono stati utilizzati, come vengono elaborati e come vengono, come dire, che tipo di decisioni poi o conclusioni vengono tratti dal sistema sulla base di questi dati.
Faccio un esempio: uno dei principi fondamentali in Europa è il diritto a non discriminazione, la uguaglianza dei generi. Quindi noi vogliamo essere sicuri che i dati che vengono, come dire... perché quello che si... cosiddetto "machine learning" giusto, cioè la macchina impara e fa però prima ancora la cosa più importante è "machine teaching" cioè quello che noi diamo in pasto a questa macchina perché è solo quello che la macchina elaborerà quindi noi dobbiamo assicurarci che i dati che vengono messi dentro la macchina rispettano i nostri principi e i nostri valori, quindi se prendiamo il valore delle eguaglianza dobbiamo assicurarci che i dati che la macchina riceve rispettano altrettanto questi valori. E non è una cosa facilissima, perché, prendiamo un esempio del sistema che deve aiutare a selezionare o preselezionare candidati per un posto di un ingegnere spaziale.
Ora che tipo di dati mettiamo nel sistema è fondamentale, perché se noi dovessimo prendere il dato storico puramente rischiamo di discriminare le donne, perché oggettivamente, storicamente non abbiamo ancora diciamo... che le donne mancano ancora in questo tipo di professioni. Quindi non è molto semplice ma è un obbligo che si deve porre chi fa questo tipo di sistema per assicurarci sì che i dati che sta dando in pasto al sistema poi porteranno a delle scelte o dei suggerimenti che rispettano in questo caso ad esempio il principio di non discriminazione. Quindi questo è uno; due c'è una difficoltà in più. Come sappiamo negli ultimi anni è esploso il fenomeno di "General-purpose AI", che sono quelle quei sistemi che non sono sviluppati per una funzione precisa che già è complicato ma sono sviluppati e possono essere utilizzati a una molteplicità di usi e quindi sono sistemi molto aperti, sono sistemi che sono molto dinamici e dove la difficoltà anche di chi progetta questo tipo di sistema è di sapere dove va.
Si come... qual è stato il processo di generazione o di decisione che ha compiuto l'intelligenza artificiale, spesso si fa riferimento in gergo tecnico a "black box", cioè lo stesso sviluppatore non conosce il funzionamento.
Esatto, ed è per questo, siccome questo tipo di sistemi, il modo in cui si svilupperanno è veramente imprevedibile, nel senso che dipende moltissimo non solo dall'algoritmo, ma anche da tipo di dati che vengono immessi in continuazione, dall'utilizzo che ne viene fatto, dall'evoluzione di quell'utilizzo, eccetera eccetera, e quindi è fondamentale avere una piena trasparenza di che tipo di dati e come vengono utilizzati in modo tale da sorvegliare continuamente che quello che magari è nato come un sistema equo, giusto e rispettoso dei diritti, non degradi, non cambi direzione.
Qui devo dire che oltre all'AI Act, è stato messo in piedi, o nell'AI Act è stato messo in piedi un sistema molto preciso e sofisticato di governance, quindi di gestione di chi controlla, perché la domanda fondamentale è anche: ma chi lo controlla? Ma chi lo capisce? Ma chi ha accesso, chi ha diritto? Queste sono ovviamente le domande fondamentali e quindi noi abbiamo messo in piedi l'AI Office, cioè l'ufficio AI, che è all'interno della Commissione Europea, della mia direzione generale ad essere più precisi, che tra gli altri compiti avrà il compito di sorvegliare proprio i sistemi dell'intelligenza artificiale generativa, perché è quella che ha un potenziale di avere impatto più imprevedibile, più incisivo su tantissime, quindi tantissimi aspetti della nostra vita.
Ok, anche questo che hai citato adesso è un aspetto molto interessante, effettivamente che bisognerebbe dedicarci più spazio, perché sennò il rischio è che un'intelligenza artificiale venga addestrata su dati "sbagliati", e che quindi poi ci sfugga di mano, soprattutto se diventerà sempre più pervasiva nella nostra quotidianità.
A proposito dei dati, i dati di noi cittadini dell'Unione Europea vengono utilizzati per addestrare l'intelligenza artificiale, immagino di sì, ma quindi l'AI Act prevede qualcosa per tutelarci come cittadini?
Allora, l'AI Act arriva ovviamente non in un vuoto legislativo, l'AI Act arriva già in una realtà molto assodata e molto garantista per noi europei.
Siamo abbastanza fortunati da questo punto di vista, bisogna dire, perché come saprai sicuramente il GDPR, il cosiddetto regolamento di protezione dei dati personali, è nato in Europa, poi si è sparso per tutto il mondo, è stato accettato come standard, e questo regolamento è ancora in piedi, sempre in piedi, e vale anche per tutto quello che sono dati utilizzati anche per l'addestramento dell'AI.
Oltre ai dati personali, quindi diciamo che non c'è accordo di utilizzare i dati personali senza il consenso dell'utente, e questo chi sta addestrando i sistemi deve rispettarlo e deve dimostrare che l'ha rispettato, e qui torniamo alla questione della trasparenza.
Ma non è solo la questione di dati personali, c'è tutta una serie di questioni, i dati confidenziali, i dati protetti per esempio dal copyright, quindi dal diritto d'autore, anche questo, è vero che nel nostro diritto d'autore c'è un'eccezione di utilizzo per "data mining", cioè per addestramento, però ogni autore, chi ha diritto... il proprietario del diritto d'autore può fare un cosiddetto opt-out, quindi può dire: "io non voglio che le mie opere vengano utilizzate per addestrare l'AI", e chi fa il sistema deve rispettarlo e deve dimostrare di averlo rispettato.
Questo in più forse vale la pena dire un'altra cosa, che ovviamente le leggi sono limitate, hanno l'applicazione limitata nell'Unione Europea, però anche chi costruisce i sistemi fuori dall'Unione Europea, ma li utilizza all'interno dell'Unione Europea, è soggetto all'AI Act, e tutte le altre leggi ovviamente.
Quindi l'idea è forse questa, magari tornando all'inizio, perché l'Unione Europea ha voluto regolamentare? Perché ci sono state tante discussioni sul ma questo metterà l'Unione Europea a svantaggio rispetto agli altri posti, perché lì non ci sono regole, perché lì si può fare tutto quello che si vuole, beh diciamo che questo definisce le regole, per noi i cittadini vengono primi, i loro diritti vengono prima, al di là di interessi economici, interessi politici. Questa è la cultura europea, quindi chiunque voglia venire qua e fare il loro business e utilizzare il mercato europeo, deve attenersi alle stesse regole, quindi in questo senso non siamo in nessun svantaggio.
Certo, assolutamente sono completamente d'accordo, però la questione è che come abbiamo avuto modo di sottolineare, come ci hai detto, comunque gli utilizzi positivi dell'intelligenza artificiale sono tantissimi, e quindi come si fa a evitare appunto di rimanere indietro magari rispetto ad altre realtà estere, e quindi a non limitare l'innovazione, quindi da questo punto di vista, oltre al fatto che, come dicevi, avete regolamentato l'intelligenza artificiale il minimo possibile, avete previsto qualcosa di più anche da un punto di vista di incentivo all'innovazione per le società europee o non solo?
Assolutamente sì, anche perché questa è un'opportunità epocale, quindi è un'opportunità che l'Europa sicuramente non può mancare, e già iniziando dal fatto che la regolamentazione stessa è pro innovazione.
Perché? Perché noi abbiamo 27 sistemi giuridici.
Adesso immaginiamoci che l'Europa non sia intervenuta in quanta Europa e quindi prima o poi ogni stato membro avrebbe regolamentato in un modo o l'altro.
Questa sarebbe veramente un grandissimo ostacolo per le aziende che vorrebbero fare come dire utilizzare il mercato comune.
Quindi questo già facilita le aziende europee perché apre il mercato dell'Unione Europea in quanto un unico mercato per l'intelligenza artificiale.
Quindi questo è uno.
Due, indubbiamente ci vogliono tanti investimenti e tanti modi per facilitare l'ingegno e l'innovazione.
Soprattutto per le piccole e medie imprese che molto spesso hanno tanta capacità, tanta competenza e magari mancano mezzi.
Cosa abbiamo messo in piedi? Allora prima di tutto, non tutti sanno che l'Europa ha la più grande al mondo rete di supercomputer, rete pubblica di supercalcolo che dà accesso alle piccole e medie imprese, che dà accesso ai ricercatori.
Questa è una cosa che non esiste da nessun'altra parte del mondo.
In più con un pacchetto di innovazione che abbiamo proposto, adottato all'inizio di quest'anno a gennaio, proprio per facilitare le aziende ad avere accesso, perché abbiamo detto che potenza del calcolo è uno dei principi o degli elementi assolutamente indispensabili per l'AI, istaurando cosiddette AI factories.
AI factories non sarà altro che lo spazio dedicato di supercalcolo riservato a delle aziende innovative che vogliono utilizzare e sviluppare l'intelligenza artificiale.
Ci sono ovviamente anche investimenti sul tavolo, soldi non sono mai abbastanza, su questo siamo d'accordo.
In Europa non abbiamo la cultura degli investimenti privati come ce l'hanno gli Stati Uniti, ad esempio, ma ovviamente e in parte noi possiamo rimediare dai fondi pubblici, ma probabilmente questo non basta.
Quindi quello che possiamo fare è sicuramente facilitare appunto le aziende a sperimentare.
Adesso gli stati membri, sempre sulla base dell'AI Act, devono mettere in piedi i cosiddetti "sandbox", cioè i quindi parchi giochi, vogliamo dirlo, parchi giochi per sperimentare e giocare con l'intelligenza artificiale per poter testare dei sistemi, per poter avere anche consiglio.
Che sarebbero degli spazi delimitati, nel senso che evitano diciamo che un'intelligenza artificiale potenzialmente rischiosa possa diffondersi su internet.
Esatto, quindi per poter testare i sistemi potenzialmente rischiosi in un ambiente di vita reale, senza creare rischi oltre quelli delimitati.
Abbiamo anche "innovation hubs", quindi c'è tutta una serie di iniziative di cose che l'Europa sta incentivando, mettendo in piedi insieme agli stati membri, per creare quell'ecosistema favorevole alla sperimentazione.
E il fatto che c'è la certezza giuridica su quello che si può fare, che non si può fare, quali sono le responsabilità, e chi è responsabile siamo convinti che creerà quell'ambiente, come dire, favorevole dove la gente non avrà paura di sperimentare.
Ed è quello di cui noi abbiamo bisogno perché è una tecnologia che è tutta sperimentazione.
Va bene, allora grazie mille Ewelina per averci veramente fatto un quadro molto dettagliato di quella che è l'AI Act, e più che quello anche qual è un po la visione dell'Unione Europea sull'intelligenza artificiale, sugli utilizzi potenzialmente rischiosi, ma anche sugli utilizzi che possono invece avere un impatto estremamente positivo sulle nostre vite.
Alla prossima!
Grazie mille per l'invito, alla prossima!
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia.
Io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio.
Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it, seguiteci su Instagram a @dentrolatecnologia dove durante la settimana pubblichiamo notizie e approfondimenti.
In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social.
Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.