
L'elaborazione del linguaggio naturale umano da parte delle macchine è stata per decenni un'enorme sfida per gli sviluppatori. Assistenti come Google Assistant, Alexa, Siri o Cortana hanno rappresentato i primi tentativi di sviluppare sistemi in grado di riconoscere la voce e interpretare i comandi, ma con risultati spesso deludenti. La situazione è cambiata drasticamente con l'avvento dei Large Language Model, che oggi riescono a comprendere facilmente le intenzioni dell'utente, interpretarle e rispondere di conseguenza. In questa puntata analizziamo come i modelli linguistici comprendono la nostra voce e quali sono le tecnologie che migliorano questa comprensione, esplorando alcuni esempi di prodotti tra cui il nuovo Insta360 WAVE.
Nella sezione delle notizie parliamo del possibile addio ai cookie banner, dell'annuncio della NASA sulla data per la missione Artemis II e infine della battaglia legale di Apple contro il Digital Markets Act europeo.





Sponsor
• Puntata realizzata in collaborazione con Insta360
Brani
• Ecstasy by Rabbit Theft
• Whatever by Cartoon & Andromedik
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi parleremo di come l'intelligenza artificiale riesce a comprendere la nostra voce, dalle tecnologie di trascrizione e diarizzazione fino ai servizi che già usiamo ogni giorno.
Infine proveremo in anteprima la nuova Insta360 WAVE, un registratore intelligente pensato proprio per queste funzioni.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina su Spotify, Apple Podcast, YouTube Music oppure direttamente sul nostro sito.
Nel 2009, l'Unione Europea, con la Direttiva sulla Privacy Digitale, o e-Privacy, ha imposto a tutti i siti web l'utilizzo dei cosiddetti "cookie banner", con cui l'azienda o il titolare del trattamento dei dati informa l'utente visitatore di come e quali cookie vengono utilizzati.
Tra questi, cookie necessari, ad esempio per la gestione del login o della sessione, ma anche cookie facoltativi, volti a tracciare le attività dell'utente a fini pubblicitari.
E come ben sappiamo, la direttiva impone che ogni visitatore sia libero di decidere, tra quelli facoltativi, quali cookie abilitare.
Tuttavia, dopo 16 anni, l'UE si è accorta di come l'uso dei cookie banner sia diventato non solo inutile a proteggere la privacy dei cittadini, ma addirittura controproducente, in quanto è ormai istantaneo cliccare "accetta tutti i cookie" per nascondere il banner senza leggere l'informativa.
Per questo motivo, la Commissione Europea sta valutando modifiche sulla direttiva per ridurre le casistiche in cui è necessario un cookie banner o addirittura imporre che la scelta sia impostabile globalmente tramite il proprio browser.
Come era prevedibile, ci sono già creati schieramenti contrari o a favore di queste proposte, tra chi solleva preoccupazioni su un possibile via libera al tracciamento dei dati o al mercato dei cookie banner, su cui sono nate negli anni figure di professionisti e corsi formativi in materia.
Dall'altra parte, è chiaro che troppi consensi paradossalmente uccidono il consenso ed è quindi necessario un cambio di approccio.
Questa settimana, durante una conferenza stampa, la NASA ha annunciato la data per la partenza della seconda missione del programma Artemis, con l'obiettivo di riportare l'uomo sulla Luna e stabilire una presenza permanente sulla superficie del satellite.
Da quanto emerso dalla conferenza, la prima finestra utile per il lancio di Artemis II si aprirà il 5 febbraio prossimo e proseguirà per tutto il mese, in modo tale da poter lanciare il razzo SLS entro marzo.
La missione avrà una durata complessiva di 10 giorni e vedrà un equipaggio composto da quattro astronauti che, oltre a eseguire un fly-by, ovvero un passaggio ravvicinato sulla Luna, dovranno compiere diversi test già in orbita terrestre, tra cui una prova di attracco con il secondo stadio del razzo Space Launch System per testare la manovrabilità della capsula
Orion, la quale in futuro dovrà attraccare con una Starship o con la stazione lunare Gateway.
Il Digital Markets Act, DMA, è la normativa antitrust europea nata per limitare il potere dei giganti del digitale, imponendo regole più rigide ai cosiddetti gatekeeper, cioè quelle piattaforme considerate essenziali per l'accesso al mercato.
In vigore dal maggio 2023 ha già portato a miliardi di euro di sanzioni contro Apple per pratiche scorrette e abuso di posizione dominante.
Proprio la società di Cupertino è ora la più dura oppositrice del regolamento, arrivando a chiederne l'abrogazione.
Secondo Apple, infatti, il DMA non tutela i consumatori, ma peggiora l'esperienza d'uso, introduce rischi e ostacola l'integrazione dei dispositivi.
In un documento di 25 pagine inviato alla Commissione Europea, l'azienda accusa Bruxelles di applicare la normativa in modo sproporzionato e quasi esclusivamente contro di essa, anche sotto l'influenza di concorrenti come Spotify.
Apple contesta inoltre che Apple Music rappresenti un abuso di posizione dominante, evidenziando come il servizio non raggiunga le quote dei leader di mercato.
Pur tra i sette gatekeeper individuati dall'UE, Apple afferma di essere l'unica costretta a condividere proprietà intellettuale e tecnologie senza compensazione e propone che il DMA venga sostituito da regole più equilibrate o gestito da un'agenzia indipendente.
L'elaborazione del linguaggio naturale umano da parte delle macchine, come computer, smartphone o assistenti vocali, è stata per decenni un'enorme sfida per gli sviluppatori e per certi versi sembrava quasi impossibile da superare.
Il linguaggio umano, infatti, comprende centinaia di lingue, dizionari e regole grammaticali differenti senza considerare tutte le sfumature e minuscole varianti, come i dialetti regionali.
E proprio su questi aspetti, tra l'altro, abbiamo dedicato un approfondimento due settimane fa nella puntata: “Abbiamo bisogno di un’IA “Made in Italy”? Google con Google Assistant, Amazon con Alexa, Apple con Siri o Microsoft con Cortana, sono alcuni dei tentativi che alcune big tech hanno fatto per sviluppare degli assistenti virtuali che potessero riconoscere
la voce, interpretare il comando e agire di conseguenza. E ci ricordiamo benissimo di quanto - spesso - questi assistenti fossero pessimi in questo.
Ma la situazione è cambiata drasticamente con l'avvento dei Large Language Model, come GPT, Claude o Gemini, che come abbiamo ormai ampiamente dimostrato e visto più volte, riescono con molta facilità, almeno apparentemente, a capire le intenzioni dell'utente anche in presenza di errori, interpretarle e rispondere di conseguenza. Con l'IA agentica, poi, il
modello può accedere a strumenti o eseguire comandi e azioni per conto dell'utente o per ottenere ulteriori informazioni a completamento della risposta. Il tutto con un linguaggio naturale e comprensibile per il proprio interlocutore. Questa capacità, dunque, sta venendo sfruttata in molteplici modi, dalla creazione di assistenti virtuali più intelligenti, chatbot, agenti
in grado di compiere azioni al posto nostro, creazione di testi e molto altro.
Una di queste su cui ci concentreremo oggi riguarda la capacità non solo di comprendere il linguaggio testuale, ma anche quello vocale, rendendo i Large Language Model degli strumenti perfetti per raccogliere delle note utilizzando la voce, per creare un diario personale, ma soprattutto in ambienti lavorativi, per registrare, trascrivere e verbalizzare riunioni, da cui
ottenere riassunti o a cui porre domande specifiche sui temi trattati e sulle discussioni affrontate.
In questa puntata, quindi, andremo proprio a capire come fanno i modelli linguistici a comprendere la nostra voce, a distinguere un utente da un altro e a analizzare quali sono le tecnologie che permettono di migliorare la comprensione della voce da parte del modello, per poi finire vedendo alcuni esempi di prodotti, sia software che hardware, che sfruttano
queste tecnologie per fornire gli strumenti di trascrizione e sintesi appena elencati.
I principali algoritmi di trascrizione vocali utilizzati ad oggi per la trascrizione del linguaggio parlato ricadono nella categoria che viene definita Speech-to-Text, il cui nome è ampiamente esplicativo.
Questi algoritmi esistono ormai da anni e li troviamo spesso integrati anche in pagine web, app o direttamente nella propria tastiera.
Nonostante ciò, non sempre questi sistemi funzionano come si deve e le motivazioni sono molteplici: la presenza di rumore di fondo, l'utilizzo di vocaboli di nicchia o professionali, l'uso sbagliato di accenti causati ad esempio da influenze regionali o difetti di pronuncia, sono solo alcuni degli ostacoli che rendono il compito di trascrizione per questi algoritmi
non sempre una passeggiata.
Per il resto, il loro funzionamento è relativamente semplice.
Il primo passo è chiaramente quello della registrazione, dopodiché si passa alla segmentazione dei suoni, in cui il segnale audio viene suddiviso, come dice il nome, in piccoli segmenti che rappresentano brevi frammenti dell'intera registrazione.
Questi segmenti vengono infine analizzati da una rete neurale addestrata su miliardi di esempi di lingue diverse, che associa al singolo segmento la parola più probabile.
Infine, un modello linguistico si occupa di ottimizzare la trascrizione generata, rimuovendo parole riempitive come i classici "ehm" o "ah", sistemando alcune parole in base al contesto e aggiungendo la punteggiatura.
Il principale software o servizio di trascrizione ad oggi è Whisper, realizzato da OpenAI, che si è imposto da subito come stato dell'arte grazie alla sua affidabilità, alla possibilità di generare i timestamp di ogni parola o aggiungere vocabolari personalizzati.
Inoltre, la sua popolarità è dovuta anche, e forse soprattutto, al fatto che questo modello è stato rilasciato in modalità open source, e quindi utilizzabile da chiunque, gratuitamente anche sul proprio dispositivo.
Altri servizi, poi, sono in cloud, come Google Speech-to-Text, Amazon Transcribe o Microsoft Azure Speech.
Anche questi offrono le stesse funzionalità di Whisper, come la possibilità di fornire domini personalizzati o di ottenere i timestamp delle parole, ma, a differenza del modello di OpenAI, possono essere eseguiti solamente in cloud.
Tra l'altro, noi stessi utilizziamo modelli come Whisper per generare le trascrizioni delle puntate di questo podcast, accorgendoci in prima persona di quanto questi algoritmi siano diventati negli ultimi anni sempre più accurati e precisi anche in situazioni complesse.
Gli errori chiaramente non mancano, soprattutto su discorsi molto lunghi o con molto rumore di fondo, ma l'affidabilità generale è sicuramente da encomiare.
Questi ad oggi sono gli algoritmi e modelli più, tra virgolette, "tradizionali" che si possono utilizzare.
Come per il passaggio da algoritmi di processo del linguaggio naturale ai Large Language Model, tuttavia, anche questi servizi potrebbero subire degli upgrade, almeno in certi contesti grazie alle nuove tecnologie.
Negli ultimi anni, infatti, si parla spesso non solo di Large Language Model o LLM, ma di LLM multimodali, come lo sono ovviamente i principali.
Multimodale in questo contesto significa che i modelli sono stati addestrati non solo su fonti testuali, ma anche su immagini, video o audio, e possono quindi comprendere e in certi casi generare contenuti in tutti questi diversi formati.
Nella situazione dello Speech-to-Text, quindi, ciò significa che un modello come Gemini o ChatGPT può integrare input vocali e trasformarli in testo.
Da una parte, quindi, avremo una maggior flessibilità e accuratezza, in quanto un modello linguistico non trascrive parola per parola l'audio, ma lo interpreta e adatta affinché vengano prodotte frasi di senso compiuto.
Dall'altra, al contrario, può essere normale incorrere in allucinazioni, soprattutto su parole sconosciute, rischi di bias e consumo elevato di risorse.
Se modelli open source come Whisper potevano essere eseguiti tranquillamente da un PC, modelli come GPT-4o, GPT-5 o Gemini richiedono datacenter specializzati per poter essere utilizzati.
Inoltre, l'output non fornisce timestamp fondamentali nel caso della generazione di sottotitoli o trascrizioni.
Ad oggi, dunque, le opzioni principali sono queste e la scelta di utilizzare un sistema piuttosto che un altro dipende sensibilmente dalle esigenze della singola situazione.
Prima di passare a vedere alcuni esempi di integrazione di questi sistemi nella vita reale, da quella quotidiana a situazioni più specifiche, merita sicuramente un breve approfondimento il tema del riconoscimento degli utenti nel caso di audio in cui sono coinvolte più persone.
Questo processo si chiama "diarizzazione" e permette di segmentare, quindi suddividere, una registrazione audio identificando per ogni segmento i diversi oratori, gli speaker.
Tramite reti neurali o algoritmi di deep learning, infatti, è possibile riconoscere i timbri vocali dei vari partecipanti e assegnare a ogni segmento un'etichetta che li identifica.
In alcuni sistemi, tra l'altro, questa segmentazione funziona anche in presenza di voci sovrapposte.
Come per i servizi di trascrizione e anche per la diarizzazione, esistono online diversi strumenti che permettono di adempire a questo compito.
Uno dei più utilizzati è Pyannote.audio, che più che un servizio è un vero e proprio software open source e in grado di funzionare offline.
Anche gli altri servizi già citati, come Amazon Transcribe e Microsoft Azure comunque soffrono le stesse funzionalità.
Infine, l'ultimo aspetto importante di cui parlare è quello della riduzione del rumore.
Gli algoritmi e i modelli di IA citati fino ad ora, infatti, funzionano sì bene, ma diventano praticamente impeccabili in situazioni in cui la qualità audio della registrazione è molto elevata e con poco o nulla rumore di fondo.
Per raggiungere questa qualità le strade sono molteplici, dall'avere hardware e microfoni di qualità, alla regolazione dei parametri dei microfoni o l'utilizzo di filtri, alla rimozione tramite equalizzazione di specifiche frequenze audio legate al rumore.
Infine, anche in questo caso ci sono strumenti di IA che, dato un audio in input, riescono ad estrarre in modo molto accurato le sole frequenze vocali, eliminando completamente o quasi il rumore e permettendo ai servizi presentati di trascrizione e diarizzazione di raggiungere le più alte prestazioni possibili.
Arrivati a questo punto della puntata, e dopo aver capito come funzionano e quali sono i principali software di IA per riconoscere e trascrivere il linguaggio verbale umano, possiamo finalmente vedere alcuni esempi pratici di servizi e prodotti che fanno uso di queste tecnologie per fornire benefici tangibili ai propri utenti.
Partendo da soluzioni solo software, i principali servizi di videochiamate ormai integrano al loro interno queste funzionalità.
Google Meet, oltre a permettere di registrare la videochiamata, trascrive e, se richiesto, traduce in tempo reale i singoli partecipanti per poi creare un documento in Google Drive con la trascrizione completa, suddivisa per singolo partecipante e un riepilogo generato da Gemini con i punti chiave trattati e il riferimento temporale.
Microsoft Teams, invece, genera un documento in Microsoft Loop con note, elenchi e task da fare.
Anche Zoom, come gli altri due, ha recentemente integrato l'IA nel suo prodotto di videochiamata, con Zoom AI Companion, che presenta le stesse funzionalità di Meet e Teams.
Otter.AI, invece, offre una soluzione compatibile con qualsiasi sistema di videochiamata, partecipando come membro di quest'ultima e registrando i contenuti per poi come negli altri casi generare trascrizioni e riepiloghi.
Infine, rimanendo sul software ma lato smartphone, anche app di registrazione preinstallate come quella di Samsung o dei Google Pixel, offrono la possibilità di trascrivere la registrazione e consultarla.
Passando invece ai prodotti fisici, questi possono essere molto utili per registrare note al volo o per verbalizzare riunioni in presenza, senza dover per forza utilizzare uno smartphone.
Tra questi ci sono i registratori realizzati da Plaud.ai, startup nato nel 2021, che hanno la particolarità di essere molto compatti e tascabili e che, come tutti i prodotti di questo tipo, sfruttano il cloud per trascrivere e diarizzare e rendere consultabile la registrazione tramite una chat con un modello IA.
Infine, un altro prodotto hardware che unisce in un'unica soluzione la funzionalità di altoparlante, microfono adatto sia per riunioni che per la produzione di podcast e ovviamente di registrazione con funzionalità di IA, è Insta360 WAVE, presentato proprio questa settimana e che abbiamo avuto la possibilità di provare in anteprima.
Sentiamo quindi un breve esperienziale che abbiamo realizzato.
E quindi adesso siamo passati ai microfoni di Insta360 Wave che appunto è un prodotto pensato per il mondo professionale principalmente e che serve per registrare la voce degli interlocutori che sono al nostro fianco, noi compresi e poi anche quelli che sono da remoto tramite appunto una videochiamata e con noi che ha scritto il topic di oggi c'è Luca che ha provato
il prodotto e ci racconta un po' quelle che sono le principali funzionalità, bentornato.
Grazie Davide, ciao a tutti.
Innanzitutto stiamo testando il prodotto nella modalità "a forma 8" quindi se ci sono due speaker o uno di fronte all'altro, ci sono tante modalità...
Sì, quindi lui registra diciamo me e in questo caso Davide, però poi le altre modalità possono essere la modalità OMNI che invece riesce a registrare...
Tanti speaker.
Esatto.
Una stanza piena di persone attorno a un tavolo.
Se no ci sono le modalità cardioide o supercardioide che invece sono direzionate verso una singola persona.
C'è anche una modalità di riduzione del rumore che come anche abbiamo detto poi nel topic può essere utile perché migliora effettivamente la qualità audio e di conseguenza anche la trascrizione del vocale in testo.
La stanza in cui siamo è una stanza non trattata acusticamente, una stanza normalissima con dei rumori di fondo, anche se non stiamo testando la modalità per la cancellazione più aggressiva del suono, però da quello che abbiamo visto e mi confermerai anche tu Luca, permette questo dispositivo di avere un'intelligibilità dell'audio molto elevata, che è un aspetto
fondamentale per un prodotto di questo tipo.
Sì perché come hai ben citato ci sono diversi prodotti dai... banalmente software come Google Meet o Microsoft Teams che registrano con la qualità audio del PC o delle cuffie quindi non si ha un controllo su questo, prodotti invece che sono estremamente portatili che si possono tenere in tasca o nel portafoglio che sono utili però a discapito appunto di
una qualità dei microfoni, questo dispositivo cerca di prendere il meglio da tutti questi prodotti e di unirli in un prodotto fisico.
E lo rende anche autosufficiente, nel senso che è un dispositivo stand alone, non ha bisogno di uno smartphone collegato, di un pc collegato per funzionare, perché al termine della registrazione basta semplicemente premere un pulsante, viene generata una trascrizione e la trascrizione è accessibile tramite un QR code che viene mostrato sullo schermo,
perché questo dispositivo, questo microfono, questo insieme di microfoni ha anche uno schermo su cui si può... che lo rende appunto autonomo.
Paragonabile ad uno smartwatch che è autonomo, lui ha un display circolare che ha un suo sistema operativo interno e permette di avviare le registrazioni, connettere il dispositivo al wifi, cambiare le impostazioni e quindi questo lo rende indipendente da un dispositivo anche se poi con il collegamento tramite cavo bluetooth si riesce comunque a controllare
tramite pc però anche con un pc o con uno smartphone si riesce tranquillamente tramite browser ad accedere al proprio account dove vengono appunto salvate tutte le trascrizioni e le registrazioni.
Quindi non c'è la necessità di scaricare app che magari non sono disponibili per un determinato sistema operativo.
E poi l'altro aspetto interessante è che al suo interno c'è un'ottima cassa, uno speaker che ti permette appunto di sentire la voce, appunto dicevamo queste riunioni ibride in cui c'è un interlocutore in presenza e da remoto e quindi si riesce anche a sentire molto bene la voce delle persone che non sono in presente in quella stanza.
Sì perché nel momento in cui lui è connesso al pc comunque ti permette di fare sia da microfono del pc e quindi poter parlare e registrare l'audio verso la videochiamata ma anche sentire quello che gli altri hanno da dire durante la videochiamata.
E tra l'altro a proposito di questo, di videochiamate, di conferenze o di incontri, i casi d'uso di questo dispositivo qua che abbiamo individuato comunque sono principalmente incontri in presenza o anche da remoto però principalmente in un ambito professionale.
Faccio l'esempio del mio caso che è sviluppo software in cui ci si trova una volta a settimana o una volta ogni due settimane e ci si incontra per decidere come procedere determinati sviluppi, per elaborare delle idee e quindi un dispositivo come questo permette di raccogliere tutte le idee trascriverle, perché chiaramente ognuno poi dice la sua
e si fanno anche diverse discussioni, diversi ragionamenti e infine il riepilogo che viene generato tramite l'intelligenza artificiale permette di riorganizzare queste idee e di andare a recuperare magari ciò che è stato detto durante la riunione.
Questo vale sia in ambito professionale, ma anche un altro esempio che mi viene in mente è l'ambito delle associazioni dove durante i consigli di presidenza, i consigli del direttivo, vengono deliberate certe decisioni e c'è la necessità di creare poi un verbale della riunione che appunto riassuma ciò che è stato detto.
Anche questo è un caso d'uso in cui questo dispositivo può essere ampiamente utile.
Sì, tra l'altro davanti a me ho in questo momento una trascrizione che abbiamo fatto poco fa e appunto... più che trascrizione è una registrazione, quindi dal sito, dal QR code si può vedere... si può ascoltare l'audio ovviamente, si può leggere la trascrizione completa con la divisione degli speaker, ovviamente il sistema supporta la lingua italiana
e poi come dicevi, forse ancora più utile è proprio la sezione sommario dove ho la possibilità di vedere non il testo grezzo di quella che è stata una conversazione magari lunga, anche più di un'ora, ma diciamo i punti chiave ben strutturati e strutturati secondo alcuni criteri, c'è la possibilità di scegliere come questo sommario viene mostrato
e un'altra cosa molto interessante è che citavamo prima all'interno della puntata è proprio la possibilità di dare delle... come si chiamano, delle...
Glossario.
Glossario, ok, raccontaci questo aspetto.
Torno sull'esempio dell'uso in ambito lavorativo, dove molto spesso ogni azienda o comunque ogni settore professionale ha un vocabolario specifico, molto specifico.
Faccio l'esempio del caso medico in cui ci sono dei termini medici che non sono di uso comune.
Nello sviluppo software.
Nello sviluppo software, ma anche nell'ambito legale.
Quindi come dicevamo anche nella puntata i modelli di trascrizione sono molto precisi però bisogna in qualche modo anche aiutarli e fornirgli delle parole, dei glossari, dei vocabolari in questo caso che vanno ad integrarsi in quelli loro interni per appunto riconoscere meglio determinate parole che altrimenti magari verrebbero trascritte male o interpretate male.
E questo potrebbe potenzialmente avere un grande impatto su quello che è il senso generale di un discorso che è stato fatto, quindi comprometterne banalmente la qualità o proprio il significato stesso, quindi sono sicuramente molto importanti da integrare.
Poi un'ultima cosa che notavo anche sul riepilogo è che nel momento in cui lo genera lui va anche a citare effettivamente le frasi con la possibilità di avere un link che va esattamente nel timestamp preciso in cui è stata detta quella frase.
Ti cita la fonte, di fatto, nel sommario.
Va bene, Luca, grazie e intanto noi proseguiamo con le conclusioni.
Per concludere quindi, se fino a pochi anni fa sembrava impossibile raggiungere un tale livello di comprensione del linguaggio umano, l'avvento dei Large Language Model ha permesso di superare questi ostacoli, rendendo immediata e più naturale l'interazione e la conversazione con gli assistenti virtuali.
E grazie ai sistemi di trascrizione e ai modelli multimodali, non solo è possibile conversare in modo testuale, ma anche attraverso la propria voce, rendendo l'interazione ancora più tra virgolette "umana".
Ma come abbiamo visto, queste tecnologie possono fare molto di più, ed essere sfruttate anche e soprattutto in contesti professionali, per registrare, trascrivere e verbalizzare riunioni, per prendere appunti, tenere un diario personale, raccogliere ed elaborare idee.
E mentre l'intelligenza artificiale si occupa di riordinare incontri tra amici o colleghi e approfondire concetti e discussioni, a noi non rimane altro che dedicare il tempo a coltivare quella creatività che è e rimarrà quell'elemento distintivo che nessuna macchina potrà mai replicare del tutto.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia, io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio.
Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it seguiteci su Instagram a @dentrolatecnologia dove durante la settimana pubblichiamo notizie e approfondimenti.
In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social.
Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.