
In più di un’occasione abbiamo avuto modo di capire come l’intelligenza artificiale, applicata alla robotica industriale, potrebbe dare una spinta verso lo sviluppo dell’industria 4.0 e 5.0. Un esempio concreto di questa applicazione è RoBee, il primo robot umanoide cognitivo già operativo, sviluppato dalla società italiana Oversonic Robotics. Per parlare proprio di RoBee abbiamo inviato Lorenzo Sciuto, Head of Information Technology di Oversonic.
Nella sezione delle notizie parliamo della presentazione dei processori Snapdragon X Elite e M3 rispettivamente di Qualcomm e Apple e infine di Facebook e Instagram senza pubblicità in cambio di un abbonamento mensile.



Brani
• Ecstasy by Rabbit Theft
• Surrender by Josh Rubin
Sostanzialmente abbiamo fornito la parte conversazionale di una serie di filtri che ci consentono di controllare le risposte che il robot effettivamente fornisce e questo sostanzialmente ci permette anche di dotare di una certa personalità il robot.
Quindi le risposte che escono da robot cerchiamo di far sì che siano credibili e calzanti rispetto all'entità che le sta esponendo, quindi effettivamente un robot non una persona umana.
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi parleremo di RoBee, un robot umanoide già operativo in diverse industrie e in ambito medico e proveremo a capire quali sono le sfide tecnologiche che la società Oversonic ha dovuto affrontare per svilupparlo.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina, su Spotify, Apple Podcast, Google Podcast oppure direttamente sul nostro sito.
Qualcomm, il 25 ottobre, ha presentato il suo rivoluzionario processore Snapdragon X Elite, un chip ARM progettato specificamente per computer Windows, che promette prestazioni straordinarie. Le prestazioni del nuovo processore sono state infatti definite miracolose da Cristiano Amon, presidente e CEO di Qualcomm. Secondo le prime informazioni, il core Orion
del processore è così veloce che supera di gran lunga i concorrenti, inclusi i chip Intel e AMD. I benchmark mostrano che il processore è in grado di competere sia in termini di velocità single-core che multi-core con l'Apple M2 Max e persino il processore Intel Core i9-13980HX, consumando notevolmente meno energia. Nel frattempo, Apple, il 30 ottobre, ha annunciato
i nuovi processori Apple Silicon a 3nm, la famiglia M3, M3 Pro e M3 Max, con prestazioni migliori sia per CPU che GPU rispetto ai modelli M2. Questi chip saranno utilizzati nei nuovi MacBook Pro e iMac, e offriranno notevoli accelerazioni hardware per il Ray Tracing e il Mesh Shading, garantendo prestazioni eccezionali a parità di consumi. La gamma M3 include
anche un Neural Engine potenziato per il Machine Learning e promette prestazioni notevoli rispetto ai modelli precedenti con processore Intel.
Con l'obiettivo di adeguarsi alle nuove politiche europee, in particolare al GDPR e al Digital Market Act, Meta darà la possibilità ai propri utenti di pagare un abbonamento mensile per utilizzare le piattaforme social Instagram e Facebook, senza alcuna pubblicità.
Secondo quanto anticipato dal New York Times e dal Wall Street Journal, gli abbonamenti di Meta verranno introdotti in Europa nell'arco di questo mese al prezzo di 9,99€ al mese, acquistandolo da PC oppure 12,99€ al mese tramite app iOS o Android.
Inoltre per tutti coloro che decideranno di acquistare il nuovo servizio entro il 1° marzo 2024, vi sarà la possibilità di estendere gratuitamente l'abbonamento a tutti gli account collegati al centro di gestione, mentre successivamente si dovrà pagare un supplemento di 6€ al mese dal web oppure 8€ se acquistato direttamente in app.
Il nuovo servizio infine sarà disponibile solamente per gli utenti maggiorenni, tuttavia Meta ha comunque sottolineato che chi deciderà di non abbonarsi, continuerà a utilizzare Facebook e Instagram esattamente come ha fatto sino ad ora.
In più di un'occasione abbiamo avuto modo di capire come l'intelligenza artificiale, applicata alla robotica industriale, potrebbe dare una spinta verso lo sviluppo dell'industria 4.0 e 5.0.
Un esempio concreto di questa applicazione è RoBee, il primo robot umanoide cognitivo già operativo sviluppato dalla società italiana Oversonic Robotics.
E per parlare proprio di RoBee, siamo in compagnia di Lorenzo Sciuto, Head of Information Technology di Oversonic.
Benvenuto, Lorenzo.
Grazie mille.
Grazie.
Innanzitutto raccontaci di che cosa vi occupate in Oversonic, che cos'è RoBee? E cosa si intende quando si parla sia di robot umanoide sia di robot cognitivo?
Allora, Oversonic è una società benefit italiana, nata come startup nel 2020 da un'idea di Fabio Puglia e di Paolo Denti.
L'idea è quella di creare soluzioni e applicazioni innovative nel mondo dell'industria e della sanità.
L'obiettivo è di mettere sostanzialmente a disposizione delle imprese sistemi tecnologici in grado di sfruttare le potenzialità dell'intelligenza artificiale cognitiva.
Quindi di supportare le persone in cui lavori usuranti, pericolosi, sia per la salute fisica che per la salute psicologica, che non meritano più di fare.
Ad oggi, come azienda, conta circa 60 dipendenti, 3 sedi operative, un headquarter a Besana in Brianza, in Lombardia, altri due uffici in Milano e uno a Rovereto in provincia di Trento.
Come prodotto di Oversonic, il prodotto della ricerca di questi anni, abbiamo sviluppato RoBee, che è il primo robot umanoide cognitivo, che pesa circa 120 kg e con altezza variabile tra i 150 e i 200 cm.
Operativamente replica la struttura meccanica del corpo umano e ha un set completo di motore e di sensori che gli consentono di vedere, di navigare, di interagire in autonomia nello spazio circostante, di manipolare oggetti o di raccogliere e analizzare dati e di essere controllato da remoto e anche per mezzo di un voicebot, quindi con controllo vocale.
Ha un'autonomia di circa 8 ore e un tempo di ricarica di circa 90 minuti.
Ok e quindi questo è l'aspetto appunto robot umanoide invece per robot cognitivo significa che è un robot che riesce a interagire con il personale umano all'interno di un'industria giusto?
Certo, l'idea di robot cognitivo è fornire al robot la capacità di prendere decisioni autonomamente e quindi un robot cognitivo non è semplicemente un macchinario che esegue un programma predefinito ma piuttosto è una macchina in grado di comunicare in maniera naturale, quindi vocalmente e di imparare man mano che svolge le operazioni, quindi migliorare di volta in volta
e di adattarsi soprattutto all'ambiente in cui lavora.
Così anche da evolvere, da migliorare le sue capacità e di interagire in maniera più naturale con le persone che lo circondano.
Ok, passando all'aspetto materiale e fisico di questo robot, come lo avete costruito? Perché oggi si parla spesso di robot umanoidi, ci sono tantissimi prototipi, però pochi effettivamente diventano, sono vendibili, si trovano appunto in commercio in ambito industriale.
Come avete fatto a costruire questo robot?
Il nostro è già in produzione. A livello hardware - facciamo una piccola panoramica - è composto da una serie di motori elettrici sviluppati e progettati da Oversonic.
Il corpo del robot è realizzato principalmente da parti metalliche e parti in stampa 3D.
Tendenzialmente tutto l'hardware sfrutta le ultime tecnologie che ci sono sul mercato.
Il sistema di visione è basato su camere di profondità che rilevano immagini 3D e danno al robot la capacità di ricostruire e percepire il mondo che lo circonda.
Poi è dotato di un microfono e di casse che permettono al robot di interagire vocalmente e quindi di poter sia ricevere comandi vocali ma anche di poter sostenere una conversazione di carattere generale con il robot.
Sul petto ha un display che permette di visualizzare informazioni in tempo reale oppure di controllare, tramite interfaccia touch, in caso fosse necessario, tutte le funzionalità del robot e poi è dotato di due braccia che alla loro estremità hanno due end effector intercambiabili a seconda dell'applicazione specifica.
Questo consente al robot di adattarsi a qualsiasi tipo di attività sia in ambito industriale che eventualmente per interazione con l'uomo.
Difatti oltre a più classici gripper industriali che si possono trovare montati sui bracci industriali RoBee monta anche delle mani umanoide cinque dita.
Inoltre ha una console di controllo remoto che permette di tenere monitorato tutta la flotta in tempo reale ed ha la possibilità di effettuare l'analisi anche dello stato di salute del robot e della loro singola operatività.
Ok, ma all'interno dell'azienda si muove oppure ha un punto fisso?
No, all'interno dell'azienda lui opera in autonomia, una delle caratteristiche di RoBee è proprio la navigazione autonoma, sostanzialmente lui è in grado di andare da un punto all'altro della struttura e di eseguire dei compiti per cui è stato pre-trainato, pre-allenato.
Quindi ha anche delle gambe?
Non ha delle gambe ma si muove su ruote, abbiamo fatto la scelta di fornirlo di ruote per semplicità di utilizzo perché le gambe consumano molto in termini appunto di elettricità, di corrente e di batteria e soprattutto sono molto più instabili, invece con le ruote è più lente, con le ruote c'è la possibilità invece di muoversi molto più semplicemente, soprattutto
in ambito industriale e con un consumo minore di batteria.
Ok, e perché avete scelto di realizzare un robot umanoide? Oggi vediamo nell'industria appunto l'utilizzo di robot molto specifici, nel senso che sono dei bracci robotici che fanno un'attività in modo ripetitivo, perché invece avete pensato di creare un robot che ha sembianze umane?
Allora, diciamo, abbiamo una serie di motivi per questa scelta, innanzitutto i robot umanoidi sono più versatili dei robot tradizionali, possono quindi essere utilizzati per svolgere una varietà di compiti che possono andare dall'assemblaggio, alla manutenzione di macchinari complessi, all'assistenza ad anziani o a riabilitazione neurologica, per esempio,
che sono alcune delle applicazioni che abbiamo in questo momento.
Sicuramente è più semplice che un robot dalle sembianze umane si possa adattare agli spazi che sono stati già progettati e costruiti per essere utilizzati da un uomo.
In secondo luogo, i robot umanoidi sono più facilmente accettati da un essere umano rispetto a un macchinario fermo, fisicamente fermo, con il quale non è possibile interagire vocalmente.
Dare un comando a un braccio robotico è molto più piatto, più ripetitivo, è meno naturale che non interagire con una macchina d'assembianza umana che ha la possibilità di ascoltarti, di darti una risposta.
Ok quindi sono comunque dei robot che si vanno ad aggiungere all'ecosistema di un'azienda però non vanno a sostituire i robot tradizionali che sono presenti nel suo interno.
Esatto, hanno una funzionalità diversa, vanno ad aiutare l'uomo in tutte quelle occasioni in cui un robot tradizionale faticherebbe, primo perché appunto tipicamente non hanno la possibilità di muoversi negli spazi come dicevamo prima, secondo perché appunto spesso gli ambienti in cui dovrebbero essere installati, per esempio dovrebbero avere degli spazi
ristretti, delle gabbie, quando invece i robini non hanno queste necessità, quindi è possibile portarlo esattamente dove l'uomo attualmente lavora.
Passiamo adesso all'aspetto cognitivo anche perché oltre appunto ad essere l’head of information technology di Oversonics è anche responsabile della piattaforma cognitiva di Oversonics e quindi cosa permette a RoBee di pensare avete realizzato voi una vostra intelligenza artificiale come funziona?
Allora, l'intelligenza di RoBee è distribuita per metà a bordo del robot e per metà su cloud.
A bordo del robot ha due PC ad alte prestazioni che consentono al robot di prendere decisioni rapide e di gestire quello che riguarda la sicurezza delle persone che lo circondano.
In cloud invece avviene l'elaborazione di immagini e di suoni in tempo reale.
Grazie al cloud sostanzialmente l'intelligenza di RoBee non ha confini, di fatto i robot sfrutta diverse reti orali che sono sempre in aumento in base alle funzionalità di cui vogliamo fornire il robot che processano sostanzialmente immagini o suoni in tempo reale e gli consentono di apprendere, di aumentare la sua conoscenza.
Quindi potrebbe essere per esempio istruito per analizzare il mondo che lo circonda a compiere determinate operazioni, al verificarsi determinati eventi oppure può riconoscere volti o persone che potrebbero quindi intrattenere con loro una conversazione che abbiano una memoria.
Quindi per esempio se il robot vede che sta parlando con me oggi e io domani torno davanti al robot può continuare una conversazione come se davvero mi conoscesse.
Ho capito, però è un'intelligenza artificiale che avete sviluppato voi?
Allora, inizialmente per quanto riguarda l'intelligenza artificiale nel complesso sì, per quanto riguarda la parte conversazionale inizialmente abbiamo fatto la scelta di utilizzare come linguaggio di modello che sta dietro alle conversazioni di RoBee un fine tuning dei modelli di OpenAI.
Abbiamo scelto inizialmente OpenAI perché è il primo player e il più grosso che si è fatto vedere sul mercato all'inizio, però tutti i giorni lavoriamo per migliorare e rendere più corrette le risposte che il robot dà e renderlo anche, tra virgolette, “agnostico” rispetto alla piattaforma di intelligenza artificiale che gli sta dietro.
Quindi stiamo sviluppando, testando tutti i giorni ciò che il mercato molto vivace che c'è, soprattutto in questo ultimo anno, ci propone.
Ok, l'approccio cognitivo di cui parli sicuramente serve da una parte come abbiamo detto per intrattenere i dipendenti ma dall'altro lato ha una grande funzionalità, uno scopo molto importante che è quello di poter semplificare l'interazione tra il dipendente e il robot e ci fai qualche esempio di come questo può essere utilizzato nell'ambito lavorativo, cioè cosa posso dire al robot di fare?
L'ambito lavorativo, quando lo inseriamo all'interno di un'azienda, abbiamo un processo specifico.
Quando viene fatto l'allineamento iniziale, il robot viene portato in azienda, viene fatto un training sugli oggetti che dovrà manipolare e viene anche fatto navigare per formare una mappa dello spazio che ha attorno.
Sostanzialmente poi su questa mappa noi daremo il target che lui deve raggiungere l'autonomia.
Quindi una delle cose che si può chiedere al robot è raggiungere postazioni specifiche all'interno di una mappa precaricata.
Una volta raggiunte queste postazioni, il robot è libero, è stato trainato per manipolare oggetti, quindi posso dire preleva quest'oggetto e portalo in quest'altra postazione.
Posso chiedere al robot di verificare la sicurezza dell'area di lavoro, quindi che non vi siano pericoli per le persone umane.
Posso anche chiedere al robot di verificare che non ci siano… parlando in ambito industriale, questo tipo di domande che possiamo fare a RoBee, in ambito sanitario posso chiedere al robot di assistere un operatore durante una riabilitazione neurologica, per esempio stiamo sviluppando dei test in questo senso,
o assistere un anziano all'interno di una RSA con compiti di base, quindi portare le pillole, dare una parola di conforto, dare un momento di conversazione all'anziano che si trova all'interno.
Quando parliamo di intelligenza artificiale, un concetto che a volte emerge è quello delle allucinazioni, cioè degli errori di fatto che un'intelligenza artificiale compie nel interpretare un eventuale comando.
Come si fa a evitare che avvengano queste allucinazioni in un caso come il vostro in cui un robot umanoide deve svolgere delle operazioni, dei comandi, delle azioni all'interno di un di uno spazio reale e soprattutto in ambienti industriali e ancora di più in un ambiente sanitario?
Allora, diciamo, noi lavoriamo ovviamente perché questo non accada e sostanzialmente abbiamo fornito la parte conversazionale di una serie di filtri che ci consentono di controllare le risposte che il robot effettivamente fornisce e questo sostanzialmente ci permette anche di dotare di una certa personalità il robot
e quindi le risposte che escono dal robot cerchiamo di far sì che siano credibili e calzanti rispetto all'entità che le sta esponendo quindi effettivamente un robot non è una persona umana, per fare un esempio quindi se noi chiedessimo a RoBee se gli piace la pizza lui potrebbe rispondere che la pizza è un ottimo alimento apprezzato dagli umani ma che lui in quanto robot non ha la capacità di gustarne una
e quindi non saprebbe dare un parere al riguardo, in questo senso quindi diciamo il fine-tuning del modello di linguaggio è qualcosa che facciamo quotidianamente e che viene fatto sfruttando proprio le conversazioni che RoBee ha tutti i giorni nel mondo che lo circonda e questo ci permette di avere delle risposte sempre più verticali, sempre più calzanti rispetto al mondo RoBee e non generaliste
e la problematica diciamo delle allucinazioni è molto più frequente quando si cerca di avere un modello di linguaggio generalista come per esempio potrebbe essere ChatGPT.
Troppo ampio.
Esatto, che risponde sostanzialmente a tutto e invece noi dando una personalità, un ambito di conoscenza al robot limitiamo questo tipo di problema.
Un ultimo aspetto molto interessante legato ai robot umanoidi è quello dell'uncanny valley secondo cui dei robot troppo realistici generano una sorta di repulsione nell'uomo.
Essendo il vostro robot già operativo in diverse aziende, com'è il rapporto tra RoBee e i colleghi umani? C'è una certa repulsione, una paura verso il robot o al contrario le due parti riescono a collaborare senza grossi problemi?
Allora, ad oggi i colleghi umani che hanno avuto a che fare con i robot in ambito industriale hanno apprezzato in realtà la capacità del robot di svolgere compiti pericolosi o ripetitivi al posto loro, per cui l'introduzione non è stata complessa.
All'inizio chiaramente c'è un minimo di diffidenza per il fatto che il mondo della robotica, soprattutto umanoide, è tra virgolette “vittima” del mondo del cinema, che ci fa vedere sempre i robot come degli sterminatori dell'umanità.
Però una volta vista invece che la possibilità di conversare con robot e di poter impartire comandi anche appunto vocalmente e soprattutto l'operatività toglie appunto compiti ripetitivi o pericolosi al loro lavoro, allora viene sostanzialmente accettato.
Dal punto di vista estetico, per evitare che si ricadesse nell'uncanny valley, la scelta che è stata fatta è stata quella di non dotare i robot, per esempio, di un volto troppo umanoide, quindi per esempio ci sono alcuni robot che sfruttano volti tipicamente animatronici, quindi con capelli, con pelle artificiale.
Noi abbiamo fatto una scelta opposta rispetto a questa, per evitare che venga percepito troppo come un umano artificiale, piuttosto preferiamo che venga percepito come una macchina che possa effettivamente aiutare l'uomo nelle operazioni di tutti i giorni.
Ok e lo stesso vale anche nell'ambito sanitario, cioè i pazienti come hanno visto RoBee?
E' uguale, l'approccio è stato abbastanza simile, lì sostanzialmente il primo livello di diffidenza da superare è forse quello degli operatori, che invece hanno appunto da capire che sostanzialmente è un aiuto al loro lavoro, di fatto una volta che poi viene percepito, sia dal punto di vista del paziente che dal punto di vista
dell'operatore, viene rilevato come uno strumento utile agli obiettivi comuni sostanzialmente.
Ok, per quanto riguarda invece le prospettive future, quali sono gli aspetti di RoBee che state migliorando? Sia dal punto di vista, parlavi dell'aspetto appunto software cognitivo, ma anche dal punto di vista hardware, pensate a degli upgrade?
Beh, diciamo, l'azienda è un'azienda giovane, quindi noi corriamo sotto tutti i punti di vista, sia dal punto di vista software che dal punto di vista hardware.
L'obiettivo, diciamo, dal punto di vista software è rendere la conversazione quanto più naturale e veloce possibile, perché uno dei problemi che abbiamo sono le latenze.
Sostanzialmente il robot, lavorando in cloud, ha bisogno anche di una buona connessione Internet, quindi la conversazione può subire un minimo la latenza di comunicazione, quindi, diciamo, il massimo lavoro che stiamo facendo in questo momento è riuscire a rendere queste latenze minime e rendere il robot quanto più naturale possibile.
Dal punto di vista hardware, chiaramente andiamo avanti sempre su ricerca e miglioramento delle capacità motori del robot, quindi è un miglioramento del sistema di motori che, come dicevo, è sviluppato internamente in casa.
E poi, anche dal punto di vista della visione, cerchiamo sempre di trovare delle soluzioni, delle telecamere sempre più adatte alle varie applicazioni, alle varie potenzialità del robot.
Va bene. Allora grazie Lorenzo per averci parlato così nello specifico di robot umanoidi e quindi di RoBee. A presto.
Grazie mille a voi e a presto.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia. Io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio. Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it, seguiteci su Instagram a @dentrolatecnologia
dove durante la settimana pubblichiamo notizie e approfondimenti. In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social. Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.



