
Come gran parte delle invenzioni, soprattutto tecnologiche, Internet è uno strumento neutro al servizio di cittadini e aziende e come tale c'è chi lo usa per scopi nobili e chi, al contrario, lo utilizza per danneggiare il prossimo. In questa puntata parliamo del delicato tema dei contenuti illegali sul web e di come la tecnologia può essere utilizzata, da una parte per danneggiare persone, bambini, o cose, ma dall'altra può essere sfruttata anche per contrastare questi comportamenti e la diffusione di certi contenuti, attraverso sistemi di moderazione automatica, NFT e soprattutto grazie ad algoritmi di intelligenza artificiale.
Nella sezione delle notizie parliamo di Top Thrill 2 le montagne russe da record realizzate da Zamperla a Cedar Point, della nuova tuta per le attività extraveicolari (EVA) di SpaceX e infine di un possibile ban di TikTok anche in UE.




Immagini
• Foto copertina: pvproductions su Freepik
Brani
• Ecstasy by Rabbit Theft
• Jnathyn by Dioma
Salve a tutti, siete all'ascolto di INSiDER - Dentro la Tecnologia, un podcast di Digital People e io sono il vostro host, Davide Fasoli.
Oggi parleremo di contenuti illegali sul web, tra diritto d'autore e materiale pedopornografico, e valuteremo se la tecnologia possa rappresentare la linea di difesa necessaria per contrastare questa problematica.
Prima di passare alle notizie che più ci hanno colpito questa settimana, vi ricordo che potete seguirci su Instagram a @dentrolatecnologia, iscrivervi alla newsletter e ascoltare un nuovo episodio ogni sabato mattina su Spotify, Apple Podcasts, YouTube Music oppure direttamente sul nostro sito.
Il parco divertimenti Cedar Point in Ohio, negli Stati Uniti, è stata inaugurata la montagna russa più alta e veloce al mondo, realizzata tra l'altro dall'azienda italiana Zamperla, che abbiamo avuto il piacere di intervistare lo scorso anno.
La nuova attrazione si chiama Top Thrill 2 ed è anche il primo treno di Zamperla appartenente ai Lightning Roller Coaster, ovvero una nuova categoria di montagne russe tecnologicamente più avanzate e con momenti di essenza di peso ancora più lunghi ed emozionanti.
Top Thrill 2 è costituita essenzialmente da tre lanci, ognuno dei quali è caratterizzato da una discesa sempre più veloce, partendo da una prima caduta libera a 119 km all'ora e arrivando all'ultima da record di 193 km orari.
Nonostante l'alta velocità, l'ultimo airtime, con assenza di peso, è caratterizzato da una durata più lunga della media, e questa caratteristica è dovuta essenzialmente all'altezza dell'ultimo picco verticale, che raggiunge una quota record di ben 128 metri.
SpaceX ha presentato la sua tuta per le Extravehicular Activities, attività extra veicolari nello spazio o EVA, che verrà utilizzata per la prima volta nella missione “Polaris Dawn” in programma per il 2024.
Questa tuta rappresenta un passo in avanti rispetto alla precedente tuta per le attività intra veicolari di SpaceX, garantendo sicurezza e mobilità agli astronauti nello spazio.
Caratterizzata da materiali innovativi e processi di fabbricazione avanzati, la tuta offre maggior flessibilità all'interno del veicolo spaziale, e al contempo maggior confort durante le attività all'esterno.
Il casco, stampato in 3D con visiera antiriverbero e una telecamera, fornirà informazioni vitali sull'ambiente esterno sia agli astronauti che agli spettatori a terra.
Le attuali tute per le passeggiate spaziali sono note per essere molto scomode e poco flessibili.
E questo progetto non solo aumenterà la libertà di movimento degli astronauti, ma aprirà la strada a missioni di lunga durata verso la Luna e Marte, rendendo lo spazio più accessibile per l'umanità.
Dall'Unione Europea arriva una notizia che riguarda TikTok, che come avevamo annunciato nelle notizie di qualche settimana fa rischia il bando negli Stati Uniti, a meno che la società ByteDance, proprietaria del social, non venda la piattaforma a un'azienda americana.
In Europa, dunque, è probabile che avvenga la stessa cosa, come ha chiarito la presidente della Commissione Europea Ursula von der Leyen.
Ricordiamo infatti che TikTok è già stato vietato per i dipendenti della Commissione, mentre la nuova piattaforma TikTok Lite è sotto stretta osservazione per paura che la funzionalità Task and Reward Lite crea indipendenza negli utenti.
Tuttavia, va precisato che la presidente von der Leyen ha fatto questa dichiarazione durante la sua campagna elettorale, quindi non investe di presidente della Commissione.
È però chiaro che l'Unione Europea seguirà le azioni statunitensi, o comunque cercherà di attuare politiche volte a contrastare la rapida crescita di TikTok, dove il fine ultimo sarebbe quello di salvaguardare la privacy dei cittadini europei.
Internet, lo sappiamo e lo abbiamo ribadito più volte, è stata un'invenzione che ha radicalmente cambiato la nostra società, tanto che si parla di una vera e propria rivoluzione al parere di quell'industriale.
Si può, addirittura, parlare di un'era pre e post internet, in cui il modo di vivere e di interagire con le altre persone e con la propria quotidianità è completamente differente.
Come gran parte delle invenzioni, soprattutto tecnologiche, però, anche internet è un semplice strumento al servizio di cittadini e aziende, e come tale c'è chi lo usa per scopi nobili o neutri e chi, al contrario, lo utilizza per danneggiare il prossimo.
E in questa bontà andremo proprio a parlare di questo secondo aspetto, concentrandoci sul delicato tema dei contenuti pedopornografici e su quello del diritto d'autore.
Questioni che apparentemente sono tra loro disconnesse, ma che in realtà sono accumunate dalle tecnologie per contrastare la condivisione, ovviamente illegale, sia di contenuti pedopornografici che di materiale protetto, appunto, dal diritto d'autore.
Se infatti prima di internet comunque esistevano e venivano condivisi questo tipo di contenuti, in un mondo interamente connesso la diffusione di materiale pedopornografico, o in generale di contenuti illegali, è cresciuta esponenzialmente, rappresentando dei serissimi pericoli che vanno assolutamente contrastati.
Ecco quindi che da una parte la tecnologia viene utilizzata a fini illegali, per danneggiare persone, bambini o cose, ma dall'altra può essere sfruttata anche per contrastare questi comportamenti e la diffusione di certi contenuti attraverso sistemi di moderazione automatica e soprattutto grazie ad algoritmi di intelligenza artificiale.
Nel corso della puntata di oggi dunque andremo a vedere qual è la portata di questo pericolo, i vari modi in cui si può e in cui già oggi viene contrastato, ma anche dei possibili rischi che alcune delle soluzioni proposte portano con sé, per quanto riguarda il tema della privacy degli utenti.
Partiamo dal tema del diritto d'autore, che tra i due è quello che ha, se vogliamo, meno implicazioni etiche e il cui contrasto, nel bene o nel male, è meno stringente rispetto ai contenuti pedopornografici.
Questo è anche dovuto al fatto che proteggere il diritto d'autore su internet è difficilissimo se non impossibile.
Per sua natura, infatti, ognuno può scaricare, pubblicare e condividere qualsiasi tipologia di contenuti e non esistono sufficienti controlli su eventuali violazioni di qualsiasi genere.
Tant'è che questa possibilità è stata ampiamente sfruttata, ad esempio negli ultimi anni, per addestrare le IA generative come ChatGPT, che vengono usate ogni giorno e che proprio per questo sono state attaccate da artisti e giornalisti che hanno visto violati i propri diritti.
E vista l'impossibilità di avere degli automatismi generici funzionanti, quindi, la protezione dei propri contenuti è spesso affidata agli autori stessi, o ad agenzie che lavorano al loro posto, per scandagliare il web alla ricerca - anche con sistemi automatizzati più specifici - le eventuali violazioni.
Nel caso dei social media, ad esempio, da molti anni esiste la possibilità di segnalare alle piattaforme i post e chiederne la rimozione, e lo stesso vale per i motori di ricerca come Google o Bing.
Casi in cui il sistema invece è totalmente automatizzato e funziona molto bene sono veramente pochi, e uno di questi è YouTube.
Nel momento in cui viene caricato un video sulla piattaforma, infatti, questo viene analizzato e confrontato con una banca dati costantemente aggiornata di contenuti protetti da diritto d'autore, principalmente musiche.
Nel caso, quindi, in cui il sistema riconosca una violazione, questa viene segnalata e il video viene rimosso o limitato, ad esempio non consentendone la monetizzazione.
Non a caso, specialmente negli ultimi anni, dove il lavoro dello YouTuber è ormai, tra virgolette “sdoganato” vediamo sempre più contenuti originali e dove il diritto d'autore è finalmente tutelato a beneficio di tutti.
Per quanto riguarda i motori di ricerca come Google o Bing, invece, oltre alla possibilità di cui parlavamo prima, esiste anche in questo caso un controllo che cerca di nascondere contenuti duplicati o protetti.
Tuttavia, più di tanto, non è possibile fare, essendo comunque internet un posto libero.
Un possibile aiuto in questo caso potrebbe venire dagli NFT, che avevamo approfondito in una scorsa puntata.
Grazie alla tecnologia della blockchain, infatti, sarebbe possibile creare una banca dati universale distribuita di contenuti protetti da diritto d'autore.
A quel punto non sarebbe più necessario che singole piattaforme come YouTube mantengano internamente delle proprie banche dati, ma ne esisterebbe solo una, o comunque un numero limitato, accessibili pubblicamente e sfruttabili anche da altre piattaforme come motori di ricerca, social network o hosting provider.
Ma questa è solo una nostra idea che potrebbe essere implementata o meno in futuro, anche in base agli sviluppi che avranno gli NFT sia dal punto di vista tecnologico che da quello normativo.
Un'altra proposta che in questo caso è stata invece autorizzata, di cui abbiamo parlato in diverse notizie, e che è stata ampiamente criticata è il sistema italiano Piracy Shield.
Anche in questo caso non esistono degli automatismi, bensì un sistema di ticket che devono essere aperti segnalando siti di streaming che trasmettono contenuti illegalmente.
A quel punto i vari internet service provider hanno pochi minuti per bloccare gli indirizzi IP segnalati, rendendoli quindi inaccessibili agli utenti.
Questo ovviamente porta con sé diverse implicazioni rischi che negli ultimi mesi sono emersi.
In primo luogo molto spesso gli indirizzi IP che vengono segnalati sono di proprietà di servizi come Cloudflare o Google, di conseguenza sullo stesso indirizzo vengono esposti più siti web, anche scorrellati tra loro.
E non a caso proprio Cloudflare si è scagliata contro il sistema di Piracy Shield, in quanto centinaia di siti web legittimi sono per alcune ore risultati inaccessibili in Italia, rappresentando un danno in molti casi anche economico a diverse aziende o cittadini. Per non parlare infine dei problemi che potrebbe causare un attacco hacker al portale di Piracy Shield, che potrebbe creare decine di ticket e bloccare internet in tutta Italia.
Riassumendo quindi quello del diritto d'autore è un diritto che su internet non è sempre facile da garantire, e molto spesso sta agli stessi proprietari dei diritti, cercare anche attraverso gli strumenti che la tecnologia mette a disposizione di contrastare la diffusione illegale dei propri contenuti e in un certo senso autodifendersi dal mondo del web.
Una situazione ben diversa invece è quella dei contenuti pedopornografici, o CSAM, acronimo di Child Sexual Abuse Material. Seppur la casistica sia molto simile alla precedente, ossia alla diffusione di contenuti illegali, in questo scenario la lotta contro i CSAM è molto più dura e portata avanti non solo da istituzioni come l'Unione Europea, ma anche volontariamente dalle singole aziende.
A subire le conseguenze dei CSAM, infatti, sono principalmente i bambini, che non riescono a tutelarsi autonomamente e che possono subire forti traumi psicologici che si porteranno dietro per il resto della loro vita.
Nel 2021, secondo i dati forniti dalla Commissione Europea, sono state 85 milioni le segnalazioni di foto o video di questo tipo.
Un numero che negli anni è in costante crescita, proprio a causa degli strumenti vecchi o nuovi che internet mette a disposizione, dal dark web alle app di messaggistica o storage privati e crittografati alle reti peer-to-peer.
Una situazione come possiamo comprendere alquanto drammatica.
Cosa è possibile fare dunque per contrastare questo fenomeno? Come per il diritto d'autore, anche in questo caso è molto difficile riuscire a intercettare questi contenuti, in quanto molto spesso vengono condivisi privatamente e in modo sicuro, e dunque difficilmente sono presenti pubblicamente sul web, ad esempio nei motori di ricerca.
Anche perché se nel caso del diritto d'autore riuscire a capire in modo automatico se un contenuto è protetto o meno non è così semplice, con i contenuti pedopornografici l'intelligenza artificiale è uno strumento potentissimo e alquanto utile per riconoscere immediatamente se la foto o il video è un CSAM, riuscendo a rimuoverlo in tempi brevissimi.
Inoltre, un altro strumento contro questi contenuti è il PhotoDNA, un sistema di riconoscimento di immagini sviluppato da Microsoft nel 2009, così come NeuralHash di Apple.
Il funzionamento di entrambi è pressoché identico ed è concettualmente molto semplice.
All'immagine viene associata una firma digitale creata dall'immagine stessa, usando delle tecniche di hash, di cui abbiamo parlato diverse volte.
In questo modo, quando un'app o una piattaforma riceve l'immagine può calcolare la firma e vedere se questa appartiene a un database di firme legate a foto segnalate, in questo caso come materiale illegale.
Un sistema quindi molto più sicuro rispetto all'uso di algoritmi di IA, ma prevede che la fotografia sia già stata segnalata e di fatto sia già ampiamente diffusa sul web.
Con l'avanzare delle nuove tecnologie, però, da una parte aumentano gli strumenti che abbiamo a disposizione per contrastare i comportamenti illegali, ma dall'altra quegli stessi strumenti possono essere utilizzati per trovare delle scappatoie, dei sistemi per aggirare i controlli.
Stiamo parlando di un particolar modo degli “adversarial attacks” tema che magari approfondiremo meglio in futuro.
In breve, gli adversarial attacks sono in questo caso immagini che vengono leggermente modificate, ad esempio aggiungendo un disturbo o dei filtri, in modo da non essere riconosciute dai sistemi di intelligenza artificiale o di PhotoDNA.
Ad esempio, può essere sufficiente cambiare il colore della pelle per fare in modo che l'IA non riconosca più il soggetto come un essere umano, ma si può arrivare, in casi molto particolari, a modificare l'immagine anche solo di un pixel per eludere i controlli e riuscire a diffondere senza ostacoli il materiale pornografico.
Contrastare questo fenomeno quindi non è affatto semplice, e ci sono diverse implicazioni etiche da considerare nelle soluzioni che con il tempo sono state proposte.
Apple, ad esempio, voleva integrare una IA nei suoi servizi iMessage e iCloud che controllasse le foto presenti sui dispositivi alla ricerca di materiale pedopornografico.
Allo stesso modo, anche l'Unione Europea ha una proposta di legge che riguarda l'implementazione di un sistema molto simile a quello di Apple.
Questo sistema, chiamato comunemente Chat Control o Chat Control 2.0, prevederebbe l'obbligo per le applicazioni di messaggistica di controllare e segnalare attraverso sistemi di IA i messaggi, le foto, i video e gli altri contenuti scambiati.
Il tutto direttamente sul dispositivo dell'utente, eludendo così qualsiasi forma di crittografia end-to-end.
Inutile dire che, da una parte, Apple ha praticamente subito fatto marcia indietro sulla sua proposta, mentre l'Unione Europea prevederà la discussione nel corso di questo 2024, con la speranza che il progetto venga del tutto abbandonato.
Nonostante le buone intenzioni che ci sono dietro, infatti, un controllo così radicato e indiscriminato violerebbe qualsiasi principio di privacy, di cui proprio l'Unione Europea cerca di essere la portavoce a livello internazionale.
E le conseguenze potrebbero essere disastrose, pensiamo ad esempio ai cosiddetti falsi positivi, che punterebbero i riflettori su cittadini che vengono segnalati per immagini contrasegnate come materiale pedopornografico per un errore dell'IA, ma che in realtà non lo è.
O la possibilità di estendere questo controllo anche ad altre categorie di materiali, come appunto contenuti protetti da diritto d'autore, ma anche messaggi legati a violenza o bullismo.
Uno scopo nobile, sì, la protezione dei cittadini, ma che si trasformerebbe ben presto in uno scenario dei più distopici.
Per concludere, quindi, la questione dei contenuti illegali online è ancora oggi una partita aperta.
Gli strumenti che abbiamo a disposizione sono sempre più potenti, ed è grazie a loro se sta iniziando veramente a fare qualcosa per contrastare in modo efficiente la diffusione di questi contenuti.
Tuttavia, non bisogna dimenticare che quello della privacy è un diritto inalienabile dell'uomo, e in nessun modo dovrà essere messo in discussione.
Il percorso per trovare un sistema veramente efficace contro i contenuti illegali è quindi ancora lungo, e al momento l'unica cosa che possiamo fare è renderci parte attiva di questi controlli, segnalando alle piattaforme o alle autorità eventuali diffusioni di materiale pedopornografico o contenuti illegali, e salvaguardare così le vite di centinaia di persone e famiglie.
E così si conclude questa puntata di INSiDER - Dentro la Tecnologia.
Io ringrazio come sempre la redazione e in special modo Matteo Gallo e Luca Martinelli che ogni sabato mattina ci permettono di pubblicare un nuovo episodio.
Per qualsiasi tipo di domanda o suggerimento scriveteci a redazione@dentrolatecnologia.it, seguiteci su Instagram a @dentrolatecnologia dove durante la settimana pubblichiamo notizie e approfondimenti.
In qualsiasi caso nella descrizione della puntata troverete tutti i nostri social.
Se trovate interessante il podcast condividetelo che per noi è un ottimo modo per crescere e non dimenticate di farci pubblicità.
Noi ci sentiamo la settimana prossima.