Seguici su

Economia digitale

Privacy digitale: sappiamo davvero quali sono i rischi e i nostri diritti?

di Diego Dimalta, Co-Founder BSD Legal e Privacy Network

Avatar

Pubblicato

il

Diego Dimalta co-fondatore Privacy Network (© Ufficio Stampa)
Diego Dimalta co-fondatore Privacy Network (© Ufficio Stampa)

Città controllate da telecamere a ogni angolo, elettrodomestici che ci ascoltano, social network che utilizzano e vendono i nostri dati. La serie TV Black Mirror ha raccontato questi scenari e tanti altri che ci sembravano frutto della fantasia di bravissimi sceneggiatori. E invece non è fantascienza, ma realtà. Quando siamo online siamo esposti a tanti rischi.

I nuovi livelli di esposizione a cui ci stanno portando l’intelligenza artificiale, la sorveglianza pubblica e privata, i social, il cybercrime vanno esplorati, capiti e presidiati. Non si deve creare allarmismo, ma piuttosto diffondere consapevolezza. Quando ci mettiamo in auto, sappiamo a cosa dobbiamo prestare attenzione, così come quando andiamo in montagna o decidiamo di fare uno sport estremo. Ecco, anche quando “andiamo” online, dobbiamo avere la stessa attenzione e chiederci quali sono i pericoli che corriamo. Forse qualcosa si sta muovendo. Si pensi al tema dello sharenting – l’eccessiva esposizione dei minori e dei piccolissimi sugli account di genitori spinti da orgoglio, narcisismo o semplice ingenuità – che oggi viene affrontato, fortunatamente, in modo più critico. Anche Federica Pellegrini, solo pochi giorni fa, ha parlato di questo tema, dichiarando che non intende condividere foto del suo futuro figlio. Questi però sono temi che vanno gestiti con consapevolezza e profondità, e non solo a seguito di casi di cronaca o di qualche dichiarazione (consapevole e corretta) di personaggi famosi.

Associamo spesso l’essere esposti a un’idea di pericolo e vulnerabilità, pur sapendo che esiste sempre per questa parola una doppia lettura. Il trattamento dei nostri dati online ha infatti portato e porterà ancora molti vantaggi (vedi la facilità di raggiungere contatti e di intrattenere conversazioni potenzialmente illimitate) e anche sviluppo economico e tecnologico, ma esistono anche alcuni pericoli. Ed è fondamentale conoscere la nostra condizione di vulnerabilità quando navighiamo e quando accettiamo termini e condizioni senza leggerli o quando utilizziamo smart device in casa, in auto e anche al lavoro.

Privacy: non è solo una questione di riservatezza

I rischi peggiori, oggi, riguardano il deep fake e il deep voice, ossia quei fotomontaggi e audio-montaggi evoluti con cui ci si può fingere qualcun altro. Oggi i sistemi sono talmente avanzati che possono operare anche in real time e a costi irrisori. Con l’evoluzione dell’intelligenza artificiale si possono anche generare opere derivate partendo dalle nostre immagini e dai contenuti condivisi da noi in rete. Un problema denunciato anche dagli attori di Hollywood che proprio in questi mesi stanno scioperando contro le major. Non scioperano solo per il salario, ma anche per alcune clausole che le case produttrici avrebbero iniziato a inserire nei contratti degli attori e che le autorizzano a realizzare appunto opere derivate dalle immagini degli attori, senza bisogno di loro successivi interventi in presenza. Usiamo questo caso perché ben chiarisce il problema dell’utilizzo “sbagliato” dell’intelligenza artificiale che, tra l’altro, rischia così di uccidere la bellezza cinematografica, perché può solo replicare, ma non può mai creare nulla di nuovo. Ma non è l’unico rischio che si corre diffondendo i propri dati.

La privacy è anche una questione di sicurezza

Il tema della sicurezza nelle città è un argomento che viene trattato sempre più spesso: i giornali quasi ogni giorno raccontano episodi di criminalità e violenza e si fa sempre più comune l’idea che una soluzione possibile sia dotare la città di telecamere per registrare i movimenti delle persone. Ma purtroppo non è così, questa soluzione sposta l’attenzione del problema ovvero sorveglia tutti perché considera tutti potenziali criminali, invece di concentrarsi su chi realmente sbaglia. E una volta cambiata la prospettiva, indietro non si torna.

Per fortuna, nell’ultimo (non definitivo) draft del nuovo Ai Act dell’Unione Europea è contenuto un chiaro divieto al riconoscimento facciale in luoghi pubblici. La sorveglianza biometrica, così come i sistemi di polizia predittiva e di riconoscimento delle emozioni non dovrebbero toccare il nostro continente. Per ora siamo “al sicuro” se così si può dire, anche se il mondo sta andando nella direzione opposta. Per ora non siamo toccati da questo problema ma la situazione non è ancora del tutto cristallizzata ed un pericoloso cambio di rotta è purtroppo ancora possibile. Del resto, le dichiarazioni e le azioni di alcuni nostri politici sull’introduzione del riconoscimento facciale nei luoghi pubblici non lasciano sperare in bene. Mentre l’UE parla di vietare il riconoscimento facciale real time, in Italia pensiamo ad installare queste super telecamere in ogni stazione ferroviaria, ma anche in città affollate e luoghi con importanti flussi di persone come stadi e aeroporti. Qualcuno potrebbe dire che così aumentiamo la sicurezza, ma la sicurezza è concetto ben diverso dalla sorveglianza costante. Siamo tutti potenziali criminali, osservati costantemente, ed anche azioni innocue possono essere usate nostro svantaggio. Come se leggessimo ogni sera i messaggi scambiati dal nostro partner con il suo cellulare. Sarebbe legittimo controllo oppure sarebbe un’invasione della sfera di riservatezza? Questo senza considerare che tali sistemi sbagliano in continuazione e proprio pochi giorni fa hanno portato all’arresto di una donna del tutto innocente.

Deep voice: quali sono i rischi, chi più è esposto e come ci si tutela?

Come si diceva queste tecnologie sono quelle che rappresentano i pericoli più grandi per noi. Utilizzandole si potrebbero anche cambiare le sorti di elezioni o anche di una guerra. Qualcosa di simile è successo subito dopo lo scoppio della guerra in Ucraina: ne fu vittima Zelensky, a cui furono attribuite parole non sue, ma era un fake fatto male e venne scoperto subito. Già oggi, dopo un solo anno, questi sistemi di deep voice sono migliorati.

Ma da dove vengono presi i dati per creare questi fake? Da tutto quello che condividiamo, dai social network, dalle immagini registrate dalle telecamere, dai dati biometrici registrati nei nostri smartphone. Il Garante Italiano è già intervenuto contro la app FakeYou, avviando un’istruttoria. Il software consente di riprodurre un testo con voci di personaggi famosi, anche italiani, come per esempio quella di Meloni o Gerry Scotti. Ma ha anche creato un sistema per creare falsi video in cui si può far dire a personaggi famosi qualsiasi cosa, con un movimento del labiale coerente.

Pensate se il giorno prima di un’elezione, venisse diffuso un video in cui uno dei candidati dicesse una cosa incoerente con il suo programma e altamente impopolare? Non ci sarebbe il tempo di rimediare. E nel mondo non mancano esempi di cattivo utilizzo di queste tecnologie: in Russia attraverso i dati presi dalle biglietterie automatiche della metro sono stati riconosciuti alcuni dissidenti, a Hong Kong si sciopera con la maschera per via della presenza di telecamere nelle strade.

I post sui social: ricordo o dato sensibile?

I rischi più grandi in tema di privacy e condivisione dei dati li corrono i più giovani, che passano più tempo online e che pubblicano più contenuti sui social. Ormai hanno una vita parallela su Instagram, TikTok, Sanpchat, etc. E come già accennato sopra un capitolo a parte lo meriterebbe la condivisione di contenuti dei minori da parte dei genitori (sharenting). L’accelerato aumento dell’utilizzo dei social media e delle tecnologie digitali ha portato genitori e scuole a condividere sempre più frequentemente contenuti riguardanti i minori. Tuttavia, questa pratica solleva importanti questioni relative alla privacy, sicurezza e al controllo delle informazioni personali dei bambini online, anche perché è ormai noto che terzi potrebbero utilizzare queste informazioni a fini malevoli, sino ad arrivare anche alla pedofilia.

E allora, come ci si tutela?

È banale dirlo, ma bisogna ridurre la sovraesposizione in rete, condividendo poco sui social network ed evitando di usare i dati biometrici quando non è necessario – per sbloccare i nostri smartphone, per esempio, sarebbe meglio usare il codice, anziché il riconoscimento facciale. Se chi detiene quei dati li perdesse (come capitato in periodo covid ad alcune aziende che si occupavano di validare gli esami universitari a distanza utilizzando dati biometrici) le conseguenze sarebbero molto gravi per gli interessati

La verità è che dobbiamo (re)imparare a sviluppare senso critico, il grande assente di questi tempi. Spirito critico nei confronti di una realtà online senz’altro spesso affascinante e apparentemente comoda e facile, ma sempre più distante da quella offline. Il mondo digitale è il futuro ed è una risorsa anche economica molto importante, ma, come ogni utile strumento che ha guidato l’evoluzione economica, dal martello agli aerei, se usato male può portare a conseguenze gravissime.

Con Privacy Week ci siamo dati l’obiettivo di diffondere sempre più la conoscenza di queste tematiche perché, come detto, la consapevolezza è la miglior arma per prevenire problemi. Questo è scopo principe della Privacy Week, la rassegna che organizziamo ogni anno e investiga il rapporto di ognuno di noi con il digitale e le potenziali soluzioni per proteggere la privacy dei cittadini. Quest’anno (25-29 settembre) si parlerà proprio della spesso sottovalutata condizione di essere sempre più “esposti” online.

Clicca per commentare

Tu cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *