NEWS

E' possibile investire nell'intelligenza artificiale e proteggere i dati dei cittadini?

L'Europa vuole essere leader nella rivoluzione dell'intelligenza artificiale (IA). Un'ambizione che contrasta con la volonta' dell'Ue di proteggere il diritto alla privacy, perche' l'IA si basa proprio sulla disponibilita' dei dati. Un nuovo regolamento europeo punta a rendere compatibili i due obiettivi, ma non risolve la questione, secondo un'esperta dell'argomento.

L'Europa vuole essere leader nella rivoluzione dell'intelligenza artificiale: un'ambizione che contrasta con la volonta' dell'Ue di proteggere il diritto alla privacy

E' il 2016. Donald Trump ha vinto le presidenziali americane e la Brexit ha promesso l'uscita del Regno Unito dall'Unione europea. Entrambe le campagne hanno usato i servizi di Cambridge Analytica, che ha raccolto i dati di milioni di utenti Facebook per inviare comunicazioni elettorali personalizzate, allo scopo di influenzarne le intenzioni di voto. Milioni di persone cominciano a chiedersi se nell'era digitale non abbiano perso qualcosa di inestimabile valore: la privacy.

Due anni dopo, le mail degli europei sono pieni di messaggi di aziende che chiedono il permesso per il trattamento dei dati personali. L'obiettivo era di rispettare il nuovo Regolamento generale sulla protezione dei dati (RGPD). Nonostante i difetti, questa normativa e' servita come punto di riferimento per alcune leggi in Brasile e Giappone e ha dato inizio ad una nuova era per la protezione dei dati.

Cio' che era prima considerato una vittoria per la tutela della privacy, e' ora percepito come un blocco nella ricerca europea per lo sviluppo di tecnologie digitali, soprattutto dell'intelligenza artificiale (IA). Puo' il regolamento europeo proteggere la privacy dei suoi cittadini di fronte ad una tecnologia cosi' poco trasparente?

Un sistema di intelligenza artificiale e' uno strumento informatico che utilizza algoritmi per generare correlazioni, previsioni, decisioni e suggerimenti. La sua capacita' di influenzare le decisioni umane pone l'intelligenza artificiale al centro dell'economia dei dati.

La capacita' dell'intelligenza artificiale di produrre un processo decisionale piu' efficiente inoltre conseguenze geopolitiche. Gli stati stanno infatti investendo sempre piu' nella tecnologia, spinti forse dal motto coniato da Vladimir Putin nel 2017: ''Chiunque domini l'intelligenza artificiale domina il mondo''. Nel 2019 gli investimenti nell'IA sono triplicati negli Stati Uniti rispetto al 2015, mentre nello stesso periodo di tempo in Giappone sono stati di 12 volte maggiori.

Quest'idea ''emergenziale'' ha avuto ripercussioni in altri settori, compreso quello dei diritti digitali in Europa. I legislatori europei hanno quindi prodotto leggi per la privacy, combattendo i grandi monopoli digitali e creando degli standard per l'archiviazione sicura dei dati personali. Questi progressi in materia di diritti digitali potrebbero pero' minacciare la prosperita' economica del continente.

Quando l'RGPD e' stato applicato nel 2018, le aziende avevano gia' avvertito che il rispetto delle condizioni di tutela dei dati, considerate troppo rigide, avrebbe costituito un ostacolo all'innovazione tecnologica. Tra le argomentazioni piu' diffuse contro l'RGPD ci sono la riduzione della concorrenza, la difficolta' nel conformarsi al regolamento europeo e la possibilita' limitata di creare degli ''unicorni'' europei, ovvero giovani startup con piu' di un miliardo di dollari di capitalizzazione azionaria. Gli investimenti delle aziende ''unicorno'' tendono a verificarsi in mercati scarsamente regolati.

Al contrario, Bruxelles sostiene che il suo mercato con oltre 500 milioni di cittadini con garanzie di stabilita' politica e liberta' economica continuera' ad attirare gli investitori. La commissaria europea per la Concorrenza, Margrethe Vestager, ha aggiunto quest'anno che la Commissione interverra' se i diritti fondamentali dei cittadini europei saranno in pericolo.

Il rispetto dell'RGPD puo' comportare un ulteriore problema nello sviluppo dell'intelligenza artificiale. I sistemi AI hanno bisogno di molti dati per poter far funzionare l'algoritmo (che si allena, impara, processando piu' dati possibile) ma la regolamentazione europea limita la capacita' delle aziende di ottenere, condividere ed usare questi dati. Al contrario, se questo regolamento non esistesse, la conseguente raccolta di masse di dati di questo tipo comprometterebbe la privacy dei cittadini. Secondo il gruppo a favore della tutela della privacy European Digital Rights, per raggiungere un compromesso l'RGDP ha lasciato un margine per lo sviluppo dell'intelligenza artificiale impiegando delle formule talvolta vaghe.

Francesca Bormioli, Junior Data Scientist presso BeCode.org

(Nella foto: Francesca Bormioli, Junior Data Scientist presso BeCode.org)

Come era prevedibile ci sono aspetti sensibili in questo equilibrio precario. Uno di questi e' il principio di trasparenza, che da' ai cittadini il diritto di accedere ai loro dati e di capire, in termini chiari e concisi, come vengono usati. Questa trasparenza puo' pero' essere difficile da mantenere, soprattutto quando le persone che elaborano i dati sono in realta' sistemi di intelligenza artificiale.

Le aziende e gli sviluppatori di intelligenza artificiale si sono impegnati per garantire le cosiddette "spiegabilita'" e "interpretabilita'", vale a dire che un profano dovrebbe poter essere in grado di capire un sistema di intelligenza artificiale in parole povere, e comprendere perche' prende certe decisioni e non altre. Non e' un lavoro semplice, poiche' molti di questi sistemi funzionano come "scatole nere", una metafora comunemente impiegata nel settore, che implica che ne' coloro che costruiscono l'algoritmo ne' coloro che attuano le decisioni che suggerisce capiscono come si giunga a quelle decisioni proprio perche' l'algoritmo impara da se' stesso elaborando nuovi risultati.

Un altro dilemma e' quello che riguarda il "diritto all'oblio". Considerato come una vittoria dell'RGPD a favore della privacy, obbliga le aziende a cancellare i dati di chiunque ne faccia richiesta. Nel caso dei sistemi di intelligenza artificiale un'azienda potrebbe, in teoria, cancellare i dati personali utilizzati per addestrare l'algoritmo, ma questo processo conserverebbe comunque la "traccia" che i dati hanno lasciato nel sistema, rendendo impossibile un "oblio" totale.

Anche se sembra che privacy e innovazione siano due principi inconciliabili, non tutto e' perduto. Ad aprile 2021, la Commissione europea ha pubblicato una proposta di regolamento sull'intelligenza artificiale.

Nonostante le critiche per alcuni dettagli, come il rifiuto di proibire i sistemi di riconoscimento facciale, si tratta comunque di una regolamentazione innovativa che obbliga le aziende ad aprire, almeno un po', queste cosiddette scatole nere. Come del resto spesso accade, una vittoria per gli attivisti della tutela dei dati ha fatto infuriare coloro che sostengono che i requisiti di trasparenza frenino l'innovazione e allontanino le aziende.

L'intelligenza artificiale comporta molte sfide per il rispetto della privacy

Insieme a questa iniziativa, le istituzioni europee hanno concordato nell'ottobre 2021 l'elaborazione dell'Atto sulla governance dei dati, che riguarda il riutilizzo dei dati e che crea "pool di dati" pubblici e cooperative di dati, in modo che le imprese possano beneficiare dell'innovazione in Europa. Le aziende potranno inoltre cercare i dati di cui hanno bisogno in questi spazi regolamentati, anziche' comprarli da altre aziende o ottenerli usando tecniche meno etiche. La legge permette anche la ''donazione di dati'' per riempire questi spazi, prendendo le distanze dall'opinione diffusa secondo cui i dati sono una merce. e' certamente una visione innovativa.

Un accordo internazionale sul regolamento dell'intelligenza artificiale non e' ancora stato raggiunto, ma l'Ue ha le carte in regola per diventare un precursore con una possibile legge prevista per il 2022 o 2023 che si applicherebbe in tutti i suoi stati membri. Questo porterebbe alla creazione di categorie di rischio per i sistemi di intelligenza artificiale. Per esempio, quelli usati nell'assistenza sanitaria sarebbero classificati come "rischio alto", il che significa regole piu' severe per coloro che sviluppano e realizzano i sistemi. Il Comitato europeo per la protezione dei dati e altri sostengono che questo nuovo quadro garantira' l'innovazione, ma ne vedremo gli effetti reali solo se riuscira' a risolvere i grandi dilemmi della trasparenza e del diritto all'oblio.

di Francesca Bormioli, Junior Data Scientist presso BeCode.org (Fonte: Italia Oggi)

Note Autore

Federprivacy Federprivacy

Federprivacy è la principale associazione di riferimento in Italia dei professionisti della privacy e della protezione dei dati personali, iscritta presso il Ministero dello Sviluppo Economico ai sensi della Legge 4/2013. Email: urp@federprivacy.org 

Prev Il Data Protection Officer interno può essere licenziato se l’azienda decide di esternalizzare la funzione
Next Data Act: la rivoluzione della portabilità di tutti i dati

Caffè Privacy: il titolare del trattamento

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy