NEWS

Sull’etica le Big Tech hanno dato un pessimo esempio, ma la spinta che serve può venire dai DPO

Con l’irruzione dell’Intelligenza Artificiale nelle nostre vite, oltre alle straordinarie opportunità che essa può portare, crescono però anche le preoccupazioni per le conseguenze negative che possono derivarne da un uso sconsiderato, e uno degli scopi del nuovo Regolamento sull’Intelligenza Artificiale (AI Act) è proprio quello di arginare i rischi sulla sicurezza delle persone e preservare il rispetto dei loro diritti fondamentali.

Sull’etica le Big Tech hanno dato un pessimo esempio, ma con l’Intelligenza Artificiale la spinta può venire dai DPO

Tuttavia, una legge non può risolvere da sola tutti i problemi se non viene diffusamente rispettata da chi è tenuto a farlo.

Anche se l’Artificial Intelligence Act rappresenta un grande passo avanti, e si tratta di un regolamento ben concepito che segue un approccio basato sul rischio come era già avvenuto per il GDPR, d’altra parte tutta la comunità degli addetti ai lavori e del mondo delle istituzioni sta richiamando adesso ulteriore attenzione sul tema dell’etica, valore di cui si ravvisa estrema necessità anche sulla base di pregi e limiti emersi negli 6 scorsi anni di esperienza da quando è diventato pienamente applicabile il Regolamento europeo sulla protezione dei dati personali.

Ad esempio, le maxi sanzioni fino a 20 milioni di euro o fino al 4% del fatturato annuo dei trasgressori che all’epoca sembravano spaventare le aziende, non hanno poi sortito l’auspicato effetto deterrente nei confronti delle Big Tech, alle quali sono state inflitte buona parte dei quasi 5 miliardi di euro di multe complessivamente comminate dalle autorità di controllo dal 2018 ad oggi. È difficile pensare che le sanzioni dell’AI Act saranno più efficaci solo perché prevedono un tetto ancora più elevato che potrà arrivare al 7% del fatturato, come forse cambierebbe poco anche se fossero portate al 10%.

Infatti, i colossi tecnologici che in questi anni sono stati colpiti dalle sanzioni milionarie del GDPR non hanno mai dimostrato di interessarsi concretamente della privacy degli utenti, ma semplicemente si sono limitati a pagare sistematicamente dazio per poi continuare impavidi nel loro business basato sui dati, come quando si pesca un cartoncino degli “imprevisti” nel gioco del Monopoly, dove per uscire di prigione basta pagare una modesta cauzione. E se è vero che "errare è umano, ma perseverare è diabolico", ad ogni bacchettata dei garanti, spesso le Big Tech non hanno fatto altro che inventarsi qualche nuovo accattivante spot sul loro presunto accresciuto rispetto della privacy, oppure hanno aggirato l’ostacolo inventandosi nuove strategie ed espedienti come i dark pattern, appositamente studiati per ingenerare confusione negli utenti allo scopo di carpire consensi involontari e per non permettere loro di avere il reale controllo sui propri dati.

Nicola Bernardi, presidente di Federprivacy

(Nella foto: Nicola Bernardi, presidente di Federprivacy)

È però impensabile che l’etica si possa costruire sull’inganno degli utenti, oppure che possa essere realizzata basandosi su un sistema che permette a dei miliardari che detengono il potere di “lasciare la mancia” ogni volta che vengono colti con le mani nella marmellata per poi continuare a farsi beffe degli utenti e delle stesse autorità.

L’etica è basata sul rispetto delle regole, e le Big Tech non hanno dato il buon esempio.

Se esse per prime non trasmettono in modo convincente la loro convinzione che la gestione dell’Intelligenza Artificiale e di tutte le nuove tecnologie debba essere incardinata su criteri etici, difficilmente il resto delle imprese digitali che guardano l’intelligenza artificiale con l’acquolina in bocca faranno propria l’etica come valore necessario a regolarla in modo sostenibile per distinguere ciò che è accettabile e ciò che non lo è.

In tal caso, l’unica strategia efficace immaginabile sarebbe quella della “tolleranza zero” con l’imposizione di misure severe che comportino divieti dei trattamenti illeciti come previsto dall’art. 58 par.1 lett.f) del GDPR, oppure con l’introduzione di norme penali che aprano le porte del carcere per coloro che deliberatamente violano la normativa “relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali”, come propriamente indica il titolo del Regolamento UE 2016/679.

L’alternativa per riuscire a far penetrare l’etica nelle aziende è che la spinta che serve parta dal basso, ovvero dai Data Protection Officer, che sono chiamati a sorvegliare per far rispettare le regole del GDPR, che al loro interno contengono già numerosi princìpi etici che necessitano solo di essere evidenziati e valorizzati, portandoli all’attenzione dei top management. E un DPO che non voglia in alcun modo essere complice di condotte illegali non dovrebbe mai girarsi dall’altra parte, anche a costo di rinunciare al proprio incarico, sapendo bene che lo stesso legislatore, all’ art. 38 del GDPR, gli richiede di svolgere le proprie funzioni “senza dare adito a un conflitto di interessi” e che egli “non riceva alcuna istruzione per quanto riguarda l'esecuzione di tali compiti”.

Nicola Bernardi, presidente di Federprivacy (Fonte: Nòva Il Sole 24 Ore)

Note Autore

Nicola Bernardi Nicola Bernardi

Presidente di Federprivacy. Consulente del Lavoro. Consulente in materia di protezione dati personali e Privacy Officer certificato TÜV Italia, Of Counsel Ict Legal Consulting, Lead Auditor ISO/IEC 27001:2013 per i Sistemi di Gestione per la Sicurezza delle Informazioni. Twitter: @Nicola_Bernardi

Prev Il Data Protection Officer e l’epoca dei neurodiritti
Next Etica e responsabilità d’impresa in ambito sanitario: quando gli interessati sono in condizioni di fragilità

Privacy Day Forum 2024: intervista a Guido Scorza

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
I agree with the Privacy e Termini di Utilizzo