NEWS

Diminuisce la fiducia nei confronti dell’intelligenza artificiale: sempre più necessarie trasparenza e privacy

Le aziende che decidono di investire nell’intelligenza artificiale assaporano la prospettiva di massimizzare i propri processi produttivi e al contempo risparmiare risorse, ma devono anche fare i conti con numerose sfide che non possono essere trascurate, tra cui quella della necessità di guadagnare la fiducia degli utenti.

Il rapporto “The Race for ROI” di IBM evidenzia che in Italia l’aumento di produttività abilitato dall’AI è particolarmente evidente in settori come quelli dei trasporti (67%), dell’energia (60%), e della logistica (75%), ma d’altra parte un autorevole sondaggio del Pew Research Center rivela che la fiducia nell’intelligenza artificiale sta diminuendo in tutto il mondo.

La maggioranza degli adulti intervistati manifesta infatti una crescente percezione negativa delle nuove tecnologie, e in nessuno dei 25 paesi analizzati è stata superata la soglia del 30% di persone “più entusiaste che preoccupate”, con Stati Uniti, Italia, Australia e Brasile che hanno registrato le percentuali maggiori di adulti che sono più turbati dall’AI.

Specialmente nel mercato B2C (“Business to Consumer”), le potenzialità delle performance non possono quindi ignorare i potenziali impatti negativi sui consumatori, e per evitare il rischio di un pericoloso effetto boomerang, le aziende devono necessariamente invertire questa tendenza di diffidenza nei confronti dell’AI, facendo in modo che le soluzioni di intelligenza artificiale che propongono siano ritenute utili ed apprezzate dai loro clienti.

Anche se il futuro dell’intelligenza artificiale cela diverse incognite, un punto fermo che trova comunque d’accordo tutta la comunità degli addetti ai lavori è che essa deve rimanere sempre al servizio dell’uomo e non viceversa, e con i consumatori che sono oggi più consapevoli, più esigenti in termini di privacy, e meno disposti a tollerare opacità o abusi nell’uso dei propri dati personali, la fiducia diventa il vero vantaggio competitivo.

(Nicola Bernardi, presidente di Federprivacy)

Come peraltro richiesto dal GDPR, l’utente deve poter percepire che i suoi dati vengono trattati in modo trasparente, e che in ogni momento può contare sull’intervento umano, conservando il diritto di non essere sottoposto a decisioni dettate unicamente dagli algoritmi, e le aziende che investono nell’intelligenza artificiale devono inoltre ricordare che “non tutto ciò che è tecnologicamente possibile è anche socialmente desiderabile, eticamente accettabile, giuridicamente legittimo”, come affermò in modo lungimirante nel lontano 2004 Stefano Rodotà, primo illustre presidente del Garante per la protezione dei dati personali.

L’intelligenza artificiale da sola non è in grado di costruire una tale fiducia da parte degli utenti, perché non è una prerogativa delle macchine: solo degli esseri umani possono guadagnarsi la fiducia di altri esseri umani, e per questo è fondamentale che ogni progetto di AI sia attentamente concepito e portato avanti da un team multidisciplinare composto da esperti con varie competenze in grado di dialogare e interagire in modo efficace tra loro.

Una figura di centrale importanza per un’azienda che adotta un sistema di intelligenza artificiale è il Data Protection Officer, che tra i compiti che gli sono assegnati dal GDPR ha anche quello di essere il “custode dei dati”, sorvegliando il rispetto delle regole, e fungere da referente per tutti gli interessati che necessitano di avere chiarimenti sul trattamento dei loro dati personali, oppure di esercitare i loro diritti.

La persona che ricopre questo ruolo in un’azienda che utilizza l’AI, non deve essere scelta solo per le sue competenze tecniche e giuridiche del GDPR, caratteristiche che da sole rischierebbero di trasformarlo in un mero burocrate, ma deve essere anche una persona assertiva che ci mette la faccia e si relaziona con gli interessati in modo chiaro e trasparente così da permettergli di godere della fiducia degli utenti, contribuendo così non solo alla compliance dell’organizzazione, ma anche a rafforzarne la reputazione. La figura del Data Protection Officer, non è dunque confinata alla conformità normativa, ma è parte integrante della governance etica dell’innovazione tecnologica, che rappresenta il punto di equilibrio tra efficienza dei dati e rispetto della dignità e della privacy delle persone, la cui mission non è fermare l’AI, ma assicurare che questa resti umana, trasparente e giusta.

di Nicola Bernardi (Fonte: Economy) 

Sei socio Federprivacy? effettua il login e leggi online il numero integrale del mensile Economy di novembre 2025

Note sull'Autore

Nicola Bernardi Nicola Bernardi

Presidente di Federprivacy. Consulente del Lavoro. Consulente in materia di protezione dati personali e Privacy Officer certificato TÜV Italia, Of Counsel Ict Legal Consulting, Lead Auditor ISO/IEC 27001:2013 per i Sistemi di Gestione per la Sicurezza delle Informazioni. Twitter: @Nicola_Bernardi

Prev Quando un click sbagliato può costare milioni di euro all’azienda
Next Esiste ancora un diritto alla privacy?

Privacy Day Forum 2025: il servizio dell'Ansa

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy