NEWS

Custodire il futuro: intelligenza artificiale, privacy e legalità nella società digitale

Crescenti digitalizzazioni di processi sociali, economici e istituzionali, che pongono il tema della protezione dei dati personali con una valenza che trascende, oramai, la sfera tecnica e giuridica. Si configura come uno snodo critico della modernità, in cui si misurano il grado di maturità democratica delle società e la capacità delle istituzioni di preservare l’integrità dei diritti fondamentali nella trasformazione tecnologica.

L’intelligenza artificiale, nella sua funzione predittiva, può agire come strumento di ampliamento cognitivo e di supporto alle decisioni collettive.

E’ altrettanto vero, però, che la sua progressiva pervasività solleva interrogativi non secondari circa le forme di potere algoritmico, le nuove asimmetrie informative, la profilazione silenziosa degli individui e il rischio di deresponsabilizzazione umana nei processi decisionali automatizzati. In tale contesto, la privacy non può più essere considerata un semplice diritto individuale, bensì una componente strutturale dell’ecologia sociale dei dati.

La protezione dei dati personali richiede, dunque, una riflessione sistemica che integri dimensione normativa, architettura tecnica, sostenibilità sociale e legittimità etica.

Le attuali tecnologie di intelligenza artificiale offrono soluzioni avanzate per la tutela della riservatezza, dall’apprendimento federato, alla privacy differenziale, alla crittografia post-quantistica, ma tali strumenti non sono in sé garanzia di equità, trasparenza o autodeterminazione. La discriminante risiede nel paradigma con cui vengono implementati e nella governance che li regola.

In questa prospettiva, l’ENIA, Ente Nazionale per l’Intelligenza Artificiale, promuove il concetto di “legalità predittiva”, inteso come insieme di condizioni che assicurano compatibilità tra innovazione algoritmica e principio di legalità sostanziale. Si tratta di un cambio di paradigma: dal rispetto formale delle norme alla progettazione di sistemi digitali che siano intrinsecamente conformi a criteri di giustizia procedurale, spiegabilità, proporzionalità e supervisione umana.

Ciò implica introdurre metriche per la valutazione dell’impatto algoritmico, presidi interdisciplinari per l’audit dei modelli, e infrastrutture pubbliche intelligenti che non si limitino a fornire servizi, ma generino fiducia sistemica.

(Nella foto: Valeria Lazzaroli, Presidente di ENIA - Ente Nazionale per l'Intelligenza Artificiale, speaker del Privacy Day Forum 2025)

La società digitale richiede infatti nuove forme di cittadinanza, capaci di articolare la soggettività dell’individuo all’interno di contesti computazionali sempre più complessi. Una democrazia informata non può esistere senza alfabetizzazione algoritmica, accesso comprensibile ai processi decisionali automatizzati e strumenti di partecipazione attiva nella definizione delle regole del gioco. In quest’ottica, la privacy non è solo difesa, ma co-progettazione di ambienti digitali sostenibili. Il nodo infrastrutturale è altrettanto centrale.

L’accentramento dei dati in grandi piattaforme globali produce fragilità sistemiche, oltre a generare dipendenze tecnologiche ed economiche che riducono la sovranità digitale. Un modello federato di intelligenza artificiale, basato su elaborazione locale, interoperabilità controllata e valorizzazione delle reti territoriali, costituisce una risposta concreta al bisogno di resilienza, autonomia e inclusività.

In definitiva, la protezione dei dati personali non può più essere demandata esclusivamente a protocolli di sicurezza o a policy aziendali. Essa richiede una leadership istituzionale capace di integrare saperi diversi – giuridici, sociologici, informatici, psicologici – in un disegno coeso e lungimirante.

Occorre interpretare la cybersecurity non solo come difesa tecnica, ma come pratica culturale, fondata su coerenza tra valori dichiarati e scelte operative. La fiducia, in questa visione, diventa un bene collettivo da coltivare, non un effetto collaterale della conformità.

Solo attraverso una convergenza consapevole tra innovazione  tecnologica e responsabilità sociale potremo garantire che l’intelligenza artificiale sia non solo potente, ma giusta. E che la privacy non sia un’eredità da tutelare, ma una frontiera da ripensare.

Note sull'Autore

Valeria Lazzaroli Valeria Lazzaroli

Presidente di ENIA - Ente Nazionale per l'Intelligenza Artificiale. Economista, Chief AI Officer, Risk Manager, Psicologa del Lavoro, Sociologa dell’Innovazione.

Prev Il modello 'Pay or OK' al vaglio del Garante Privacy: opzione legittima o consenso estorto?
Next Le certificazioni di AICA per rispondere alle sfide dell’innovazione

Il presidente di Federprivacy a Report Rai 3

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy