NEWS

L'intelligenza artificiale nella Pubblica Amministrazione e nelle imprese: AgID, AI Act e strumenti a supporto per le valutazioni d’impatto

L’adozione dell’intelligenza artificiale (IA) nella Pubblica Amministrazione (PA) e nelle Imprese rappresenta una leva strategica, ma impone nuove responsabilità normative. A livello europeo, il Regolamento AI Act (UE 2024/1689) introduce un quadro giuridico armonizzato per lo sviluppo e l’uso dell’IA, promuovendo un approccio antropocentrico e affidabile. In Italia, le Linee Guida AgID 2025 declinano questi principi nel contesto pubblico nazionale, richiedendo valutazioni specifiche prima di adottare sistemi IA.

Due strumenti fondamentali garantiscono un uso responsabile dell’IA:

- FRIA (Fundamental Rights Impact Assessment): prevista per i sistemi ad alto rischio, valuta l’impatto sui diritti fondamentali.
- DPIA (Data Protection Impact Assessment): obbligatoria secondo il GDPR per i trattamenti ad alto rischio sui dati personali.

Il Regolamento AI Act classifica i sistemi IA in quattro categorie:

1. Rischio inaccettabile
2. Alto rischio
3. Rischio limitato
4. Rischio minimo

I fornitori di IA ad alto rischio devono garantire: qualità dei dati, trasparenza, sicurezza, sorveglianza post-market, e ottenere la marcatura CE. I deployer, come le PA, devono attenersi alle istruzioni, monitorare le prestazioni e svolgere la FRIA nei casi previsti.

Parallelamente, il GDPR (Reg. UE 2016/679) impone la DPIA per trattamenti ad alto rischio, che spesso riguardano i sistemi IA.

Le due valutazioni sono complementari: la DPIA è centrata sulla privacy, la FRIA sui diritti fondamentali in senso più ampio. In molti casi, come nei servizi pubblici automatizzati, entrambe sono necessarie. L’approccio integrato evita duplicazioni, favorisce sinergie e garantisce che nessun aspetto (etico o giuridico) venga trascurato.

Le Linee Guida AgID raccomandano un’integrazione di DPIA e FRIA in un unico processo strutturato di valutazione d’impatto, con coinvolgimento del DPO, ufficio legale ed esperti tecnici. Inoltre, sottolineano l’obbligo di informare i cittadini sull’uso dell’IA, garantendo trasparenza e diritto al ricorso.

(Nella foto: l'Ing. Angelo Emanuele Cavallaro, Ceo di AC2 srl, speaker al Privacy Day Forum 2025)

Strumenti, competenze e sostenibilità della compliance - L’ecosistema normativo IA è in continua evoluzione, e PA e imprese devono dotarsi di:

- procedure strutturate (es. comitati etici, protocolli interni),
- strumenti digitali per supportare la compliance (es. software che guidano la compilazione di FRIA/DPIA),
- competenze specialistiche (AI governance, privacy, ingegneria etica).

Senza questi strumenti, la gestione della compliance può risultare caotica o incompleta. Anche piccole amministrazioni e imprese possono trarre beneficio da tool che guidano passo-passo nei requisiti normativi.

Immaginiamo, ad esempio, una amministrazione comunale che voglia adottare un sistema di IA per smistare automaticamente alcune pratiche: difficilmente avrà al suo interno competenze legali avanzate sull’AI Act o sul GDPR applicato all’IA. Un software con una checklist guidata potrebbe accompagnarli nell’effettuare la DPIA e la FRIA.

Gestire tutto questo con semplici fogli di calcolo o documenti statici rischia di essere inefficiente e fonte di errori o dimenticanze. Al contrario, l’uso di piattaforme e software dedicati alla governance dell’IA e alla compliance normativa può offrire molti benefici: guidare gli esperti passo-passo, standardizzare e rendere dettagliata l’analisi, aggiornare automaticamente il quadro normativo, facilitare la collaborazione e il coinvolgimento degli stakeholder, supportare sia il pubblico che il privato, integrare la gestione del rischio nel ciclo di vita dell’IA. In questo modo, anche chi non è esperto può essere guidato a conformarsi, riducendo la probabilità di errori dovuti alla mancata conoscenza di qualche dettaglio normativo.

Conclusione - L’IA può trasformare radicalmente la PA, ma solo se guidata da valori democratici e rispetto dei diritti fondamentali. La FRIA e la DPIA sono strumenti cruciali per coniugare innovazione e responsabilità. Non sono meri adempimenti, ma processi conoscitivi che migliorano i progetti, li rendono più equi ed efficienti, e rafforzano la fiducia dei cittadini.

Per affrontare le sfide di compliance, organizzazioni pubbliche e private dovranno investire sia in competenze (formazione di figure esperte in AI governance, ingegneri etici, data protection specialist con focus IA) sia in strumenti (software e sistemi di gestione del rischio). È un investimento che ripaga: riduce il rischio legale, tutela la reputazione e crea valore aggiunto perché processi ben governati producono risultati più solidi. In questo percorso, realtà come AC2 – Advanced Consulting – attiva nel supportare la trasformazione digitale – seguono da vicino l’evoluzione del quadro normativo, affiancando enti e imprese con piattaforme informatiche pensate per implementare soluzioni di IA sicure, compliant e orientate all’uomo a supporto della DPIA e della FRIA.

Note sull'Autore

Angelo Emanuele Cavallaro Angelo Emanuele Cavallaro

Ceo & Founder AC2 srl - Web: www.actwo.net

Prev L'ingresso dell'intelligenza artificiale in azienda? dalla porta principale, con adeguato set di regole
Next Dall'Ordine degli avvocati di Milano la prima carta dei principi per un uso consapevole dell’IA

Il furto d'identità con l'intelligenza artificiale

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy