L'intelligenza artificiale nella Pubblica Amministrazione e nelle imprese: AgID, AI Act e strumenti a supporto per le valutazioni d’impatto
L’adozione dell’intelligenza artificiale (IA) nella Pubblica Amministrazione (PA) e nelle Imprese rappresenta una leva strategica, ma impone nuove responsabilità normative. A livello europeo, il Regolamento AI Act (UE 2024/1689) introduce un quadro giuridico armonizzato per lo sviluppo e l’uso dell’IA, promuovendo un approccio antropocentrico e affidabile. In Italia, le Linee Guida AgID 2025 declinano questi principi nel contesto pubblico nazionale, richiedendo valutazioni specifiche prima di adottare sistemi IA.

Due strumenti fondamentali garantiscono un uso responsabile dell’IA:
- FRIA (Fundamental Rights Impact Assessment): prevista per i sistemi ad alto rischio, valuta l’impatto sui diritti fondamentali.
- DPIA (Data Protection Impact Assessment): obbligatoria secondo il GDPR per i trattamenti ad alto rischio sui dati personali.
Il Regolamento AI Act classifica i sistemi IA in quattro categorie:
1. Rischio inaccettabile
2. Alto rischio
3. Rischio limitato
4. Rischio minimo
I fornitori di IA ad alto rischio devono garantire: qualità dei dati, trasparenza, sicurezza, sorveglianza post-market, e ottenere la marcatura CE. I deployer, come le PA, devono attenersi alle istruzioni, monitorare le prestazioni e svolgere la FRIA nei casi previsti.
Parallelamente, il GDPR (Reg. UE 2016/679) impone la DPIA per trattamenti ad alto rischio, che spesso riguardano i sistemi IA.
Le due valutazioni sono complementari: la DPIA è centrata sulla privacy, la FRIA sui diritti fondamentali in senso più ampio. In molti casi, come nei servizi pubblici automatizzati, entrambe sono necessarie. L’approccio integrato evita duplicazioni, favorisce sinergie e garantisce che nessun aspetto (etico o giuridico) venga trascurato.
Le Linee Guida AgID raccomandano un’integrazione di DPIA e FRIA in un unico processo strutturato di valutazione d’impatto, con coinvolgimento del DPO, ufficio legale ed esperti tecnici. Inoltre, sottolineano l’obbligo di informare i cittadini sull’uso dell’IA, garantendo trasparenza e diritto al ricorso.
(Nella foto: l'Ing. Angelo Emanuele Cavallaro, Ceo di AC2 srl, speaker al Privacy Day Forum 2025)
Strumenti, competenze e sostenibilità della compliance - L’ecosistema normativo IA è in continua evoluzione, e PA e imprese devono dotarsi di:
- procedure strutturate (es. comitati etici, protocolli interni),
- strumenti digitali per supportare la compliance (es. software che guidano la compilazione di FRIA/DPIA),
- competenze specialistiche (AI governance, privacy, ingegneria etica).
Senza questi strumenti, la gestione della compliance può risultare caotica o incompleta. Anche piccole amministrazioni e imprese possono trarre beneficio da tool che guidano passo-passo nei requisiti normativi.
Immaginiamo, ad esempio, una amministrazione comunale che voglia adottare un sistema di IA per smistare automaticamente alcune pratiche: difficilmente avrà al suo interno competenze legali avanzate sull’AI Act o sul GDPR applicato all’IA. Un software con una checklist guidata potrebbe accompagnarli nell’effettuare la DPIA e la FRIA.
Gestire tutto questo con semplici fogli di calcolo o documenti statici rischia di essere inefficiente e fonte di errori o dimenticanze. Al contrario, l’uso di piattaforme e software dedicati alla governance dell’IA e alla compliance normativa può offrire molti benefici: guidare gli esperti passo-passo, standardizzare e rendere dettagliata l’analisi, aggiornare automaticamente il quadro normativo, facilitare la collaborazione e il coinvolgimento degli stakeholder, supportare sia il pubblico che il privato, integrare la gestione del rischio nel ciclo di vita dell’IA. In questo modo, anche chi non è esperto può essere guidato a conformarsi, riducendo la probabilità di errori dovuti alla mancata conoscenza di qualche dettaglio normativo.
Conclusione - L’IA può trasformare radicalmente la PA, ma solo se guidata da valori democratici e rispetto dei diritti fondamentali. La FRIA e la DPIA sono strumenti cruciali per coniugare innovazione e responsabilità. Non sono meri adempimenti, ma processi conoscitivi che migliorano i progetti, li rendono più equi ed efficienti, e rafforzano la fiducia dei cittadini.
Per affrontare le sfide di compliance, organizzazioni pubbliche e private dovranno investire sia in competenze (formazione di figure esperte in AI governance, ingegneri etici, data protection specialist con focus IA) sia in strumenti (software e sistemi di gestione del rischio). È un investimento che ripaga: riduce il rischio legale, tutela la reputazione e crea valore aggiunto perché processi ben governati producono risultati più solidi. In questo percorso, realtà come AC2 – Advanced Consulting – attiva nel supportare la trasformazione digitale – seguono da vicino l’evoluzione del quadro normativo, affiancando enti e imprese con piattaforme informatiche pensate per implementare soluzioni di IA sicure, compliant e orientate all’uomo a supporto della DPIA e della FRIA.







