Quando un data breach colpisce un’applicazione di AI che tratta dati personali
L’entrata in vigore del Regolamento (UE) 2024/1689, noto come AI Act, segna un punto di svolta nella regolamentazione dei sistemi di intelligenza artificiale. Tra i molti aspetti da considerare, il Regolamento dedica, come del resto è logico aspettarsi, particolare attenzione alla gestione degli incidenti che coinvolgono sistemi di AI ad alto rischio, come definiti dall’art. 6.
(Nella foto: l'Ing. Monica Perego, docente del Corso 'Il Data Breach: pianificazione e gestione per le applicazioni di AI")
L’obiettivo è quello di garantire trasparenza, sicurezza e tutela dei diritti fondamentali delle persone.Quando l’incidente riguarda anche dati personali, il quadro si complica: entrano in gioco sia gli obblighi del fornitore, dell’utilizzatore o del deployer della soluzione di AI (ai sensi dell’AI Act), sia quelli del titolare del trattamento dei dati (ai sensi del GDPR). In questo articolo cerchiamo di analizzare i punti di contatto tra le due normative.
Gli obblighi di segnalazione degli incidenti secondo l’AI Act - L’articolo 73 dell’AI Act “Comunicazione di incidenti gravi” rappresenta la disposizione chiave in materia. Stabilisce che i fornitori di sistemi di AI ad alto rischio devono segnalare alle autorità competenti qualsiasi incidente grave che si verifichi e di cui vengano a conoscenza.
La segnalazione deve avvenire secondo la tempistica indicata nello stesso articolo, sulla base della gravità associata all’incidente.
Successivamente, il fornitore deve condurre un’indagine approfondita, identificare le cause e adottare misure correttive, cooperando con le autorità nazionali ed eventualmente dell’UE.
Cosa costituisce un “incidente grave” - L’AI Act definisce, nell'articolo 3, punto 49, “incidente grave” qualsiasi evento o malfunzionamento di un sistema di AI che causi, direttamente o indirettamente:
- morte o danni gravi alla salute di una persona;
- gravi perturbazioni nella gestione di infrastrutture critiche;
- violazioni dei diritti fondamentali tutelati dal diritto dell’Unione;
- danni significativi a beni o all’ambiente.
È proprio nella terza categoria — la violazione dei diritti fondamentali — che si collocano gli incidenti connessi a un trattamento scorretto o illecito di dati personali, che nell’ambito del GDPR sono identificati come “data breach”.
Quando l’incidente riguarda i dati personali: AI Act e GDPR si incontrano - Se un sistema di AI ad alto rischio viola la protezione dei dati personali, per esempio a causa di un errore algoritmico, di un bias non gestito o di un difetto di sicurezza, o ancora per la perdita di riservatezza o disponibilità, si configurano due obblighi di notifica paralleli:
1.notifica ai sensi dell’AI Act (art. 73) - Il fornitore o il deployer devono segnalare l’incidente come “incidente grave” alle autorità di vigilanza competenti;
2.notifica del data breach ai sensi del GDPR (artt. 33 e 34) - Il titolare o il responsabile del trattamento dei dati deve notificare la violazione dei dati personali all’autorità di controllo competente entro 72 ore dall’avvenuta conoscenza, salvo che sia improbabile che l’incidente comporti un rischio per i diritti e le libertà delle persone fisiche. Inoltre, se la violazione comporta un rischio elevato per gli interessati, questi devono essere informati senza ingiustificato ritardo.
In altre parole, un unico evento — ad esempio un sistema di AI che elabora dati sanitari in modo errato compromettendone la disponibilità o li espone pubblicamente compromettendone la riservatezza— può innescare due flussi di segnalazione distinti ma complementari.
Senza contare che qualora uno dei soggetti coinvolti ricadesse nel perimetro della NIS 2 e l’incidente risultasse significativo, dovrebbero essere attivate ulteriori comunicazioni in questo caso ad un terzo soggetto.

Per quanto l’art. 73 dell’AI Act risulta l’articolo di riferimento, non va dimenticato che altri articoli rafforzano il sistema di prevenzione e risposta agli incidenti e nello specifico:
- art. 72 “Monitoraggio successivo all'immissione sul mercato effettuato dai fornitori e piano di monitoraggio successivo all'immissione sul mercato per i sistemi di IA ad alto rischio”;
- art. 20 “Misure correttive e dovere di informazione”;
- art. 26 “Obblighi dei deployer dei sistemi di IA ad alto rischio”.
La procedura per gestire un incidente che coinvolge dati personali in un sistema di AI - Un’organizzazione che sviluppa o utilizza sistemi di AI ad alto rischio dovrebbe predisporre una procedura integrata di incident management, in grado di rispondere contemporaneamente ai requisiti dell’AI Act e del GDPR. In pratica, ciò significa:
- disporre di strumenti per rilevare tempestivamente l’anomalia o il malfunzionamento del sistema di AI;
- al ricevimento della segnalazione dell’incidente e/o potenziale incidente coinvolgere i team: legale, compliance, sicurezza delle informazioni, sicurezza delle soluzioni di AI e data protection;
- avviare per indagini per valutare il tipo di impatto (es. sicurezza, salute, diritti fondamentali, dati personali) e determinare se l’evento costituisce un “incidente grave” ai sensi dell’AI Act e/o una violazione “che coinvolge dati personali” ai sensi del GDPR – da notare che non necessariamente una condizione implica l’altra;
- definire e mettere in atto, nei tempi più brevi, le azioni per la mitigazione dell’impatto;
- notificare entrambe le autorità competenti (autorità di vigilanza del mercato e Garante privacy) secondo le specifiche procedure ed i termini previsti. La notifica/prenotifica potrebbe prevedere aggiornamenti successivi secondo quanto indicato dalle singole normative;
- definire, mettere in atto e documentare le indagini interne e gli esiti, le azioni correttive, mantenendo tracciabilità e audit mirati.
- alla luce delle azioni correttive rivedere l’analisi dei rischi, i modelli di governance, i processi di sicurezza e i dataset per prevenire il ripetersi.
Quanto sopra comporta ovviamente anche personale qualificato, responsabilizzato ed autonomo nel prendere decisioni anche in assenza di informazioni limitate, visti i tempi ridotti di reazione che sono definiti e la complessità delle procedure da attivare.
La scelta di una procedura integrata, che come indicato potrebbe anche considerare la componente della NIS 2, è una soluzione che ottimizza le attività, riduce i tempi e favorisce una versione olistica del problema a vantaggio di tutte le parti interessate.
Certo risulta, almeno in prima battuta, più complessa da predisporre rispetto alla soluzione che vede 2/3 procedure parallele ma distinte. La soluzione non integrata evidenzia nel medio periodo e soprattutto in fase di applicazione i suoi limiti considerando anche il rischio di creare cortocircuiti.
Conclusioni - L’approccio dell’AI Act, integrato con il GDPR, spinge le organizzazioni verso una maggiore responsabilità condivisa nella gestione dei sistemi di intelligenza artificiale.
Tra i temi da considerare anche gli indicenti che coinvolgono dati personali. Si tratta non solo di un problema di sicurezza informatica, ma un evento complesso, che tocca i diritti fondamentali e la fiducia posta nell’uso delle soluzioni di AI.
La chiave, per poter fornire maggiori sicurezze alle parti interessate sta in misure proattive che impongono di sviluppare sistemi “by design” conformi, condurre valutazioni di impatto congiunte (AI e privacy) e in misure reattive (post-incidente) per assicurare, in caso di evento critico una risposta coordinata.







