Utilizzo dell’intelligenza artificiale in ambito sanitario: la posizione del Garante italiano
Prima ancora che venisse adottato il Regolamento sull’IA (Artificial Intelligence Act) e fosse all’esame del Parlamento un disegno di legge sull’IA, nel 2023 il Garante per la protezione dei dati italiano ha adottato un Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale, all’interno del quale, anche alla luce della giurisprudenza del Consiglio di Stato, tra i principi cardine che devono governare l’utilizzo di algoritmi e di strumenti di IA nell’esecuzione di compiti di rilevante interesse pubblico in ambito sanitario, è stato evidenziato quello di non esclusività della decisione algoritmica.
(Nella foto: Nella foto: Silvia Melchionna, funzionario direttivo dell'Autorità Garante, speaker al Privacy Symposium 2025)
Secondo tale principio deve comunque esistere nel settore sanitario un intervento umano qualificato nel processo decisionale, volto a controllare, validare ovvero smentire la decisione automatica sulla base di conoscenze tecnico scientifiche (c.d. “human in the loop”).
Considerato che l’IA amplia significativamente la quantità di previsioni effettuabili in ambito clinico e di governo sanitario, a cominciare dalle correlazioni tra i dati, è necessario considerare by design che affidare solo alle macchine il compito di prendere decisioni sulla base di dati, elaborati mediante sistemi di IA, comporta rischi per i diritti e le libertà delle persone; i c.d. rischi di discriminazione algoritmica che in ambito sanitario possono incidere anche in modo significativo sull’equità e sull’inclusività alle cure, potendo potenzialmente aumentare il divario e le disuguaglianze socio sanitarie.

Come confermato anche dalle disposizioni unionali e attualmente presenti nel dibattito legislativo italiano è necessario che i sistemi di IA in sanità assicurino una supervisione altamente qualificata, al fine di assicurare il rispetto del diritto di non essere assoggettato a una decisione basata esclusivamente su un trattamento automatizzato.
Ciò, non è fondamentale solo nella fase dell’utilizzo dei sistemi di IA, ma anche in quella di addestramento, in quanto la correttezza nella predizione della IA, soprattutto qualora correlata al rischio di sviluppare malattie, è proporzionale al numero, alla qualità e all’accuratezza dei dati inseriti e alle esperienze immagazzinate su un determinato tema.
di Silvia Melchionna, Funzionario direttivo del Garante per la protezione dei dati personali







