Telecamere urbane e intelligenza artificiale: offuscare i volti non basta per tutelare la privacy
Secondo il Garante per la protezione dei dati personali (Provvedimento del 10 aprile 2025), l’impiego di tecnologie basate sull’Intelligenza Artificiale per "annebbiare" i volti rilevati dalle telecamere urbane non garantisce una reale anonimizzazione.
![]()
L’Autorità ha chiarito che anche i video sottoposti a processi di oscuramento facciale devono comunque essere considerati come dati personali, con tutte le implicazioni in termini di tutela della privacy.
Il concetto di identificabilità non si limita, infatti, alla possibilità di risalire a un nome o a un indirizzo: anche elementi come la corporatura, l’abbigliamento, la postura o l’ambiente circostante possono rendere una persona riconoscibile. A questo si aggiunge che le immagini possono essere associate ad altre informazioni disponibili da terzi (come notizie di cronaca o testimonianze), o ricavabili semplicemente dalla posizione della telecamera – ad esempio nei pressi di uno studio medico – o dal tracciamento dei movimenti tra più punti di sorveglianza.
Il caso esaminato dall’Autorità prende le mosse da un articolo di stampa che segnalava l’installazione, da parte dell'Agenzia Mobilità Ambiente e Territorio S.r.l. (AMAT), società in house partecipata al 100% dal Comune di Milano, di un sistema di sorveglianza in grado di monitorare il traffico urbano in tutte le sue forme: non solo auto e veicoli a motore con targa, ma anche pedoni, ciclisti, monopattini e altri mezzi della cosiddetta “mobilità alternativa”.
Il sistema, basato su IA, intendeva raccogliere dati utili per la pianificazione del traffico, in risposta a un acceso dibattito cittadino sul tema.
L’ente responsabile aveva sostenuto che il sistema fosse perfettamente conforme ai principi di tutela della privacy, in quanto i filmati non registravano né volti né targhe. Tuttavia, questa interpretazione non è stata condivisa dal Garante.
È principio consolidato che l’immagine del volto costituisca un dato personale, e che la sua registrazione rappresenti, a tutti gli effetti, un trattamento di dati, anche nel caso in cui il soggetto non venga esplicitamente identificato dal titolare del trattamento. È sufficiente che l’identificazione sia astrattamente possibile, anche solo incrociando l'immagine con banche dati accessibili o con informazioni disponibili online, come quelle sui social network.
Il trattamento esiste, dunque, anche quando le immagini sono acquisite per pochi istanti e vengono elaborate da un sistema automatizzato senza intervento umano. Non è corretto sostenere, come fatto dall’Agenzia coinvolta, che il volto venga semplicemente trasformato in una “forma” o letto come input per un algoritmo che restituisce un dato statistico. Per arrivare a questa trasformazione, infatti, l’immagine deve comunque essere acquisita in chiaro, almeno in una fase iniziale.
Secondo il Garante, solo quando un dato non consente in alcun modo di risalire, nemmeno indirettamente, all’identità di una persona – tenendo conto di tutte le risorse e tecnologie disponibili – può dirsi davvero anonimo.
Alla luce di ciò, l’Autorità ha concluso che i filmati acquisiti dalle telecamere e analizzati con strumenti di Intelligenza Artificiale, anche se i volti risultano offuscati, rientrano nella categoria dei dati personali e sono quindi soggetti a tutte le tutele previste dalla normativa in materia di privacy.
L'agenzia aveva peraltro fatto redigere la valutazione d’impatto sulla protezione dei dati al proprio Data Protection Officer, mettendolo quindi in una situazione di conflitto d’interessi in violazione dell’art. 38, par. 6, del GDPR, e anche per questo è stata sanzionata dal Garante.






