NEWS

I fondamentali requisiti dei sistemi di Intelligenza Artificiale per evitare forme di discriminazione

Come noto in una recente risoluzione adottata dal Parlamento europeo viene sottolineato come il rischio di pregiudizi algoritmici nelle applicazioni che usano l’Intelligenza Artificiale (IA) può provocare forme di sorveglianza di massa e diventa quindi fondamentale la supervisione umana e un chiaro quadro giuridico per prevenire gravi discriminazioni, soprattutto se utilizzate dalle forze dell’ordine e di controllo delle frontiere.

Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy

(Nella foto: Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy)

In effetti nella stessa recente proposta di Regolamento UE sull’IA la Commissione europea ritiene che tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso, inoltre, è soggetto all'autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

Tutti i sistemi di riconoscimento delle emozioni e di categorizzazione biometrica saranno infine sempre soggetti a specifici requisiti di trasparenza. Saranno anch'essi considerati applicazioni ad alto rischio se rientrano nei casi d'uso che li identificano come tali, ad esempio nei settori dell'occupazione, dell'istruzione, delle attività di contrasto, della migrazione e del controllo delle frontiere.

Non bisogna dimenticare che l'identificazione biometrica può assumere varie forme. Può essere utilizzata per l'autenticazione degli utenti, ad esempio per sbloccare uno smartphone o per le verifiche/l'autenticazione presso i valichi di frontiera nei controlli dell'identità e dei documenti di viaggio di una persona (corrispondenza "uno a uno"). L'identificazione biometrica remota potrebbe anche essere utilizzata per identificare persone nella folla, ad esempio confrontando l'immagine di una persona con quelle contenute in una banca dati (corrispondenza "uno a molti").

L'accuratezza dei sistemi per il riconoscimento facciale può variare in modo significativo in base a un'ampia gamma di fattori, quali la qualità della fotocamera, la luce, la distanza, la banca dati, l'algoritmo e l'etnia, l'età o il sesso del soggetto. Lo stesso vale per il riconoscimento vocale e dell'andatura e per altri sistemi biometrici.

Il tasso di falsi positivi dei sistemi altamente avanzati è in continua diminuzione. Un tasso di accuratezza del 99% può sembrare buono in generale, mentre è notevolmente rischioso quando può condurre a sospettare di una persona innocente. Anche un tasso di errore dello 0,1% è molto elevato se riguarda decine di migliaia di persone.

Si ricorda, inoltre, che il Gruppo Indipendente di esperti di alto livello sull’intelligenza artificiale istituito dalla Commissione Europea nel giugno 2018 nel proprio documento “orientamenti etici per un’IA affidabile” ha individuato tre componenti che dovrebbero essere sempre presenti durante l'intero ciclo di vita del sistema:

1. legalità, l'IA deve ottemperare a tutte le leggi e a tutti i regolamenti applicabili,
2. eticità, l'IA deve assicurare l'adesione a principi e valori etici, e
3. robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali.

Ciascuna di queste tre componenti è necessaria ma non sufficiente in sé per realizzare un'IA affidabile. Idealmente le tre componenti operano armonicamente e si sovrappongono; nella pratica, tuttavia, si possono creare tensioni tra di esse (ad esempio, a volte l'ambito di applicazione e il contenuto della legislazione vigente potrebbero non essere in linea con le norme etiche).

A livello europeo, nazionale e internazionale un corpus normativo giuridicamente vincolante è già in vigore o è pertinente per lo sviluppo, la distribuzione e l'utilizzo dei sistemi di IA.

Riguardo la legalità va detto che sistemi di IA non operano in un mondo senza leggi. A livello europeo, nazionale e internazionale un corpus normativo giuridicamente vincolante è già in vigore o è pertinente per lo sviluppo, la distribuzione e l'utilizzo dei sistemi di IA.

Le fonti giuridiche pertinenti sono, a titolo esemplificativo, il diritto primario dell'UE (i trattati dell'Unione europea e la sua Carta dei diritti fondamentali), il diritto derivato dell'UE (ad esempio il regolamento generale sulla protezione dei dati, le direttive antidiscriminazione, la direttiva macchine, la direttiva sulla responsabilità dei prodotti, il regolamento sulla libera circolazione dei dati non personali, il diritto dei consumatori e le direttive in materia di salute e sicurezza sul lavoro), ma anche i trattati ONU su diritti umani e le convenzioni del Consiglio d'Europa (come la Convenzione europea dei diritti dell'uomo) e numerose leggi degli Stati membri dell'UE. Oltre alle norme applicabili orizzontalmente, esistono varie norme specifiche per settore applicabili a particolari applicazioni di IA (ad esempio il regolamento sui dispositivi medici nel settore sanitario).

Inoltre per ottenere un'IA affidabile non è sufficiente il rispetto della legge, che è solo una delle tre componenti. Il diritto, come sappiamo, non è sempre al passo con gli sviluppi tecnologici, e a volte non lo è nemmeno con le norme etiche o semplicemente non è adatto ad affrontare determinate questioni. Affinché i sistemi di IA siano affidabili, essi dovrebbero quindi essere anche etici garantendo la compatibilità con le norme etiche.

Anche qualora il fine etico sia garantito, gli individui e la società devono comunque essere sicuri che i sistemi di IA non causeranno alcun danno involontario.
Tali sistemi dovrebbero funzionare in modo sicuro e affidabile e dovrebbero essere previste misure di salvaguardia per prevenire qualsiasi effetto negativo indesiderato. È quindi importante garantire che i sistemi di IA siano robusti.

Tale componente è necessaria sia da un punto di vista tecnico (garantendo la robustezza tecnica del sistema in un dato contesto, ad esempio il settore di applicazione o la fase del ciclo di vita), sia da un punto di vista sociale (tenendo in debita considerazione il contesto e l'ambiente in cui il sistema opera). L'eticità e la robustezza dell'IA sono quindi componenti strettamente correlate che si integrano a vicenda.

Note Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev Il crash di Facebook e l'insostenibile leggerezza dell'oligopolio digitale
Next Green Pass nei luoghi di lavoro, importante disporre di un piano organizzativo

Privacy Day Forum 2023: i momenti salienti

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy