NEWS

Via libera dal Parlamento UE al nuovo regolamento sull’Intelligenza Artificiale

Con 499 voti favorevoli, 28 contrari, e 93 astenuti, in data 14 giugno 2023 il Parlamento Europeo ha approvato a Strasburgo l'Artificial Intelligence Act, il nuovo regolamento sull’Intelligenza Artificiale.

Via libera dal Parlamento UE al nuovo regolamento sull’Intelligenza Artificiale

Nell'aprile 2021 la Commissione europea aveva proposto il primo quadro normativo dell'UE per i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni, analizzandoli e classificandoli in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio individuati comporteranno più o meno regolamentazione. Una volta approvate definitivamente, si tratterà delle prime regole al mondo sull'IA.

La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati dalle persone,piuttosto che dall'automazione, in modo da prevenire esiti dannosi.

Le nuove regole sull'intelligenza artificiale mirano a stabilire obblighi per fornitori e utenti a seconda del livello di rischio, che può essere considerato “inaccettabile”, “alto”, oppure “limitato”. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, dovranno essere comunque valutati.

Il Parlamento UE ha votato il nuovo regolamento sull’Intelligenza Artificiale

Rischio inaccettabile - I sistemi di intelligenza artificiale che comportano un rischio inaccettabile, sono quei sistemi considerati una minaccia per le persone e saranno vietati.

Questo livello di rischio include:

- Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini
- Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali

- Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale
Potranno essere consentite alcune eccezioni, come ad esempio i sistemi di identificazione biometrica remota in cui l'identificazione avviene con un ritardo significativo, e questi potranno essere autorizzati per perseguire reati gravi, ma solo dopo l'approvazione del tribunale.

Rischio alto – I sistemi di IA che comportano invece un rischio alto, sono quelli che incidono negativamente sulla sicurezza o sui diritti fondamentali, e saranno suddivisi in due categorie:

1) Sistemi di intelligenza artificiale utilizzati nei prodotti soggetti alla legislazione dell'UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) Sistemi di IA che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell'UE:

- Identificazione biometrica e categorizzazione delle persone fisiche
- Gestione e funzionamento delle infrastrutture critiche
- Istruzione e formazione professionale
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
- Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici
- Applicazione della legge
- Migrazione, asilo e gestione dei controlli alle frontiere
- Assistenza nell'interpretazione giuridica e nell'applicazione della legge.

Tutti i sistemi di Intelligenza Artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

L'IA generativa, come ChatGPT, dovrebbe rispettare i requisiti di trasparenza:

- Rivelare che il contenuto è stato generato dall'intelligenza artificiale
- Progettare il modello per evitare che generi contenuti illegali
- Pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione

Rischio limitato - Infine, i sistemi di Intelligenza Artificiale che comportano un rischio limitato dovrebbero comunque rispettare requisiti minimi di trasparenza che consentiranno agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente potrà quindi decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.

Dopo la votazione della posizione negoziale del Parlamento avvenuta il 14 giugno 2023, adesso inizieranno subito i negoziati interistituzionali con il Consiglio europeo per arrivare alla versione finale della normativa con l’obiettivo di raggiungere un accordo definitivo entro la fine di quest'anno.

Note Autore

FederPrivacy FederPrivacy

Federprivacy è la principale associazione di riferimento in Italia dei professionisti della privacy e della protezione dei dati personali, iscritta presso il Ministero dello Sviluppo Economico ai sensi della Legge 4/2013. Email: [email protected] 

Prev Data breach: esercitare il fattore umano prima della prova sul campo
Next Calcolo delle sanzioni per le violazioni del GDPR: disamina delle Linee Guida EDPB 4/2022

Cyber e Privacy Forum 2023, il trailer dell'evento

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy