NEWS

Sicurezza economica UE: Intelligenza Artificiale e tecnologie quantistiche ritenute 'settori critici' anche per la tutela dei diritti umani

La Commissione europea ha adottato il 3 ottobre scorso una raccomandazione sui settori tecnologici critici per la sicurezza economica dell'UE, ai fini di un'ulteriore valutazione dei rischi con gli Stati membri. La raccomandazione trae origine dalla comunicazione congiunta su una strategia europea per la sicurezza economica, che ha definito un approccio strategico globale alla sicurezza economica nell'UE.

Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy

(Nella foto: l'Avv. Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy)

La strategia propone di effettuare una valutazione approfondita dei rischi per la sicurezza economica in quattro settori:

- i rischi per la resilienza delle catene di approvvigionamento, compresa la sicurezza energetica;
- i rischi per la sicurezza fisica e la cibersicurezza delle infrastrutture critiche;
- i rischi connessi alla sicurezza tecnologica e a fughe tecnologiche;
- i rischi di strumentalizzazione delle dipendenze economiche o di coercizione economica.

La strategia propone una metodologia per la valutazione dei rischi che dovrebbe essere effettuata dalla Commissione e dagli Stati membri in cooperazione con l'Alto rappresentante, se necessario, e con il contributo del settore privato. Dovrebbe trattarsi di un processo dinamico e continuo.

La stessa strategia delinea anche le modalità per ridurre i rischi individuati mediante un approccio in tre fasi:

- promozione della competitività dell'UE mediante il rafforzamento del mercato unico, il sostegno per un'economia forte e resiliente, gli investimenti in competenze e la promozione della base industriale, tecnologica e di ricerca dell'UE;
- protezione della sicurezza economica dell'UE attraverso una serie di politiche e strumenti esistenti, e la considerazione di nuovi strumenti e politiche per colmare eventuali lacune. Questo avverrebbe in modo proporzionato e preciso per limitare ripercussioni negative involontarie sull'economia europea e mondiale;
- partenariati con il numero più elevato possibile di partner per rafforzare la sicurezza economica, anche attraverso la promozione e la conclusione di accordi commerciali, il rinnovamento di altri partenariati e il rafforzamento dell'ordine economico internazionale basato su regole e le istituzioni multilaterali, come l'Organizzazione mondiale del commercio, nonché l'investimento nello sviluppo sostenibile mediante la strategia "Global Gateway".

Intelligenza Artificiale ritenuta settore critico anche con riferimento alla tutela dei diritti umani

La raccomandazione, in particolare, riguarda la valutazione di uno dei quattro tipi di rischio individuato nell'ambito di tale approccio globale, ossia il rischio tecnologico e la fuga di tecnologie. La valutazione dei rischi avrà carattere oggettivo e in questa fase non è possibile prevederne i risultati né le misure di follow-up.

Nella raccomandazione la Commissione presenta un elenco di dieci settori tecnologici critici. Tali settori tecnologici sono stati selezionati sulla base dei seguenti criteri:

- la natura abilitante e trasformativa della tecnologia: il potenziale e la pertinenza delle tecnologie per l'ottenimento di aumenti significativi delle prestazioni e dell'efficienza e/o di cambiamenti radicali per settori, capacità, ecc.;
- il rischio di fusione militare e civile: la pertinenza delle tecnologie per i settori civile e militare e il suo potenziale per l'avanzamento di entrambi i settori, nonché il rischio di utilizzo di determinate tecnologie per minare la pace e la sicurezza;
- il rischio che la tecnologia possa essere utilizzata per violazioni dei diritti umani: un potenziale uso improprio delle tecnologie per violazioni dei diritti umani, compresa la limitazione delle libertà fondamentali.
Dei dieci settori tecnologici critici, la raccomandazione individua quattro settori tecnologici che si ritiene abbiano un'elevata probabilità di presentare i rischi più sensibili e immediati connessi alla sicurezza tecnologica e alla fuga di tecnologie:
- tecnologie di semiconduttori avanzati (microelettronica, fotonica, chip ad alta frequenza, apparecchiature per la fabbricazione di semiconduttori);
- tecnologie di intelligenza artificiale (calcolo ad alte prestazioni, cloud computing ed edge computing, analisi dei dati, visione artificiale, trattamento del linguaggio, riconoscimento degli oggetti);
- tecnologie quantistiche (calcolo quantistico, crittografia quantistica, comunicazioni quantistiche, rilevamento quantistico e radar quantistico);
- biotecnologie (tecniche di modificazione genetica, nuove tecniche genomiche, gene drive, biologia sintetica).

La Commissione raccomanda che gli Stati membri, insieme alla Commissione, effettuino inizialmente, entro la fine di quest'anno, valutazioni dei rischi collettive per questi quattro settori. La raccomandazione comprende alcuni principi guida per strutturare le valutazioni dei rischi collettive, tra cui la consultazione del settore privato e la tutela della riservatezza.

Nel decidere in merito a proposte di ulteriori valutazioni con gli Stati membri su uno o più dei settori tecnologici supplementari tra quelli elencati, o sottoinsiemi di tali settori, la Commissione terrà conto delle azioni in corso o previste finalizzate alla promozione o ai partenariati nel settore tecnologico in esame. Più in generale, la Commissione terrà presente che le misure adottate per rafforzare la competitività dell'UE nei settori pertinenti possono contribuire a ridurre determinati rischi tecnologici.

E’ prevista comunque una piena collaborazione della Commissione con gli Stati membri, attraverso gli opportuni consessi di esperti, per avviare le valutazioni del rischio.

Inoltre la Commissione avvierà un dialogo aperto con gli Stati membri sul calendario e la portata di ulteriori valutazioni dei rischi, tenendo conto, tra l'altro, dell'incidenza del fattore tempo sull'evoluzione dei rischi. Sarà possibile avviare ulteriori iniziative al riguardo entro la primavera del 2024, alla luce di tale dialogo e della prima esperienza acquisita con le iniziali valutazioni dei rischi collettive, nonché di ulteriori contributi che possono pervenire sui settori tecnologici elencati.

Note Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev I garanti privacy dell’UE vietano a Meta di trattare i dati degli utenti di Facebook e Instagram usando legittimo interesse e contratto come base giuridica
Next La gestione degli asset, pilastro della sicurezza dei dati e della compliance in azienda

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
I agree with the Privacy e Termini di Utilizzo