NEWS

Intelligenza Artificiale, un approccio standardizzato e unificato con la Norma ISO 42001:2023 e la terminologia della ISO 22989

Nel panorama tecnologico, i sistemi di Intelligenza artificiale (AI) o con una componente di AI sono diventati sempre più diffusi in vari settori (sanità, produzione, risorse umane, finanza, trasporti, ecc.). Tuttavia, lo sviluppo e l’uso responsabili dei sistemi di AI sono fondamentali per affrontare potenziali preoccupazioni etiche e garantire la protezione degli individui e della società nel suo insieme.

Intelligenza Artificiale, un approccio standardizzato e unificato con la Norma ISO 42001:2023 e la terminologia della ISO 22989

I sistemi di AI sono “sistemi ingegnerizzati che generano output come contenuti, previsioni, raccomandazioni o decisioni per un dato insieme di obiettivi definito dall’uomo e con diversi livelli di automazione”; essi devono quindi risultare “affidabili”. L'affidabilità dei sistemi di AI si riferisce alla loro capacità di soddisfare le aspettative delle parti interessate. Questo implica che i sistemi di AI:

- siano progettati e convalidati in conformità con le norme più avanzate;
- siano allineati agli obiettivi delle parti interessate;
- siano chiaramente identificate le responsabilità dei vari soggetti coinvolti;
- siano considerate le preoccupazioni, anche a livello territoriale/di cluster di destinatari durante lo sviluppo e la gestione.

Per soddisfare quanto sopra viene incontro la norma ISO/IEC 42001:2023 che fornisce un quadro completo per la gestione dei sistemi di intelligenza artificiale, fornendo misure per affrontare elementi chiave come:

- la distorsione e l'equità - per evitare la differenza sistematica nel trattamento di determinati soggetti o gruppi rispetto ad altri (bias);
- la controllabilità - per consentire agli agenti esterni di intervenire nel suo funzionamento;
- la spiegabilità - per comprendere i fattori che influenzano le decisioni dell'IA;
- la prevedibilità – per garantire ipotesi attendibili da parte delle parti interessate gli output generati;
- l'affidabilità - elemento cruciale del sistema per fornire previsioni, raccomandazioni e decisioni coerenti e corrette del funzionamento del sistema di AI;
- la resilienza - la capacità del sistema di ripristinare rapidamente le condizioni operative dopo un incidente;
- la robustezza – la capacità di mantenere le prestazioni richieste in varie circostanze, incluso il funzionamento in condizioni ambientali complesse;
- la trasparenza – per garantire che le attività e le decisioni di un’organizzazione appropriate siano comunicate ala parti interessate in modo completo, accessibile e comprensibile.

Applicando i requisiti ed i controlli previsti dalla norma ISO/IEC 42001:2023, le organizzazioni possono affrontare efficacemente le complessità dell’intelligenza artificiale e garantire che i loro sistemi di intelligenza artificiale siano sviluppati e utilizzati in modo responsabile.

Ing. Monica Perego

(Nella foto: l'Ing. Monica Perego, docente al Corso "Intelligenza artificiale: introduzione ai concetti, termini e misure dell’AI ISO 42001:2023")

Ma per comprendere appieno i concetti, i requisiti ed in controlli alla base della ISO/IEC 42001:2023 è necessario partire dalla terminologia per un approccio standardizzato e unificato. A tal fine ci viene in aiuto la ISO/IEC 22989 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology, lo standard IEC e ISO sulla terminologia dell’intelligenza artificiale. Attraverso questo documento è possibile condividere un set di termini il cui uso garantisce chiarezza, coerenza e accuratezza nella comunicazione tra vari soggetti e favorire una regolamentazione più efficace.

Si pensi a tal proposito a quanto la ISO 9001 è stata preziosa per uniformare la terminologia a vantaggio dei rapporti tra clienti e fornitori e più in generale favorendo una collaborazione efficaci tra le varie parti interessate. Oggi il vocabolario che la ISO 9001 ha delineato ci risulta scontato, così non era di certo quando nel lontano 1986 venne pubblicata per la prima volta la ISO 8402:1986 “Quality – Vocabulary”.

Il documento istituisce il glossario relativo all'intelligenza artificiale (IA) e espone i principali concetti in questo ambito. È progettato per essere utilizzato come riferimento nello sviluppo di ulteriori direttive e per agevolare la comunicazione tra le varie parti coinvolte o portatori di interesse. La sua portata è universale, applicabile a una vasta gamma di organizzazioni, incluse le imprese commerciali, le agenzie governative e le organizzazioni non profit.

Il documento è disponibile gratuitamente e vista la sua importanza questo non è da considerarsi un caso ma una volontà dell’ente normatore di condividere il più possibile i sui contenuti. La struttura del documento prevede, tra gli altri di seguenti capitoli:

- capitolo 3 - “Termini e definizioni” relativi all’AI, ai dati, all’apprendimento automatico, alle reti neurali, all’affidabilità, all’elaborazione del linguaggio naturale, alla visione artificiale;
- capitolo 5 - “Concetti di intelligenza artificiale” che affrontano tematiche le più varie tra le quali il paradigma dell’agente, la conoscenza, l’apprendimento, gli algoritmi di machine learning, l’internet delle cose, la verifica e validazione dell’AI, le questioni giurisdizionali, ecc.;
- capitolo 6 – “Ciclo di vita dei sistemi di AI” che contempla il modello del ciclo di vita, le fasi ed i processi del ciclo di vita di un sistema di AI;
- capitolo 7 – “Panoramica funzionale del sistema di AI” che approfondisce le tematiche quali ad esempio i dati e le informazioni, conoscenza ed apprendimento;
- capitolo 8 – “Ecosistema AI” sviluppa i temi dei sistemi e delle funzioni di AI puntando il focus sugli elementi che costituiscono un sistema di AI, attraverso l’analisi dei concetti illustrati nel capitolo si comprende come interagiscono tra di loro le componenti dell’AI;
- capitolo 9 – “Campi dell’AI” tratta degli aspetti relativi al riconoscimento delle immagini, all’elaborazione del linguaggio naturale ed all’estrazione dei dati;
- capitolo 10 – “Applicazioni dei sistemi di AI” affronta i vari campi in ci si possono sviluppare applicazioni di AI o con una componente di AI.

La ISO/IEC 22989 fornisce un quadro comune per discutere e valutare sia questioni pratiche come la definizione di “sistema esperto”, “algoritmo genetico”, sia le questioni etiche nello sviluppo dell'AI definendo termini come "bias", "equità" e "impatto sociale".

Attraverso i contenuti del documento si giunge, infatti, ad un quadro standardizzato per facilitare la comunicazione chiara e inequivocabile sui sistemi di AI e le loro implicazioni etiche. Questo framework può fornire una base comune per le discussioni e aiutare a stabilire linee guida e regolamenti pertinenti. La standardizzazione può contribuire a garantire che le diverse parti interessate, tra cui sviluppatori, ricercatori, legislatori e il pubblico in generale, diano un significato comune ai concetti ed ai principi fondamentali relativi all'AI e alla sua implementazione. Questo, a sua volta, può favorire una maggiore trasparenza, responsabilità e fiducia nell'uso dell'AI.

La ISO/IEC 22989 assume quindi un ruolo di estrema importanza nel contesto dell'intelligenza artificiale, fornendo un vocabolario comune e standardizzato per discutere e affrontare le questioni relative a questa tecnologia. Questa standardizzazione della terminologia permette a chi deve prendere decisioni, a tutti i livelli, una migliore comprensione delle complessità connesse all'IA e supportando la formulazione di regolamentazioni informate, chiare e ponderate. Senza un linguaggio comune, i responsabili e gli operatori rischiano di trovarsi in gravi difficoltà per prendere decisioni efficaci e nel creare normative appropriate e garantire coerenza e armonizzazione. Inoltre viene favorita la anche quando si integrano componenti basati sull'IA in sistemi o piattaforme differenti. Ciò è necessario anche per promuove la trasparenza e comprendere le motivazioni alla base di determinate decisioni dall'IA.

La trasparenza è un elemento cruciale per promuovere la fiducia e la responsabilità nell'uso dell'AI. Gli utenti devono poter comprendere il funzionamento dei sistemi di AI e confidare che tali sistemi agiscano in modo etico e responsabile. L'adozione di una terminologia standardizzata e la promozione della trasparenza contribuiscono quindi a garantire che l'AI sia utilizzata in modo sicuro ed efficace, nel rispetto dei valori etici e delle normative pertinenti.

Conclusione - La ISO/IEC 22989:2022 traccia quindi non solo i requisiti tecnici ma anche quelli di respiro più ampio come quelli che impattano sulle organizzazioni, presentano un risvolto politico e normativo fino ad affrontare problematiche di carattere etico e sociale. La ISO/IEC 42001:2023 fornisce invece, attraverso il modello oramai consolidato del sistema di gestione, gli elementi chiave per implementare un processo che tenga conto delle implicazioni connesse all’intelligenza artificiale e, attraverso una rete strutturata di controlli, fornisca delle risposte alle reali preoccupazioni su potenziali pregiudizi, equità e impatto sociale che comportano i sistemi di AI.

Note Autore

Monica Perego Monica Perego

Membro del Comitato Scientifico di Federprivacy, docente qualificato TÜV Italia e docente del Master per Esperto Privacy e del Corso di alta formazione per Data Manager - Twitter: monica_perego

Prev Dossier, intercettazioni, fughe di notizie. Un po’ di ordine nel caos d’informazioni
Next Approvato l’Artificial Intelligence Act: adesso inizia la vera sfida etica

Privacy Day Forum 2023: il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy