NEWS

Intelligenza artificiale e pubblica amministrazione, l'ultima parola spetta ai giudici in carne e ossa

Intelligenza artificiale sotto controllo. L'intelligenza umana conserva la supremazia sui robot e le decisioni delle macchine sono contestabili davanti a un giudice umano. Lo dice il Consiglio di Stato, che, occupandosi di algoritmi e procedimento amministrativo (sentenza 2270 del'8 aprile 2019) fissa i paletti a difesa dei diritti individuali quando il decisore è un elaboratore programmato.

Quali sono le clausole della nuova «magna charta» delle libertà contro il pericolo dell'oppressione robotizzata?

Sono due e sono, la prima, la trasparenza massima su come è programmato e su come funziona il robot e, la seconda, la persistente contestabilità avanti a un essere umano delle decisioni interamente automatizzate.

La sensazione che si prova è, però, che gli uomini stiano agendo con tenera circospezione e con cautela a fronte di un fenomeno che è già in grado, ora, di sconvolgere il modo di vivere delle persone e che, in tempi ravvicinatissimi (un secolo), arriverà a un esito scontato: i robot intelligenti saranno capaci di svolgere qualsiasi attività umana, ma non perché programmati, ma perché capaci di reagire all'esterno e all'ambiente come un uomo e una donna.

Da un punto di vista dell'ordinamento giuridico, e cioè del sistema di regole sostanziali e processuali che governano i conflitti, il momento è cruciale e decisivo. In effetti l'attuale generazione di persone è destinata a fare da cavia nel laboratorio planetario in cui si sperimenta l'Intelligenza artificiale.

Ed è per questo che occorrono strumenti giuridici in grado di preservare i singoli dagli effetti collaterali dell'uso spinto delle nuove tecnologie, in un momento in cui nemmeno gli scienziati possono garantire la perfetta governabilità delle macchine, ed in un ambito in cui probabilmente questo obiettivo è di per sé insensato, perché le macchine saranno essere senzienti.

In questo quadro è possibile inserire il pensiero del Consiglio di Stato, che si propone di descrivere la cornice delle garanzie dell'uomo di fronte non più al sovrano, ma alla macchina intelligente.

Sulla linea di partenza troviamo l'affermazione per cui, nel settore di interesse di Palazzo Spada, e cioè nelle decisioni delle pubbliche amministrazioni le decisioni interamente automatizzate sono già oggi coerenti con il sistema giuridico e vanno incoraggiate, perché vantaggiose.

Quali sono i vantaggi? Sono tre: 1) la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità; 2) l'esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano); 3) la maggior garanzia di imparzialità della decisione automatizzata.

Attenzione, il Consiglio parla certamente degli elaboratori elettronici utilizzati in attività di mera classificazione automatica di istanze numerose, secondo regole predeterminate elaborate dall'uomo. E, quindi, è ancora rinviata l'analisi del rapporto con le macchine che costruiscono da se stesse i loro algoritmi, con il loro «cervello».

In ogni caso, con riferimento alle procedure definite dal Consiglio di Stato «robotizzate», Palazzo Spada pone un altolà: si devono sempre rispettare i princìpi di legge dell'attività amministrativa:

La regola algoritmica: 1) deve rispettare i principi generali di pubblicità e trasparenza, di ragionevolezza, di proporzionalità; 2) non può lasciare spazi applicativi discrezionali, di cui l'elaboratore elettronico è privo); 3) deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (la discrezionalità amministrativa non può essere demandata al software, è quindi da rintracciarsi al momento dell'elaborazione dello strumento digitale).

Come è facile notare, siamo sempre di fronte a una macchina interamente programmata e che sa agire in quanto quella determinata azione è stata prevista e disciplinata con dei comandi interni.

Non a caso la sentenza in esame aggiunge che l'amministrazione deve compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell'algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning).

E l'ultima parola la deve avere comunque il giudice, ma non un robot-giudice, un giudice umano, che deve poter valutare la correttezza del processo automatizzato in tutte le sue componenti.

E come fa il giudice umano a giudicare la decisione interamente automatizzata prodotta dal robot? La risposta passa attraverso regole di trasparenza.

Il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l'algoritmo) deve essere «conoscibile». Quindi devono essere conoscibili: i suoi autori; il procedimento usato per la sua elaborazione, il meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti.

Deve essere, soprattutto, conoscibile la «formula tecnica», che di fatto rappresenta l'algoritmo, la quale deve essere corredata da spiegazioni che la traducano nella «regola giuridica» ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice.

La regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo.

Senza tutto questo, una decisione amministrativa presa dall'algoritmo è illegittima.

Il problema è che il bilanciamento affermato dal Consiglio di stato rischia di non essere sufficiente se le azioni del robot non sono già state scritte dal programmatore, ma saranno frutto delle capacità cognitive del robot.

A dire il vero un principio giuridico esiste già, anche se in un ambito specifico (quello della privacy) ed è il diritto all'intervento umano su una decisione robotizzata: è l'articolo 22 del regolamento Ue sulla protezione dei dati (2016/679), che attende di essere sviluppato e generalizzato anche in tutti gli ambiti dell'ordinamento.

Fonte: Italia Oggi del 15 aprile 2019 - Articolo di Antonio Ciccia Messina

Note Autore

FederPrivacy FederPrivacy

Federprivacy è la principale associazione di riferimento in Italia dei professionisti della privacy e della protezione dei dati personali, iscritta presso il Ministero dello Sviluppo Economico ai sensi della Legge 4/2013. Email: [email protected] 

Prev Cassazione, giusta la sanzione del Garante Privacy alla Provincia di Foggia per diffusione di notizie sulla salute di un dipendente
Next Sim card intestate a clienti ignari, la Cassazione dà ragione al Garante sulla sanzione per omessa informativa agli interessati

Cyber e Privacy Forum 2023, il trailer dell'evento

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy