NEWS

Etica artificiale: chi decide cosa è giusto in un mondo governato da algoritmi

Se parliamo di etica dell’IA dobbiamo chiederci quanto di artificiale possa esserci nell’etica di un’intelligenza che viene proclamata come artificiale. Senza scendere troppo nell’analisi di quanto l’IA possa effettivamente definirsi un’intelligenza, dobbiamo chiederci cosa e quanto di artificiale possa esserci, e cosa e quanto di etico possa esserci di conseguenza.

(Stefano Marzocchi, Data Protection Officer dell'Agenzia per la Cybersicurezza Nazionale, speaker al Privacy Day Forum 2025)

Sappiamo oggi che non è nemmeno possibile parlare tout court di intelligenza e che sarebbe meglio prima identificare e descrivere le varie intelligenze che possiamo osservare e distinguere nel mondo che ci circonda, ma se questo richiede un’attenta analisi, tale sforzo non è nemmeno richiesto per comprendere l’enorme varietà di etiche diverse che ci circondano, basta guardare al recente evolversi dello scenario geopolitico.

Possono due contendenti avere entrambi ragione? Sì, se la loro etica è diversa e se entrambi sono convinti di perseguirla in maniera corretta. Allora già questo è un campanello di allarme, effettivamente perseguire rettamente una data etica può portare a quello che io osservatore posso considerare un comportamento eticamente scorretto, magari perché quella data etica è diversa dalla mia.

Lo scontro però è un osservatorio privilegiato per accorgerci delle differenze che intercorrono tra due o più etiche, ma se quello scontro non c’è, o non ancora, come posso prepararmi ad esso e prevenirlo? Etica e cultura viaggiano a braccetto e per conoscere una determinata etica di una determinata popolazione in un determinato momento storico è indispensabile studiarne la cultura. Ma se parliamo di macchine, agglomerati ferrosi mossi da un’istruzione esogena, come trovo la loro etica?

Chi si occupa di privacy e protezione dei dati personali, due diritti che nell’Unione europea sono considerati da molti anni fondamentali, diritti dell’uomo (quindi di tutti gli uomini), sa che la recente codificazione estesa di quei diritti, il GDPR, è ad oggi la norma europea che ha avuto un effetto più dirompente a livello mondiale, la più imitata e quella che ha ricevuto la maggior parte di obiezioni e di emendamenti (oltre 4.000), tutti provenienti dai rappresentanti di culture, e quindi di etiche, che poco hanno da spartire con la nostra e che non riconoscono quei diritti come fondamentali (e, soprattutto, non dell’uomo in generale).

Questa norma ha cambiato la postura di quasi tutte le nazioni del globo tranne due, gli Stati Uniti (da cui proveniva la maggior parte di quelle obiezioni) e la Cina, che si sono discostati da essa in maniera affatto differente: i primi ignorandola e sbeffeggiandola, i secondi imitandone la forma ma discostandone diametralmente dalla sostanza; e questo deve farci riflettere, perché proprio quei due paesi sono quelli che oggi stanno investendo di più nello sviluppo dell’intelligenza artificiale.

Questo vuole dire che, ad oggi, quell’informazione esogena che diventerà l’etica delle macchine intorno a noi viene dei medesimi paesi che non riconoscono i nostri stessi diritti, o alcuni di essi, come fondamentali.

Oggi parliamo moltissimo di intelligenza artificiale ma sappiamo anche che il concetto, l’idea di fondo che ne sta alla base e che nella sostanza non è ad oggi nemmeno mutata radicalmente, è nata nella metà degli anni cinquanta del secolo scorso, 70 anni fa, e già allora si parlava di macchine inferenti. Vuol dire che ricavavano qualcosa, e oggi possiamo dire qualcosa di nuovo se parliamo intelligenza artificiale generativa, da quello che gli veniva somministrato o che potevano raccogliere o osservare.

Oggi i risultati stupefacenti a cui ChatGPT ci ha abituato negli ultimissimi anni non sono che il frutto del livello raggiunto dalle due componenti di questa capacità di inferenza: la mole di dati e la potenza di calcolo. Ogni anno generiamo il doppio dei dati che sono stati prodotti dall’umanità fino all’anno precedente, è una mole di informazioni inimmaginabile e disponiamo oggi di macchine che possono effettivamente analizzare questi dati in tempi che fino a pochi anni fa erano impensabili. Avendo così tanti dati è tecnicamente possibile inferire un’inimmaginabile quantità di informazioni, anche a livello predittivo.

Ma questa inferenza non è necessariamente effetto di un’intelligenza, ma semplicemente di un’analisi statistica, una disciplina che già in partenza rinuncia alla ricerca delle verità assolute, delle leggi immutabili, ma si accontenta e si giova delle ricorrenze. Per decenni i programmatori si sono affannati nella realizzazione del traduttore perfetto, quello che fosse indistinguibile dal perfetto linguista, e per decenni si sono affidati ai migliori linguisti per emulare sé stessi fino a che, stanchi di non riuscire a progredire oltre una certa soglia (ancora caratterizzata da risultati discutibili), hanno licenziato i linguisti e hanno assunto matematici, per la precisione statistici; di colpo le traduzioni sono migliorate fino giungere a livelli umanamente inarrivabili.

Oggi con lo stesso principio possiamo chiedere a un LLM di comporre una poesia in aramaico e lui lo farà, ma non perché conosca l’aramaico, non ha la minima idea della portata significativa dei termini che utilizza, ma perché ha letto tutto quanto è a nostra disposizione in ogni parte del mondo, e con quel rastrello ha immagazzinato una tale mole di ricorrenze che, inferendo da esse, può somministrarci qualcosa di apparentemente creativo. Semplicemente unendo i tasselli del puzzle. Questo è inutile? Tutt’altro, tant’ è vero che disponiamo ora di tradizioni eccellenti, ed in alcuni ambiti ci permette di arrivare a traguardi che altrimenti sarebbe impossibile persino ipotizzare.

Pensiamo a discipline dove la casistica è essenziale, dove quindi la statistica sguazza per sua stessa natura; pensiamo alla medicina, dove le leggi immutabili sono ben rare. L’IA vive di casistica e quindi abbiamo visto progressi nel medicale che non nessuno osava sperare. Ma un conto è un’inferenza che guidi nella decisione, un altro è prendere quella decisione. Una decisione non solo presuppone una possibile scelta ma anche una precisa scala di valori.

Ha senso un’operazione rischiosa ed invalidante su di un anziano che potrebbe vedere la sua qualità di vita peggiorare notevolmente a seguito dell’operazione stessa? Queste decisioni presuppongono dei valori condivisi, una determinata cultura condivisa. Ben venga una serie di sensori predittivi che permettano al guidatore di un’auto di avere il pericolo segnalato molto prima che si presenti l’emergenza, ma poi chi prende la decisione in base a quel pericolo? In base a quale scala di valori? Vogliamo che l’intelligenza non intelligenza determini autonomamente i suoi valori in base alla casistica? Ricavata da cosa poi? Penso che nessuno lo vorrebbe.

Allora questa scala di valori sarà necessariamente esogena. Ma allora da chi viene? Abbiamo detto che ogni cultura ha la sua etica, e allora quale etica verrà messa dentro la mia macchina a guida autonoma? Quella europea dove ad un bambino è assegnata un’importanza primaria, o magari l’etica di certi paesi orientali dove tale importanza spetterebbe ad un anziano o ad un animale ritenuto sacro? Siamo sicuri che determinate scelte basate sulla casistica siano eticamente accettabili nel contesto in cui viviamo, che magari si colloca a migliaia di chilometri da dove quelle istruzioni sono stage immesse nel codice etico della macchina?

Pensiamo al triage di un ospedale e quanto diverse possono essere le politiche di assegnazione delle priorità di intervento: interveniamo prima nei casi più gravi (scelta maggioritaria nei paesi UE) o in quelli dove è maggiore la possibilità di salvare il paziente (scelta di alcuni ordinamenti, anche nell’UE)? Anche limitandoci alle analisi predittive, siamo sicuri che quelle informazioni dovremmo saperle, e ancor più potremmo usarle? Pensiamo alla anamnesi familiari come screening predittivo delle varie patologie e a quanto poco etico potrebbe essere un loro indiscriminato utilizzo. Siamo sicuri che vogliamo questo?

Uno dei principi fondamentali dell’etica che il GDPR racchiude è la prevedibilità delle operazioni che vengono fatte sul dato. Gli articoli 13 e 22 del GDPR molti anni prima del fenomeno ChatGPT si preoccupavano delle decisioni automatizzate, prevedendo che l’algoritmo sia conoscibile e che ci sia sempre la possibilità di optare per l’intervento umano in quelle occasioni dove la decisone automatizzata ha un effetto materiale sui diritti e sulle libertà del soggetto.

Ma qui parliamo di conoscibilità di un codice che ad oggi, pensiamo ad una macchina a guida autonoma, è molto più lungo del manuale di manutenzione di un 747 (che consta di circa 100.000 pagine), un codice scritto da migliaia di persone diverse e oggi anche in buona parte dalla macchina stessa, cosa posso mai conoscere di qualcosa che si annida lì dentro? E soprattutto, che intervento umano posso chiedere ad una macchina che deve decidere da che parte andare?

Note sull'Autore

Marzocchi Stefano Marzocchi Stefano

Data Protection Officer dell'Agenzia per la Cybersicurezza Nazionale. Web: www.acn.gov.it

Prev Le certificazioni di AICA per rispondere alle sfide dell’innovazione
Next Le sfide della digitalizzazione: l’approccio multi-compliance come fattore strategico

Il furto d'identità con l'intelligenza artificiale

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy