NEWS

L’intelligenza artificiale al servizio dell’emergenza sanitaria da Covid-19

Stiamo vivendo un momento storico davvero particolare in cui, a fronte dell’eccezionalità della situazione, alle regole sul trattamento dati viene chiesto di fare “un passo indietro” in virtù della prevalenza di interessi meritevoli di una tutela maggiorata. Certo non bisogna dimenticare che le esigenze di ricerca (medica e non solo) non possono pregiudicare a tutti i costi i diritti dei singoli, e pertanto vanno contemperate con altri interessi sulla base del c.d. principio del balance test.


Un sistema di intelligenza artificiale applicato alla ricerca medica ha la potenzialità di essere in grado di fare diagnosi, scovare vaccini o individuare un’epidemia e, pertanto, spianerebbe la strada ad una e-Health fortemente avanzata.

Posto che il ricorso ai big data è già realtà, ad oggi la sfida è quindi il passaggio da una mole enorme di dati ai cd. smart data, ovvero puntare alla qualità dei database perché solo dati accuratamente selezionati, acquisiti e gestiti correttamente, mediante procedure che rispettino ex multis anche i principi di privacy by design e by default, saranno in grado di produrre evidenze valide che permettano a loro volta – proprio in virtù delle procedure e dei processi di selezione applicati sin dall’origine - di ridurre al minimo il rischio di errore.

Ma in che modo l’AI può esserci concretamente d’aiuto in caso di emergenze sanitarie?


Gli ambiti che più di altri potrebbero beneficiare dell’applicazione di intelligenze artificiali si possono ricondurre sostanzialmente a quattro, ossia: predittività, diagnosi precoce, trattamento e business intelligence.

L’analisi delle differenti applicazioni pratiche (servizi, chatbot, piattaforme, app e telemedicina) dell’AI in questi campi, porta alla ribalta il diritto di ingerenza delle norme e dei profili in ambito privacy, sul risk assessment, delle possibili responsabilità derivanti dall’utilizzo dell’intelligenza artificiale e del grado di attendibilità delle informazioni elaborate da strumenti “intelligenti”.

Nonostante l’incredibile valore aggiunto che l’AI sta dimostrando di poter apportare a svariati livelli, è giusto rilevare come riporre troppa fiducia nei sistemi di intelligenza artificiale, soprattutto in un momento storico in cui tali progetti sono in una fase meramente iniziale, sia rischioso nella misura in cui potrebbe portare a decisioni frettolose non supportate da sufficienti e comprovate basi medico-scientifiche.

Non bisogna dimenticare, infine, che a tutto ciò si affiancano i profili di responsabilità in ambito privacy, poiché - come ovvio – nell’era dei big data, algoritmi e intelligenze artificiali vivono di dati, anche (o soprattutto) personali e particolari di persone fisiche, con tutto ciò che ne può derivare sotto i profili etici, risarcitori e di danno, anche reputazionale.

Le domande basilari che bisognerà, dunque, porsi sono: “Stiamo costruendo il sistema giusto”, “lo stiamo costruendo nella maniera corretta?”.

Note Autore

Anna Capoluongo Anna Capoluongo

Data Protection Officer, Docente a contratto “Aspetti legali, deontologici e privacy in psicologia” - Sigmund Freud University campus di Milano - Avvocato del Foro di Milano - Web: www.studiolegalecapoluongo.eu

Prev Le app anti Covid-19 millantano volontarietà
Next Sulla lotta ai contagi da Covid-19 serve un'alleanza tecnologica con le imprese

Privacy Day Forum 2024: il servizio di Ansa

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
I agree with the Privacy e Termini di Utilizzo