NEWS

Il diritto di dire no a chi ci chiede di rinunciare alla nostra riservatezza: non una battaglia contro la tecnologia ma una difesa della nostra privacy

L’intelligenza artificiale è sinonimo di innovazione e di progresso: una tecnologia su cui le aziende in tutto il mondo stanno investendo pesantemente per cogliere opportunità di sviluppo, esplorare nuovi mercati, intervenire sulla filiera produttiva e sui modelli organizzativi, conoscere meglio i clienti, elaborare iniziative commerciali.

Ma proprio questa nuova frontiera dell’innovazione, che promette di creare macchine con abilità pari o superiori a quelle umane grazie alle enormi capacità di calcolo, di analisi dei comportamenti e delle preferenze dei consumatori, introduce un interrogativo su come riuscire a gestire in modo diverso le nostre interazioni con il mondo digitale e su quanto sia forse preferibile evitare i rischi a cui una rinuncia alla nostra privacy può esporci.

Secondo Sam Altman, cofondatore di OpenAI, con ChatGpt e Gpt-4 sono state finora raggiunte tappe fondamentali verso un cambiamento epocale destinato a modificare, come già accaduto con le rivoluzioni industriali del passato, il corso della storia e dell’umanità. Una nobiltà di intenti che punta a sviluppare una tecnologia di facile accesso e sicura per tutti ma che, soprattutto dopo l’uscita di Elon Musk dalla compagine societaria di OpenAI, ha dovuto fare i conti con il bisogno di trovare nuovi investitori e con la conseguente necessità di modificare l’originaria natura di società non profit attraverso la costituzione di un ramo d’azienda aggiuntivo, a scopo di lucro. In attesa di individuare una forma di governance capace di conciliare queste due anime, la start up di San Francisco si è così legata a doppio filo con Microsoft che, forte di investimenti di svariati milioni di dollari, può ora vantare la licenza esclusiva per la commercializzazione dei prodotti di OpenAI (che a sua volta si è impegnata a utilizzare esclusivamente il cloud di Microsoft).

Insomma, anche l’AI generativa non sembra estranea a equilibri, giochi di potere e desiderio di generare profitti che vanno decisamente a stridere con il concetto di bene dell’umanità.

Ponendo al centro la tutela del benessere sociale e i diritti dei cittadini, Meredith Whittaker, presidente di Signal e cofondatrice di AI Now Institute, mette in guardia sull’utilizzo dell’intelligenza artificiale e sul fatto che un enorme quantità di dati viene oggi gestita da una ristretta cerchia di grandi aziende. Parliamo di realtà attive nell’economia digitale che governano piattaforme, motori di ricerca, messaggistica istantanea, commercio elettronico.

Certamente, l’accordo stretto dal Parlamento e Consiglio europeo a fine 2023, che ha dato vita all’Artificial Intelligence Act, rappresenta una risposta alla necessità di costruire una disciplina organica a livello europeo (e mondiale) in fatto di utilizzo di sistemi di intelligenza artificiale e condivisione dei dati. L’approccio risk based su cui è stato concepito l’AI Act potrebbe però rivelarsi non sufficiente quando entrano in gioco lobby e interessi economici. E quando i cittadini e le aziende, soprattutto quelle di più piccole dimensioni, faticano a comprendere i rischi della tecnologia e a stare al passo con l’evoluzione normativa.

Maria Rosa Alaggio, direttrice di Società e Rischio

(Nella foto: Maria Rosa Alaggio, direttore responsabile di Società e Rischio)

Ecco perché affrontare il tema della privacy in modo più consapevole sarà determinante per il futuro. Secondo Nicola Bernardi, presidente di Federprivacy (Società e Rischio, febbraio 2024), il primo passo è capire (anche semplicemente leggendo attentamente le informative) quali rischi si corrono utilizzando una determinata tecnologia e valutare se tali rischi sono superiori ai vantaggi che ne ricaveremmo.

Un approccio che richiama il diritto all’autodeterminazione, all’opportunità di dire di no a chi ci chiede di rinunciare alla riservatezza dei nostri dati: non una battaglia contro la tecnologia ma una difesa della nostra privacy contro quella che Meredith Whittaker definisce una “tecnologia di sorveglianza” individuando nell’intelligenza artificiale il caposaldo del nuovo surveillance capitalism, concentrato nelle mani di poche aziende americane o cinesi.

Fonte: Rivista Società e Rischio

Note Autore

Maria Rosa Alaggio Maria Rosa Alaggio

Direttore responsabile Insurance Connect

Prev Così si muove l’Europa sui cookie: il timore è che la privacy diventi un lusso
Next Il diritto a non dover scegliere tra più privacy e più salute

Privacy Day Forum 2023: il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy