NEWS

Visualizza articoli per tag: algoritmi

È all’attenzione della Corte Suprema USA una questione che potrebbe rivoluzionare la disciplina statunitense in materia di responsabilità degli internet provider. Il caso è stato presentato dalla famiglia di Nohemi Gonzales, una studentessa, tra le vittime dell’attacco terroristico al Bataclan, a Parigi, nel 2015.

Nella società digitale la possibilità di acquisire informazioni personali e utilizzarle illecitamente per discriminare i cittadini è continuamente dietro l’angolo, tanto più con l’intelligenza artificiale che necessita di essere attentamente regolata non solo da norme giuridiche, ma anche da principi etici di base, che sono indispensabili per evitare scenari finora riservati agli incubi e, purtroppo, anche ai fantasmi della storia passata.

Non bastano gli algoritmi a imporre alla Pubblica amministrazione la stesura di una valutazione di impatto privacy: ciò perché non possono essere considerati più una “nuova tecnologia”, in presenza della quale il Gdpr (Regolamento Ue sulla privacy n. 2016/679) fa scattare, appunto, l'obbligo della Dpia.

Che impatto ha l’intelligenza artificiale nel mondo del lavoro? Possiamo dire che esiste oggi una vera e propria ricca casistica su questo argomento, che delinea un orientamento che il Garante e le Corti hanno tracciato e anche modificato negli ultimi anni, adeguandolo al progresso scientifico e pure a un diverso sentire sociale delle generazioni di nativi digitali affacciatesi in un mondo del lavoro completamente diverso e molto distante da quello del passato.

La Cassazione torna sulle modalità di manifestazione del consenso per l’adesione alle piattaforme online di rating reputazionale. In particolare, quando si ha a che fare con un sistema di valutazione automatico basato su algoritmi il soggetto deve conoscere il procedimento che conduce al risultato e su questo deve fornire il proprio consenso.

Scoring commerciale automatizzato in cerca di un piedistallo. Serve una base giuridica per considerare lecita l'attività, svolta con algoritmi e Intelligenza artificiale dalle società di informazioni commerciali, consistente nell'attribuzione a un operatore economico di punteggi sulla sua solvibilità e affidabilità. Senza una copertura solida si viola la privacy.

Quasi nessuno vuole che i propri dati vengano utilizzati per addestrare l’intelligenza artificiale di Meta, che però invece di chiedere il consenso agli utenti, ha deciso unilateralmente di tirare dritto procedendo ad allenare gli algoritmi dei suoi sistemi di AI con i dati personali sostenendo di avere un “legittimo interesse” ai sensi dell’articolo 6, par. 1, lettera f), del GDPR.

Con un provvedimento notificato il 20 gennaio 2024, il Garante per la protezione dei dati personali ha multato il comune di Trento per la violazione della riservatezza personale dei cittadini nell’ambito della sperimentazione dei progetti ”Marvel” e “Protector”, sanzione che dovrà essere pagata entro il termine di 30 giorni, cancellando i dati trattati in violazione di legge. 

La trasparenza nelle nuove tecnologie è un concetto che le normative europee pongono al centro dell'ecosistema digitale, ma la sua effettiva realizzazione è un problema di straordinaria complessità, soprattutto per gli algoritmi di intelligenza artificiale.

Il provvedimento del Garante Privacy nei confronti di Foodinho s.r.l. del 10 giugno 2021 (docweb 9675440) ha messo in luce ancora una volta la necessità di assicurare che gli algoritmi utilizzati dalle aziende per la gestione delle attività lavorative siano configurati in modo da garantire la “trasparenza” dei processi decisionali ed evitare discriminazioni tra i lavoratori.

Pagina 3 di 4

Privacy Day Forum 2025: il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy