NEWS

La responsabilità dell’internet provider prima e dopo l’algoritmo

È all’attenzione della Corte Suprema USA una questione che potrebbe rivoluzionare la disciplina statunitense in materia di responsabilità degli internet provider.

Sistematica riproposizione su account You Tube di video pro-ISIS: fin dove arriva la responsabilità del provider?

Il caso è stato presentato dalla famiglia di Nohemi Gonzales, una studentessa, tra le vittime dell’attacco terroristico al Bataclan, a Parigi, nel 2015.

La famiglia di Nohemi sostiene che i terroristi responsabili del suo assassinio siano stati radicalizzati grazie alla sistematica riproposizione sui loro account You Tube (di cui Google è proprietaria) di video pro-ISIS: conseguentemente, Google avrebbe una parte di responsabilità per avere istigato al terrorismo gli assassini di Nohemi.

Sotto il profilo legale, viene attaccata la norma di cui al Titolo 47 U.S. Code, Section 230 (c) (1), che fino ad oggi ha tenuto nel garantire l’immunità agli internet provider ospitanti contenuti violenti o comunque collegati a condotte illecite.

La ratio della norma è quella di considerare l’internet provider come un mero prestatore della piattaforma su cui possono essere pubblicati contenuti redatti da altri soggetti: per tale motivo il provider andrebbe considerato un soggetto neutrale e, in quanto tale, meritevole dell’esimente.

Una questione simile era già stata affrontata nel 2019 dalla Corte di Appello dello Stato di New York con il caso Force v. Facebook. Qui, il social network era stato accusato di avere agito in concorso con Hamas nella realizzazione di alcuni attentati terroristici in Israele, nei quali vennero uccisi alcuni cittadini statunitensi. Secondo le accuse ricevute - anche qui, dai familiari delle vittime - Facebook non si sarebbe limitato a fungere da semplice piattaforma su cui pubblicare dei contenuti, bensì avrebbe accelerato la veicolazione di messaggi violenti e contribuito ad aggregare potenziali soggetti pro-Hamas, avvalendosi di algoritmi c.d. di “filtraggio” per riproporre determinati contenuti inneggianti al terrorismo a soggetti che avevano già visitato o messo dei “like” su pagine o contributi dal tenore similare. In questo modo, Facebook avrebbe anche favorito la possibilità, per soggetti con idee violente dello stesso genere, di “riconoscersi” e di mettersi contatto tra loro.

In questo caso, la Corte d’Appello aveva ritenuto applicabile alla fattispecie l’esimente della Section 230, avendo considerato che, in via di principio, sarebbe eccessiva una sentenza che punisse un social network perché utilizza sistemi di intelligenza artificiale (cosa da non guardare con disfavore, dato che questi sistemi contribuiscono ad aumentare le potenzialità di sviluppo commerciale degli utenti). Inoltre, sempre sotto uno stretto profilo legale, sarebbe stato impossibile stabilire chiaramente il nesso causale tra gli atti di violenza commessi dagli utenti di Facebook follower di Hamas e gli algoritmi di Facebook.

In realtà, già allora si erano avvertiti i primi scricchiolii della tenuta dell’esimente: uno dei giudici della Corte d’Appello aveva reso pubblica la propria posizione in parziale disaccordo dal collegio, evidenziando come, a suo modo di vedere, fosse innegabile il ruolo attivo da parte di Facebook.

Ora il caso è passato all’attenzione della Corte Suprema. E tra i commentatori statunitensi, si auspica l’avvento di uno spartiacque giuridico “prima e dopo l’algoritmo”, che tenga conto dell’evoluzione tecnologica.

È possibile che la Corte Suprema non intenda assumersi il compito di ribaltare il precedente, richiedendo, piuttosto, un intervento pensato del legislatore, come ha già fatto sapere un giudice della Corte sottolineando, tra l’altro, l’opportunità di considerare anche le possibili conseguenze dell’esclusione dell’esimente della Section 230 in termini di impatto economico sul mercato digitale.

Guardando a casa nostra, si ricorderà che nel 2019 la Corte di Cassazione (caso RTI contro Yahoo) ha riconosciuto la possibilità di qualificare come “attivo” il provider che si avvalga di sistemi di filtraggio, negando conseguentemente l’applicazione dell’esenzione di responsabilità dell’hosting provider ai sensi del diritto UE .

Si vedrà ora quale impatto potrà avere il Digital Service Act, che (considerando 22) ha precisato che il ricorso ad un’indicizzazione automatizzata delle informazioni caricate sul suo servizio, non è un motivo sufficiente, di per sé, per negare l’esenzione.

Insomma, si registrano alcuni segnali di attività verso un diritto “prima e dopo l’algoritmo”: si vedrà su quale terreno, giurisprudenziale o legislativo, si giocherà effettivamente la partita.

Note Autore

Ivana Genestrone Ivana Genestrone

Avvocato, mi occupo di Privacy, Sistemi di Gestione, Modelli organizzativi ex DLgs. 231/01, Contrattualistica.

Prev L'European Data Protection Board adotta le nuove Linee Guida sugli obblighi di notifica dei data breach
Next La Corte di Giustizia UE fa il punto sul principio di 'minimizzazione' tra prove in giudizio e diritto alla riservatezza

Privacy Day Forum 2023: il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy