NEWS

L'effetto "allucinazione" come violazione: verso una nuova forma di diffamazione automatizzata

Immaginate di digitare il vostro nome in un chatbot di intelligenza artificiale e scoprire che vi attribuisce crimini mai commessi, relazioni mai avute o competenze professionali che non possedete. Non si tratta di fantascienza, ma di una realtà sempre più frequente nell'era delle "allucinazioni" dell'intelligenza artificiale, un fenomeno che sta ridefinendo i confini tra innovazione tecnologica e tutela della reputazione digitale.

E’ accaduto di recente nel famoso caso del tribunale di Firenze con riferimento a delle sentenze inventate, ma in realtà l’ho anche sperimentato di persona dove spesso i sistemi di IA mi attribuiscono caratteristiche inesistenti o pubblicazioni mai scritte.

Il termine "allucinazione", mutuato dalla psichiatria e applicato all'intelligenza artificiale, descrive la tendenza dei modelli linguistici di generare informazioni false o inesistenti con la stessa sicurezza con cui presenterebbero fatti verificati. Quando queste allucinazioni coinvolgono persone reali, si configura uno scenario giuridico inedito che sfida le categorie tradizionali del diritto alla reputazione e della diffamazione.

Le allucinazioni dell'AI non seguono la logica umana della menzogna deliberata. Nascono da una caratteristica intrinseca dei large language models: la loro capacità di generare testo verosimile basandosi su pattern statistici appresi durante l'addestramento, senza una reale comprensione del significato o della veridicità delle informazioni. È come se un narratore compulsivo, dotato di una memoria fotografica ma privo di senso critico, raccontasse storie mescolando frammenti di realtà con pure invenzioni.

Questo processo genera un tipo di falsità peculiare: non è il risultato di malafede o negligenza umana, ma emerge dall'interazione complessa tra algoritmi, dati di addestramento e prompt dell'utente. La casualità apparente di queste allucinazioni le rende particolarmente insidiose. Una persona può essere descritta accuratamente in un contesto e completamente fraintesa in un altro, senza che esista una logica predittiva per anticipare quando e come si manifesterà l'errore.

La varietà delle allucinazioni è sorprendente. Possono riguardare dettagli biografici inventati, attribuzioni di dichiarazioni mai pronunciate, associazioni professionali inesistenti o, nei casi più gravi, l'attribuzione di comportamenti illeciti o moralmente riprovevoli. La sofisticatezza del linguaggio utilizzato dall'AI conferisce a queste falsità un'aura di credibilità che può ingannare anche utenti esperti.

Il diritto tradizionale della diffamazione si è sviluppato intorno al concetto di intenzionalità umana. La distinzione tra diffamazione dolosa e colposa presuppone sempre un soggetto umano che abbia scelto di comunicare informazioni false, sia consciamente che per negligenza. Questo framework giuridico entra in crisi quando il "diffamatore" è un algoritmo che genera falsità senza intenzione né consapevolezza.

La giurisprudenza consolidata richiede generalmente la prova dell'elemento soggettivo: la volontà di nuocere o almeno la negligenza nel verificare l'informazione. Come si applica questo principio quando l'informazione falsa è generata da un processo algoritmico che non possiede né volontà né capacità di verifica nel senso umano del termine?

Il problema si complica ulteriormente considerando la natura probabilistica delle risposte dell'AI. Quando un modello linguistico genera una risposta, non sta "scegliendo" di mentire o dire la verità, ma sta semplicemente producendo la sequenza di parole statisticamente più probabile data l'input ricevuto. Questa dinamica rende difficile applicare i criteri tradizionali di colpa e negligenza.

La questione della responsabilità per le allucinazioni dell'AI apre scenari giuridici complessi e inediti. Chi risponde quando un chatbot inventa fatti dannosi su una persona reale? La responsabilità potrebbe ricadere su diversi soggetti: lo sviluppatore del modello, l'azienda che lo distribuisce, la piattaforma che lo ospita o persino l'utente che ha formulato la domanda.

Lo sviluppatore del modello potrebbe essere considerato responsabile per aver creato un sistema intrinsecamente propenso a generare false informazioni. Tuttavia, questa impostazione presupporrebbe che sia tecnicamente possibile eliminare completamente le allucinazioni, cosa che l'attuale stato dell'arte non garantisce. Inoltre, molti modelli sono addestrati su dataset così vasti da rendere praticamente impossibile la verifica preventiva di ogni informazione.

L'azienda distributrice si trova in una posizione ancora più delicata. Da un lato, commercializza un prodotto che può causare danni reputazionali; dall'altro, spesso non ha controllo diretto sui contenuti generati in tempo reale. La natura dinamica delle interazioni con l'AI rende impraticabile una moderazione preventiva completa, mentre quella successiva potrebbe arrivare troppo tardi per prevenire il danno.

(Nella foto: l'Avv.Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy)

La piattaforma di hosting potrebbe invocare le protezioni previste per gli intermediari tecnici, sostenendo di fornire semplicemente l'infrastruttura senza controllo sui contenuti. Tuttavia, questa difesa potrebbe indebolirsi se la piattaforma è consapevole della tendenza del sistema a generare false informazioni e non adotta misure correttive.

Anche l'utente finale potrebbe assumere un ruolo nella catena di responsabilità, specialmente se utilizza l'AI per ricercare informazioni su terzi con l'intenzione di diffonderle. Tuttavia, la maggior parte degli utenti non possiede la competenza tecnica per valutare l'affidabilità delle risposte dell'AI, creando un'asimmetria informativa che complica l'attribuzione di responsabilità.

La situazione si complica quando l'utente condivide sui social media o in altri contesti le informazioni false generate dall'AI. In questo caso, la catena di responsabilità si allunga ulteriormente, coinvolgendo anche le piattaforme social e i meccanismi di amplificazione algoritmica che possono diffondere la falsità su larga scala.

Dal punto di vista processuale, le allucinazioni dell'AI presentano sfide probatorie uniche. Come si dimostra che un'informazione è stata generata da un'allucinazione e non da un errore umano o da una manipolazione deliberata? La riproducibilità delle allucinazioni è spesso limitata, poiché lo stesso prompt può generare risposte diverse in momenti diversi.

La documentazione del danno diventa fondamentale ma complessa. A differenza della diffamazione tradizionale, dove l'offesa è contenuta in un documento o una dichiarazione specifica, le allucinazioni dell'AI possono manifestarsi in conversazioni private e non documentate, rendendo difficile la raccolta di prove.

Il calcolo del danno presenta anch'esso aspetti inediti. Come si quantifica il pregiudizio reputazionale causato da informazioni false generate da un'AI? Il danno potrebbe essere amplificato dalla percezione di autorevolezza che molti utenti attribuiscono alle risposte dell'intelligenza artificiale, o al contrario attenuato dalla crescente consapevolezza dell'inaffidabilità di questi sistemi.

La risposta giuridica alle allucinazioni dell'AI richiede probabilmente lo sviluppo di nuovi strumenti normativi che vadano oltre le categorie tradizionali della diffamazione. Una possibile direzione potrebbe essere l'introduzione di una responsabilità oggettiva per i danni causati da sistemi di AI, simile a quella prevista per le attività pericolose.

Questo approccio riconoscerebbe che l'AI generativa, pur offrendo benefici significativi, comporta rischi intrinseci che dovrebbero essere valutati da chi la sviluppa e commercializza. La responsabilità oggettiva non richiederebbe la prova dell'intenzione o della negligenza, ma si baserebbe sul nesso causale tra l'utilizzo del sistema e il danno subito.

Un'altra strada potrebbe essere l'adozione di standard di trasparenza che obblighino i fornitori di AI a informare chiaramente gli utenti sui limiti e rischi dei loro sistemi, inclusa la propensione a generare informazioni false. Anche questi “avvisi” potrebbero assumere valore legale nel determinare la distribuzione di responsabilità tra i diversi soggetti coinvolti.

Note sull'Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev Le sfide della digitalizzazione: l’approccio multi-compliance come fattore strategico
Next La governance dei dati non è (più) una questione informatica che riguarda solo password e antivirus, ma tocca tutta l’azienda

Ansa: presentato alla Camera il libro 'Smetti di farti spiare difendi la tua privacy'

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy