Regno Unito: una persona su tre condivide dati sensibili con i chatbot e il 19% li usa per curare la propria salute mentale
Secondo una ricerca condotta dalla società di cybersicurezza NymVPN, quasi un britannico su tre condivide dati personali sensibili con chatbot IA come ChatGPT di OpenAI. Il 30% degli intervistati ha dichiarato di aver fornito a questi strumenti informazioni riservate, tra cui dati bancari o sanitari, mettendo a rischio la propria privacy e quella altrui, e un adulto su cinque nel Regno Unito (19%) sta utilizzando i chatbot AI per gestire la propria salute mentale.

Tra la domanda record e la diminuzione delle risorse all'interno del servizio sanitario inglese (National Health Service), questi strumenti stanno infatti diventando un rimedio per coloro che non sono in grado di accedere alla terapia professionale.
Solo nel mese di aprile, NHS England ha segnalato oltre 432.000 nuovi rinvii per i servizi di salute mentale, portando il numero totale di pazienti che ricevono supporto a oltre 2 milioni. Con il Royal College of Psychiatrists che prevede un taglio di 300 milioni di sterline ai bilanci della salute mentale nel prossimo anno, gli esperti prevedono che la tendenza verso la terapia guidata dall’IA non farà che accelerare.
Questo fenomeno di sovraesposizione informativa, che coinvolge anche chatbot come Google Gemini, avviene nonostante il 48% degli utenti esprima preoccupazioni legate alla privacy. Il problema si estende anche agli ambienti professionali, dove alcuni dipendenti condividono dati aziendali e informazioni sensibili sui clienti, esponendo le imprese a potenziali vulnerabilità.
Le conclusioni di NymVPN arrivano in un contesto segnato da numerose violazioni di dati, tra cui il recente attacco informatico ai danni di Marks & Spencer, che ha dimostrato quanto sia facile che dati riservati finiscano nelle mani sbagliate.
La ricerca di NymVPN evidenzia un trend preoccupante: il 26% degli utenti ha condiviso informazioni finanziarie personali con chatbot IA, come dettagli su stipendi, investimenti e mutui. Ancora più rischioso, il 18% ha fornito dati relativi a carte di credito o conti bancari.
Il problema non si limita alla sfera personale. Il 24% degli intervistati ha ammesso di aver condiviso dati di clienti, come nomi ed email, mentre il 16% ha caricato dati finanziari aziendali e documenti interni, tra cui contratti. Tutto ciò nonostante il 43% esprima preoccupazioni riguardo alla possibilità che strumenti di IA possano far trapelare dati riservati delle aziende.
“Gli strumenti di intelligenza artificiale sono entrati rapidamente nella routine lavorativa delle persone, ma stiamo assistendo a un trend allarmante: la comodità sta superando la sicurezza,” ha dichiarato Harry Halpin, CEO di NymVPN.
Il caso di Marks & Spencer, insieme a quelli di Co-op e Adidas, dimostra quanto anche le grandi aziende possano essere vulnerabili. “Le violazioni ad alto profilo mostrano quanto sia fragile la sicurezza dei dati, e più dati personali e aziendali vengono forniti all’IA, più grande diventa il bersaglio per i criminali informatici,” ha aggiunto Halpin.
Il fatto che quasi un quarto degli utenti condivida dati dei clienti con chatbot IA evidenzia l’urgenza per le aziende di introdurre linee guida chiare e politiche formali sull’uso dell’IA nei luoghi di lavoro.
“Dipendenti e aziende devono urgentemente riflettere su come proteggono la privacy personale e i dati aziendali quando utilizzano strumenti di intelligenza artificiale,” ha affermato Harry Halpin, CEO di NymVPN.
Evitare completamente l’uso dei chatbot sarebbe l’opzione più sicura per la privacy, ma non sempre è una soluzione realistica. Al minimo, è fondamentale evitare di condividere informazioni sensibili, sia personali che aziendali. Alcune impostazioni sulla privacy possono essere regolate, ad esempio disattivando la cronologia delle conversazioni o escludendo l’utilizzo dei dati per l’addestramento del modello.
Fonte: National World






