Scoperto Shadow Leak, la trappola zero-click che sfrutta ChatGPT per esfiltrare dati sensibili da Gmail
Immaginate di ricevere un’email che a prima vista sembra priva di contenuto o comunque innocua. In realtà, dentro quel messaggio si potrebbero celare “istruzioni nascoste” che non vediamo, ma che un sistema di intelligenza artificiale è però in grado di leggere ed eseguire. Questo è proprio ciò che hanno scoperto gli esperti di sicurezza informatica di Radware con ShadowLeak, un nuovo tipo di attacco che utilizza ChatGPT come vettore per rubare dati sensibili all’utente.

ShadowLeak è appunto un trucco che permette ad un hacker di esfiltrare informazioni riservate avvalendosi di comandi invisibili inseriti dentro un’email, sfruttando prompt nascosti inseriti tra le righe delle comunicazioni, tecnica resa possibile da una vulnerabilità trovata nella componente Deep Research di OpenAI.
La trappola scatta quando ChatGPT o un altro assistente basato su intelligenza artificiale viene collegato a Gmail e legge quella casella di posta per aiutare l’utente a riassumere o cercare informazioni.
Il risultato? L’AI può estrarre dati personali da altre email (indirizzi, documenti, informazioni riservate) e inviarli di nascosto a un server controllato da criminali informatici.
La particolarità è che l’utente non deve fare nulla: non serve cliccare link o scaricare file. L’attacco avviene in modo completamente automatico, semplicemente quando l’assistente AI legge la posta. Inoltre, tutto accade sui server del fornitore di AI (ad esempio OpenAI), quindi è molto difficile da intercettare con gli strumenti di sicurezza tradizionali.
ShadowLeak è quindi pericoloso perché l’utente non si accorge di nulla, le difese aziendali non vedono l’attacco, perché avviene “dietro le quinte”, e non colpisce solo Gmail: lo stesso trucco potrebbe funzionare con altri servizi collegati all’AI, come Google Drive o Dropbox.
Se può confortare, Radware ha comunque segnalato subito il problema a OpenAI, che ha già corretto la falla. Allo stato attuale la minaccia è stata quindi sventata e non corriamo più quel rischio specifico, anche se la vicenda ci ricorda una cosa importante: gli strumenti di intelligenza artificiale sono potenti, ma possono essere ingannati, proprio come le persone.
Per chi usa ogni giorno email e AI, è pertanto raccomandato di non dare accessi illimitati, collegando l’AI solo agli account che servono davvero e che sono messi a disposizione da provider affidabili, usare inoltre più livelli di protezione non affidandosi solo all’AI per gestire dati importanti, e mantenere sempre l’occhio critico non sottovalutando mai dei segnali che possono essere delle avvisaglie di questa tipologia di attacchi: se un assistente AI restituisce risultati strani o fuori posto, è infatti opportuno fare sempre le dovute verifiche.
L’evoluzione dell’intelligenza artificiale ha sicuramente portato con sé opportunità straordinarie, ma il caso Shadow Leak rappresenta un campanello d’allarme per l’intero settore della sicurezza informatica, richiamando l’attenzione su quanto sia necessario sviluppare nuovi strumenti e strategie per arginare queste nuove e insidiose minacce per la privacy e la cybersicurezza.






