NEWS

Taci! Il nemico ti ascolta

Una ricerca della Ruhr-Universität Bochum e Max Planck Institute for Security and Privacy ha messo in evidenza i pericoli associati agli assistenti vocali (AV) tipo Alexa, Siri, Google Assist che oramai sono di ampia diffusione: Amazon nel 2019 ha dichiarato di aver venduto più di 100 milioni di dispositivi che integrano Alexa.

problemi di privacy con gli smart speaker

Il metodo di “innesco” di questi strumenti è basato su espressioni che ne determinano l’operatività (es. “Alexa”, “Hey Siri” cosiddette “wake words”): l’assistente vocale, in stato di pausa, rimane all’ascolto di suoni che richiamano le wake words, quando le riconoscono, si attivano, registrano le parole e trasmettono il contenuto ad un server in cloud per processarle, una sorta di consenso dell’utente al relativo trattamento (molto dubbio che esso sia “informato” e “libero”).

L'Avv. Rosario Imperiali

(Nella foto: l'Avv. Rosario Imperiali)

La ricerca ha scoperto che le wake words sono condizionate da “falsi positivi”: così come “cocaine noodles” può essere scambiato foneticamente per “Ok Google”, ve ne sarebbero centinaia che azionano la registrazione all’insaputa dell’utente.

Possono ipotizzarsi contromisure ma la protezione dell’individuo sarà una sfida persa in partenza se i regolatori continueranno a rincorrere la tecnologia anziché imporre standard privacy friendly per i prodotti.

Note Autore

Rosario Imperiali Rosario Imperiali

Avvocato, esperto di privacy e fondatore dell'Osservatorio Data Protection di House of Data Imperiali - Web: www.houseofdataimperiali.com

Prev Il Gdpr rappresenta una ulteriore opportunità per la digitalizzazione dei trattamenti
Next È il momento di passare dalla trasparenza di nome a quella di fatto

Privacy Day Forum 2023: il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy