Visualizza articoli per tag: intelligenza artificiale
Tre armi di difesa contro gli errori dell'Intelligenza Artificiale
Tre scudi contro le inesattezze dell'Intelligenza Artificiale (IA). Due servono per correggere i dati, e cioè il ricorso al tribunale o, in alternativa, il reclamo al Garante della privacy; il terzo serve per ottenere un risarcimento dei danni ed è l'azione giudiziaria (in una delle sue varie forme, comprese class action e azione rappresentativa).
Per leggere l'articolo integrale devi effettuare il login!
Truffe emotive e chatbot seduttivi: l’IA e l’illusione (quasi) perfetta
L’Intelligenza Artificiale ha elevato la sofisticazione delle truffe affettive: deepfake automaticamente generati, chatbot empatici e voice cloning permettono di montare romance scam e persino inganni spirituali con incredibile realismo. Il rischio non è più soltanto un teorico, ma una realtà che può avere esiti drammatici.
Un algoritmo per assegnare la priorità delle prestazioni sanitarie richieste dai pazienti? istruttoria del Garante Privacy sulla Regione Veneto
Il Garante per la protezione dei dati personali ha inviato alla Regione Veneto una richiesta di informazioni per verificare la conformità alla normativa privacy di una delibera, in base alla quale non sarebbero più i medici di medicina generale a scegliere la classe di priorità della prestazione richiesta per il paziente, ma un sistema basato sull’intelligenza artificiale. Sarebbe in sostanza un algoritmo a stabilire i tempi di attesa per le prestazioni prescritte.
Un modello compliant di AI Corporate Governance
Dalla Privacy alla Artificial Intelligence, il passo è breve: in una società dell’informazione in cui il dato (non solo, personale) è il cuore del motore economico, uno “strumento” dirompente come l’AI, per diventare un booster che moltiplica gli effetti (ma anche i rischi).
Un modello di intelligenza artificiale è anonimo solo se non consente di estrarre dati personali
Per essere considerato anonimo, un modello di intelligenza artificiale deve soddisfare almeno due condizioni: la pressoché nulla o insignificante probabilità di estrazione diretta di dati personali da parte del modello e l’impossibilità di ottenere, intenzionalmente o meno, informazioni personali tramite domande o specifiche query. A chiarirlo è l'Edpb con l’Opinion n. 28 del 18 dicembre 2024.
Per leggere l'articolo integrale devi effettuare il login!
Uno studio getta ombre sull’algoritmo di Uber: «prezzi più alti ai viaggiatori di colore»
Un recente studio della George Washington University, che nell’arco di circa un anno ha analizzato oltre 100 milioni di viaggi a Chicago, getta nuove ombre su Uber e Lyft sostenendo che gli algoritmi utilizzati dalle app delle note società di trasporto penalizzerebbero i passeggeri di colore applicando loro prezzi più alti. Dai primi risultati dello studio accademico condotto negli Usa, emerge infatti che le compagnie di trasporto passeggeri addebiterebbero tariffe maggiorate per le corse nella città dell’Illinois se la destinazione o il punto di raccolta ha una maggiore concentrazione di residenti non bianchi, o dove vi sono meno persone con un elevato livello di istruzione.
Uno, nessuno e cento*IA: la centralità del trattamento dei dati nei processi di valutazione del rischio DPIA, LIA, TIA e FRIA
Nell'era digitale, la gestione dei dati personali è diventata una pratica ubiqua e con la crescente raccolta e elaborazione dei dati, è diventato essenziale regolamentare e proteggere i diritti e le libertà delle persone fisiche. Una caratteristica chiave del GDPR è la sua natura centrata sul trattamento, che enfatizza l'importanza di individuare e gestire i rischi associati al trattamento dei dati personali.
Urgente verificare la legittimità dell’uso dei dati privati degli utenti da parte di Meta per addestrare l’Intelligenza Artificiale
L’associazione noyb ha presentato un ricorso a 11 garanti della privacy per chiedere un’azione concreta e urgente per verificare la legittimità dell’uso dei dati privati degli utenti per addestrare la loro Ia, senza specificare per quale scopo sarà utilizzata.
Usa: giudice del Texas vieta ChatGpt agli avvocati
Nessun documento legale redatto dall'intelligenza artificiale. È l'aut aut messo da un giudice federale del Texas dopo i casi dell'uso dell'IA in tribunale. L'ultimo è accaduto pochi giorni fa quando un avvocato a New York per costruire una causa si è affidato a ChatGpt che ha fornito sei casi precedenti, tutti risultati completamente inesistenti.
Usa: in arrivo i pannolini con il chip che avvertono i genitori via sms se il bebè fa pipì
Pampers e Google lanciano i pannolini intelligenti. Un sensore avverte i genitori quando i piccoli fanno cacca, pipì o dormono. Il set Lumi, secondo quanto rivelato dal Financial Times, sarà disponibile negli Stati Uniti in autunno. Il prodotto sta già scatenando la curiosità di molti, e sta aprendo le polemiche.
Galleria Video
Privacy Day Forum 2025: il servizio dell'Ansa
Cerca Delegato

