Visualizza articoli per tag: intelligenza artificiale
Proteggere i dati personali del lavoratore è oggi l’irrinunciabile ed ultimo veicolo per salvaguardarne la dignità
Che impatto ha l’intelligenza artificiale nel mondo del lavoro? Possiamo dire che esiste oggi una vera e propria ricca casistica su questo argomento, che delinea un orientamento che il Garante e le Corti hanno tracciato e anche modificato negli ultimi anni, adeguandolo al progresso scientifico e pure a un diverso sentire sociale delle generazioni di nativi digitali affacciatesi in un mondo del lavoro completamente diverso e molto distante da quello del passato.
Protezione dati e Smart Cities
Un recente Studio su intelligenza artificiale e sviluppo urbano (Artificial Intelligence and Urban Development ) ci propone il tema dell’intelligenza artificiale applicata alle c.d. smart cities (o città intelligenti). Benché non esista una definizione univoca di città intelligente, il termine si riferisce in generale a un insieme integrato di iniziative volte a utilizzare le tecnologie digitali, compresa l'IA, per migliorare il benessere e la qualità della vita. Non tutte le città intelligenti sono necessariamente basate sull'IA, anche se lo sono in genere le più avanzate.
Protezione dati personali e Intelligenza Artificiale: sempre più complessa e difficile l’attività dei Data Protection Officer
Da tempo le autorità garanti europee, EDPB e EDPS, si pongono il tema dei problemi connessi all’uso dell’Intelligenza Artificiale e al trattamento dei dati, in particolare dei dati personali. Non a caso tanto lo EDPS quanto lo EDPB hanno già ripetuto in più occasioni la illiceità della raccolta e del trattamento tramite AI di dati biometrici, considerando questi trattamenti vietati in ragione dei rischi che comportano per la tutela dei diritti delle persone nell’ambito della Carta dei diritti fondamentali della UE.
Protezione dei dati sempre più complessa con l’AI Act, ma l’Intelligenza Artificiale può essere un prezioso alleato dei DPO
Con AI Act e nuovi regolamenti dell’UE è sempre più complessa la galassia della protezione dei dati. Secondo il Censis il 58,7% degli avvocati percepisce l’Intelligenza Artificiale come un’opportunità. Martina Domenicali di Lexroom: “Con l’AI superpoteri al professionista legale per permettergli di completare tali lavori in pochi secondi”.
Pubblicato in Gazzetta Ufficiale dell’UE il Regolamento sull’intelligenza artificiale
Il Regolamento Ue 2024/1689, noto “AI Act” (Artificial Intelligence Act), approvato definitivamente lo scorso maggio dal Consiglio europeo, è stato adesso pubblicato in Gazzetta Ufficiale dell'Unione Europea del 12 luglio 2024.
Quando l’uso improprio di tool di intelligenza artificiale al lavoro diventa un rischio sia per l’azienda che per gli stessi dipendenti
L’uso non regolamentato di app e tool di IA da parte dei dipendenti può esporre le aziende a gravi violazioni normative e rischi legali, compromettendo la sicurezza delle informazioni nonchè la privacy e la protezione dei dati personali.
Quando un data breach colpisce un’applicazione di AI che tratta dati personali
Con l'entrata in vigore del Regolamento (UE) 2024/1689, noto come Articial Intelligence Act, un’organizzazione che sviluppa o utilizza sistemi di AI ad alto rischio dovrebbe predisporre una procedura integrata di incident management, in grado di rispondere contemporaneamente ai requisiti dell’AI Act e del GDPR.
Raggiunto l'accordo politico sull'Artificial Intelligence Act
Dopo una maratona di 3 giorni, in data 9 dicembre 2023 la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate sull’intelligenza artificiale (AI), il cosiddetto “Artificial Intelligence Act”.
Referti medici e intelligenza artificiale, allarme del Garante Privacy sui rischi derivanti da un uso scorretto
Il Garante della privacy lancia un allarme e invita gli utenti delle piattaforme di intelligenza artificiale generativa a valutare con attenzione l’opportunità di procedere alla condivisione di dati sanitari con i fornitori di tali servizi, e quella di fare affidamento sulle risposte generate automaticamente da tali servizi, risposte che dovrebbero sempre essere verificate con un professionista medico.
Regno Unito: una persona su tre condivide dati sensibili con i chatbot e il 19% li usa per curare la propria salute mentale
Secondo una ricerca condotta dalla società di cybersicurezza NymVPN, quasi un britannico su tre condivide dati personali sensibili con chatbot IA come ChatGPT di OpenAI. Il 30% degli intervistati ha dichiarato di aver fornito a questi strumenti informazioni riservate, tra cui dati bancari o sanitari, mettendo a rischio la propria privacy e quella altrui.
Galleria Video
Privacy Day Forum 2025: il servizio di Arezzo Tv
Cerca Delegato

