Agli hacker bastano 250 file manipolati per sabotare l'Intelligenza artificiale
In un mondo sempre più influenzato dell'intelligenza artificiale, la parola "poisoning" sta iniziando ad assumere un significato nuovo e inquietante. Un recente studio congiunto dello UK AI Security Institute, dell'Alan Turing Institute e della Anthropic ha dimostrato che bastano 250 file manipolati all'interno dei milioni usati per istruire un modello linguistico come ChatGPT e comprometterlo in modo invisibile.







