Bastano 250 documenti per avvelenare un’IA
Anthropic ha scoperto che sono sufficienti pochi testi ostili per impiantare una “porta nascosta” in un modello linguistico, a prescindere dalla sua dimensione. La scoperta ribalta l’idea che servano grandi percentuali di dati manipolati: conta il numero assoluto, non la quota. 🔗 Leggi su Repubblica.it
© Repubblica.it - Bastano 250 documenti per avvelenare un’IA
In questa notizia si parla di: bastano - documenti
Appunti nascosti sotto la cassa? Per la Cassazione bastano a provare i ricavi in nero La Suprema Corte conferma che i “quaderni” dell’imprenditore possono valere come prova indiziaria dei ricavi non dichiarati La documentazione extracontabile rinvenuta pr Vai su Facebook
Bastano 250 documenti per bucare un'IA - Un nuovo studio condotto da Anthropic ha dimostrato che i Large Language Models possono essere compromessi con attacchi di data poisoning utilizzando una quantità minima di dati malevoli. Si legge su msn.com