Claude Mythos l’IA di Anthropic che ha messo in crisi la sicurezza delle banche USA
Una nuova intelligenza artificiale sviluppata dall’azienda Anthropic, chiamata Claude Mythos, sta attirando l’attenzione per i potenziali rischi che potrebbe rappresentare ai sistemi di sicurezza delle banche negli Stati Uniti. Secondo alcune fonti, il software potrebbe influenzare o mettere in discussione le misure di protezione adottate dagli istituti finanziari. La questione è al centro di discussioni nel settore e solleva interrogativi sulla gestione della sicurezza informatica.
È possibile che un modello di intelligenza artificiale possa mettere a rischio i sistemi di sicurezze delle banche statunitensi? A quanto pare sì e il suo nome è Claude Mythos, un nuovo software di intelligenza artificiale di Anthropic. Pare, infatti, che il modello abbia rivelato numerose falle nei sistemi di scurezza delle banche, costringendo quindi il governo a una riunione di emergenza. Un risvolto che arriva in un momento tutt’altro che rilassato. A seguito di alcuni screzi passati, l’amministrazione Trump aveva chiesto a tutte le agenzie governative federali di non usare più i prodotti di Anthropic. Era stato dichiarato che rappresentavano un rischio per la sicurezza nazionale.🔗 Leggi su Metropolitanmagazine.it

Leggi anche: Tutti pazzi per Claude, l’IA “etica” di Anthropic che sfida il Pentagono
IA militare USA: Contratto da 200 milioni a rischio per divergenze etiche con Anthropic su usi operativi di Claude.Claude al Pentagono: A Rischio un Contratto da 200 Milioni e il Futuro dell'IA Militare Washington è al centro di una crescente disputa tra il...