IA militare USA | Contratto da 200 milioni a rischio per divergenze etiche con Anthropic su usi operativi di Claude

Il contratto da 200 milioni di dollari tra il Pentagono e Anthropic è a rischio a causa di divergenze etiche sull’utilizzo di Claude. Il Dipartimento della Difesa degli Stati Uniti ha espresso preoccupazioni sulla gestione delle operazioni militari con l’intelligenza artificiale, mentre la startup sostiene di rispettare rigorosi standard etici. La disputa ha portato a un blocco nei negoziati, lasciando in sospeso un progetto chiave per l’evoluzione della tecnologia bellica. La questione riguarda anche il futuro delle collaborazioni tra enti pubblici e aziende di IA.

Claude al Pentagono: A Rischio un Contratto da 200 Milioni e il Futuro dell’IA Militare. Washington è al centro di una crescente disputa tra il Dipartimento della Difesa statunitense e Anthropic, la startup di intelligenza artificiale fondata da ex ricercatori di OpenAI. Un contratto da 200 milioni di dollari, che avrebbe dovuto integrare il modello linguistico Claude nelle reti operative militari, è ora in bilico a causa di divergenze sulle modalità d’uso e sulle garanzie etiche richieste dall’azienda. L’Integrazione Iniziale e le Potenzialità di Claude. La collaborazione tra il Pentagono e Anthropic, avviata lo scorso anno, rappresentava un passo significativo verso l’adozione di tecnologie all’avanguardia nel settore della difesa.🔗 Leggi su Ameve.euImmagine generica

Leggi anche: Claude Opus 4.6 di Anthropic supera i milioni di token contestuali in ambito AI

Vard (gruppo Fincantieri), contratto da 200 milioni con Ocean InfinityVard, società del gruppo Fincantieri specializzata nella progettazione di navi speciali, ha annunciato un nuovo contratto con Ocean Infinity.

Leggi altri contenuti disponibili per approfondire la notizia o scorri a sinistra ← per la prossima news.

Argomenti discussi: Anthropic, il Pentagono contro l'Ai dei fratelli italiani Amodei: a rischio un contratto da 200 milioni; Il Pentagono contro Anthropic: la battaglia sui limiti etici dell'intelligenza artificiale militare; Tensioni tra Pentagono e Anthropic: la disputa sui limiti etici dell'intelligenza artificiale militare; Il Pentagono chiede l’IA senza limiti per scopi militari: Anthropic dice no.

Pentagono e Anthropic ai ferri corti: in bilico il contratto da 200 milioni per l'uso militare di ClaudeIl Dipartimento della Difesa USA ha messo sotto revisione il rapporto con Anthropic per divergenze sui limiti d'uso militare dei modelli Claude. In discussione il contratto da 200 milioni di dollari: ... hwupgrade.it