Nell’era dell’intelligenza artificiale c’è un nuovo rischio per la sicurezza nucleare globale

Per decenni il pericolo più grande per la sicurezza nucleare è stato l’errore umano. Il rischio che qualcuno con accesso ai pulsanti delle testate più letali del mondo decidesse davvero di pigiarli. Il 2026 potrebbe essere l’anno in cui il rischio più grande si sposta dall’uomo alla macchina, magari una capace di convincere l’uomo a fare cose che altrimenti non avrebbe fatto. Nell’era dell’intelligenza artificiale generativa, dei deepfake e della disinformazione algoritmica, i sistemi di allerta nucleare – costruiti per reagire in pochi minuti – sono esposti a una nuova vulnerabilità: la possibilità che un’informazione falsa ma credibile venga scambiata per una minaccia atomica, e dia inizio a un’escalation. 🔗 Leggi su Linkiesta.it

nell8217era dell8217intelligenza artificiale c8217232 un nuovo rischio per la sicurezza nucleare globale
© Linkiesta.it - Nell’era dell’intelligenza artificiale c’è un nuovo rischio per la sicurezza nucleare globale

Leggi anche: Logitech e l’interfaccia umana nell’era dell’intelligenza artificiale

Leggi anche: La prova: con l’Echo Show 11, Alexa entra nell’era dell’intelligenza artificiale

Approfondimenti e contenuti su Nell.

La ricerca mostra notizie e video sullo stesso tema.