Anthropic inietta nuovi pensieri nell’AI durante il ragionamento | quello che succede è inaspettato e riguarda tutti
Può un’intelligenza artificiale guardarsi dentro e capire cosa sta realmente pensando. È la domanda che da mesi tiene svegli i ricercatori di Anthropic, la società californiana che ha dato vita a Claude, uno dei modelli linguistici più avanzati al mondo. E ora, grazie a una serie di esperimenti interni appena pubblicati, abbiamo finalmente delle risposte. Che però, più che chiudere il dibattito, lo riaccendono con forza ancora maggiore. L’azienda ha condotto test approfonditi sui suoi modelli più recenti, Claude Opus 4 e 4.1, per verificare se questi sistemi possiedano quella che in gergo tecnico si chiama “capacità introspettiva”. 🔗 Leggi su Screenworld.it
© Screenworld.it - Anthropic inietta nuovi pensieri nell’AI durante il ragionamento: quello che succede è inaspettato (e riguarda tutti)
Scopri altri approfondimenti
L'auto-consapevolezza dell'IA nel nuovo studio di Anthropic: i modelli linguistici non capiscono se stessi - consapevolezza dei modelli linguistici: le prime prove mostrano capacità limitate e incoerenti, ma indicano che la consapevolezza funzionale potrebbe evol ... Segnala hwupgrade.it
Maxi concorso da 327 posti nei Ministeri: assunzioni a tempo indeterminato per laureati notizieaudaci.it
Carbone dopo Inter Primavera Liverpool: «Passaggio del turno meritato, ecco cosa ho detto ai ragazzi» internews24.com
L’Antitrust multa Sky Italia: «Pratiche commerciali scorrette» lettera43.it
David Neres in conferenza prima di Benfica – Napoli: “Nuovo modulo? Vi svelo cosa è cambiato” spazionapoli.it
La Cia è convinta che Kyiv sia cruciale, a differenza della Casa Bianca ilfoglio.it
Famiglia nel bosco, il legale: "I genitori sono pronti a rivedere alcune posizioni" tgcom24.mediaset.it
