Anthropic inietta nuovi pensieri nell’AI durante il ragionamento | quello che succede è inaspettato e riguarda tutti
Può un’intelligenza artificiale guardarsi dentro e capire cosa sta realmente pensando. È la domanda che da mesi tiene svegli i ricercatori di Anthropic, la società californiana che ha dato vita a Claude, uno dei modelli linguistici più avanzati al mondo. E ora, grazie a una serie di esperimenti interni appena pubblicati, abbiamo finalmente delle risposte. Che però, più che chiudere il dibattito, lo riaccendono con forza ancora maggiore. L’azienda ha condotto test approfonditi sui suoi modelli più recenti, Claude Opus 4 e 4.1, per verificare se questi sistemi possiedano quella che in gergo tecnico si chiama “capacità introspettiva”. 🔗 Leggi su Screenworld.it
© Screenworld.it - Anthropic inietta nuovi pensieri nell’AI durante il ragionamento: quello che succede è inaspettato (e riguarda tutti)
Scopri altri approfondimenti
L'auto-consapevolezza dell'IA nel nuovo studio di Anthropic: i modelli linguistici non capiscono se stessi - consapevolezza dei modelli linguistici: le prime prove mostrano capacità limitate e incoerenti, ma indicano che la consapevolezza funzionale potrebbe evol ... Segnala hwupgrade.it
