Uno studio di Stanford su ChatGPT evidenzia i rischi per gli utenti | l’IA non sa distinguere un fatto da una bufala
L’intelligenza artificiale è ovunque. La usiamo per scrivere email, cercare informazioni mediche, preparare documenti legali. ChatGPT, DeepSeek e decine di altri chatbot sono diventati assistenti quotidiani per milioni di persone. Ma c’è un problema: questi strumenti non riescono a distinguere un fatto verificato da un’opinione personale. Non è un’ipotesi, è il risultato di uno studio rigoroso pubblicato sulla prestigiosa rivista Nature Machine Intelligence. Un team di ricercatori della Stanford University, guidato da James Zou, professore associato di scienza dei dati biomedici, ha messo alla prova 24 modelli linguistici di grandi dimensioni, i cosiddetti LLM. 🔗 Leggi su Screenworld.it
© Screenworld.it - Uno studio di Stanford su ChatGPT evidenzia i rischi per gli utenti: l’IA non sa distinguere un fatto da una bufala
Scopri altri approfondimenti
Secondo un autorevole studio dell'Università di Stanford, le batterie delle auto elettriche durerebbero il 40% in più di quanto previsto. https://auto.everyeye.it/notizie/auto-elettriche-sbagliati-8216-batterie-durano-i40-previsto-838021.html?utm_medium=Soci - facebook.com Vai su Facebook
Esagerare. Polarizzare. Inventare. È la strategia delle AI addestrate a ottenere engagement, voti o vendite. Uno studio Stanford 2024: +7% di engagement = fino al +200% di disinformazione. https://link.mgpf.it/j6HL #AI #Disinformazione - X Vai su X
Se ChatGPT sostituisce lo studio: i rischi dell’apprendimento superficiale - Uno studio rivela che affidarsi a ChatGPT riduce la comprensione profonda e la capacità di elaborazione critica nei processi di apprendimento ... Secondo mrw.it
Le IA non riescono a distinguere tra opinioni personali e fatti: lo studio - Dai risultati ottenuti dalla ricerca di Stanford, è emerso che i 24 modelli linguistici esaminati hanno difficoltà a distinguere le due cose. Scrive tg24.sky.it
ChatGPT, con la modalità studio l’IA dà le ripetizioni anziché una risposta diretta - Si chiama Study Mode (modalità studio) ed è disponibile per tutti gli utenti, anche quelli che usano il chatBot ... Come scrive repubblica.it
