Chiede a ChatGPT come sostituire il sale nella sua dieta | uomo intossicato e ricoverato
L'intelligenza artificiale rischia di essere pericolosa, almeno in certi casi. La rivista scientifica statunitense "Annals of internal medicine: clinical cases" ha messo in guardia contro l'utilizzo di ChatGPT per informazioni sulla salute, dopo che un uomo ha sviluppato una rara sindrome dopo. 🔗 Leggi su Today.it
In questa notizia si parla di: chatgpt - uomo - chiede - sostituire
Dopo aver consultato ChatGPT un uomo sviluppa una rara sindrome psichiatrica dell’800 - Un uomo ha sviluppato bromismo dopo aver seguito il consiglio di ChatGPT di sostituire il sale con bromuro di sodio, evidenziando i rischi dell’uso dell’IA in ambito medico senza supervisione.
«Bromismo», il caso dell'uomo colpito da una rara malattia del secolo scorso, dopo aver consultato ChatGPT - Voleva consigli su come eliminare il sale dalla propria dieta il sessantenne risultato poi colpito da un'intossicazione da bromuro.
Un uomo di 60 anni finito in ospedale per tre settimane per i consigli medici di ChatGPT Link all'articolo : https://www.redhotcyber.com/post/un-uomo-di-60-anni-finito-in-ospedale-per-tre-settimane-per-i-consigli-medici-di-chatgpt/ Affidarsi ciecamente a Chat Vai su Facebook
Chiede a ChatGpt come sostituire il sale da cucina: finisce in ospedale con paranoie e allucinazioni; Chiede a ChatGPT come sostituire il sale nella sua dieta: uomo intossicato e ricoverato; Chiede a ChatGPT come sostituire il sale nella sua dieta quotidiana e finisce in ospedale in preda alle allucinazioni.
Chiede a ChatGPT come sostituire il sale nella sua dieta: 60enne finisce in ospedale con paranoie e allucinazioni - Il caso è stato citato sulla rivista scientifica statunitense Annals of Internal Medicine: Clinical Cases ... Lo riporta tpi.it
Chiede a ChatGpt come sostituire il sale da cucina: finisce in ospedale con paranoie e allucinazioni - Il caso in un paper della rivista «Annals of Internal Medicine: Clinical Cases». Riporta msn.com