Uno studio medico boccia ChatGPT Health | l'IA fatica a riconoscere le emergenze e confonde i sintomi
Uno studio condotto da un gruppo di medici ha valutato le prestazioni di ChatGPT Health, un'intelligenza artificiale dedicata alla salute. I risultati mostrano che l'IA ha difficoltà nel riconoscere emergenze cliniche e nel distinguere i rischi di suicidio, spesso fornendo consigli che sottovalutano la gravità dei sintomi. La valutazione evidenzia i limiti di ChatGPT Health nel campo medico.
Il test condotto da un'équipe di medici ha rilevato diversi problemi nei consigli forniti da ChatGPT Health: l'IA fatica a riconoscere emergenze cliniche e rischi di suicidi, spesso sottostimando i casi più gravi. Gli esperti avvertono: "É sempre necessario il parere di un medico",. 🔗 Leggi su Fanpage.it
È arrivato ChatGPT Health: ora puoi caricare cartelle cliniche e avere diagnosi personalizzate con l’IADalla lettura dei referti alle diagnosi su misura, l’IA diventa un assistente sanitario.
OpenAI lancia ChatGPT Health, l’assistente IA per salute e benessere«Un ulteriore passo verso l’obiettivo di ottenere un super-assistente personale, capace di fornire supporto con informazioni e strumenti per ogni...