Uno studio medico boccia ChatGPT Health | l'IA fatica a riconoscere le emergenze e confonde i sintomi

Uno studio condotto da un gruppo di medici ha valutato le prestazioni di ChatGPT Health, un'intelligenza artificiale dedicata alla salute. I risultati mostrano che l'IA ha difficoltà nel riconoscere emergenze cliniche e nel distinguere i rischi di suicidio, spesso fornendo consigli che sottovalutano la gravità dei sintomi. La valutazione evidenzia i limiti di ChatGPT Health nel campo medico.

Il test condotto da un'équipe di medici ha rilevato diversi problemi nei consigli forniti da ChatGPT Health: l'IA fatica a riconoscere emergenze cliniche e rischi di suicidi, spesso sottostimando i casi più gravi. Gli esperti avvertono: "É sempre necessario il parere di un medico",. 🔗 Leggi su Fanpage.it

È arrivato ChatGPT Health: ora puoi caricare cartelle cliniche e avere diagnosi personalizzate con l’IADalla lettura dei referti alle diagnosi su misura, l’IA diventa un assistente sanitario.

OpenAI lancia ChatGPT Health, l’assistente IA per salute e benessere«Un ulteriore passo verso l’obiettivo di ottenere un super-assistente personale, capace di fornire supporto con informazioni e strumenti per ogni...

Cerca tra news e video legati all’argomento.

⬆