Suicidi e intelligenza artificiale | ChatGPT può essere ritenuta responsabile?
Un caso tragico che coinvolge l’uso di un chatbot pone una domanda urgente: non sull’AI in sĂ©, ma sulla deresponsabilizzazione di chi la progetta e la distribuisce. 🔗 Leggi su Repubblica.it
© Repubblica.it - Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile?
In questa notizia si parla di: suicidi - intelligenza
Suicidi e chatbot: l’allarme sull’uso dell’intelligenza artificiale come confidente tra gli adolescenti Vai su X
Dall’illusione di vivere in Matrix al suicidio, i casi si moltiplicano. Serve trasparenza e consapevolezza per evitare che l’intelligenza artificiale alimenti una nuova crisi collettiva dove a rischio sono come al solito i più fragili. Vai su Facebook
Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile?; Suicidi e chatbot: l’allarme sull’uso dell’intelligenza artificiale come confidente tra gli adolescenti; Adolescente suicida con l’aiuto di ChatGPT, la famiglia fa causa.
Suicidi e chatbot: l’allarme sull’uso dell’intelligenza artificiale come confidente tra gli adolescenti - Secondo un sondaggio di Common Sense Media, un terzo degli adolescenti americani usa "compagni creati dall'AI" per l'interazione sociale e le relazioni. corriere.it scrive
Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile? - Un caso tragico che coinvolge l’uso di un chatbot pone una domanda urgente: non sull’AI in sé, ma sulla deresponsabilizzazione di chi la progetta e la ... Come scrive repubblica.it