Suicidi e intelligenza artificiale | ChatGPT può essere ritenuta responsabile?

Un caso tragico che coinvolge l’uso di un chatbot pone una domanda urgente: non sull’AI in sĂ©, ma sulla deresponsabilizzazione di chi la progetta e la distribuisce. 🔗 Leggi su Repubblica.it

suicidi e intelligenza artificiale chatgpt pu242 essere ritenuta responsabile

© Repubblica.it - Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile?

In questa notizia si parla di: suicidi - intelligenza

Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile?; Suicidi e chatbot: l’allarme sull’uso dell’intelligenza artificiale come confidente tra gli adolescenti; Adolescente suicida con l’aiuto di ChatGPT, la famiglia fa causa.

suicidi intelligenza artificiale chatgptSuicidi e chatbot: l’allarme sull’uso dell’intelligenza artificiale come confidente tra gli adolescenti - Secondo un sondaggio di Common Sense Media, un terzo degli adolescenti americani usa "compagni creati dall'AI" per l'interazione sociale e le relazioni. corriere.it scrive

Suicidi e intelligenza artificiale: ChatGPT può essere ritenuta responsabile? - Un caso tragico che coinvolge l’uso di un chatbot pone una domanda urgente: non sull’AI in sé, ma sulla deresponsabilizzazione di chi la progetta e la ... Come scrive repubblica.it

Cerca Video su questo argomento: Suicidi Intelligenza Artificiale Chatgpt