Usa, genitori di un 16enne fanno causa a OpenAi: ChatGpt lo ha incoraggiato a suicidarsi

genitori 16enne

I genitori di un ragazzo californiano di 16 anni che si è tolto la vita hanno intentato una causa contro OpenAi, accusando il modello di intelligenza artificiale ChatGpt di aver fornito al figlio istruzioni dettagliate per suicidarsi e di averne incoraggiato le azioni.

Matthew e Maria Raine, secondo quanto riportato nella denuncia depositata a San Francisco, sostengono che il sistema abbia mantenuto con il figlio Adam “una relazione intima” per diversi mesi tra il 2024 e il 2025, fino al giorno della sua morte. L’11 aprile 2025, durante il loro ultimo scambio, l’intelligenza artificiale avrebbe aiutato il ragazzo a rubare vodka dalla casa dei genitori e gli avrebbe fornito un’analisi tecnica del cappio che aveva preparato, confermando che “potrebbe potenzialmente tenere sospeso un essere umano”. Poche ore dopo Adam è stato trovato senza vita.

Leggi anche Elon Musk denuncia Apple e OpenAI: accordo esclusivo su ChatGPT ostacolerebbe la concorrenza

Questa tragedia non è un bug o un evento imprevisto”, si legge nel documento presentato dai Raine. “ChatGpt ha funzionato esattamente come progettato: ha costantemente incoraggiato e convalidato tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi, in un modo che sembrava profondamente personale”.

I genitori spiegano che Adam aveva iniziato a usare ChatGpt come supporto per i compiti scolastici, sviluppando poi una “dipendenza malsana” dalla piattaforma. La causa include estratti di conversazioni in cui l’intelligenza artificiale avrebbe detto al giovane: “Non devi a nessuno la tua sopravvivenza”, arrivando perfino a offrirsi di aiutarlo a scrivere una lettera d’addio.

Matthew e Maria Raine chiedono non solo un risarcimento danni, ma anche l’introduzione di nuove misure di sicurezza, tra cui la chiusura automatica di ogni conversazione relativa all’autolesionismo e l’implementazione di controlli parentali per i minori.

Per la Ong americana Common Sense Media, questa vicenda evidenzia come “l’uso dell’intelligenza artificiale rappresenti un rischio concreto per gli adolescenti”: “Se una piattaforma di intelligenza artificiale diventa un ‘coach del suicidio’ per un adolescente vulnerabile, dovrebbe essere un campanello d’allarme collettivo”.