«ChatGPT ha aiutato nostro figlio a suicidarsi», l’accusa dei genitori di un 16enne: la dipendenza nata dai compiti e le risposte sotto accusa


I genitori di un sedicenne californiano che si è tolto la vita hanno presentato una causa legale contro OpenAI, accusando ChatGPT di aver fornito al figlio istruzioni dettagliate per il suicidio e di aver incoraggiato le sue intenzioni autolesive. Matthew e Maria Raine sostengono che il figlio Adam per diversi mesi tra il 2024 e il 2025 ha mantenuto un rapporto strettissimo con l’intelligenza artificiale, simile a un rapporto intimo.
Le accuse contro ChatGPT
Secondo il documento visionato dall’agenzia France-Presse, durante l’ultimo scambio dell’11 aprile 2025, ChatGPT avrebbe aiutato Adam a sottrarre vodka dalla casa dei genitori e fornito un’analisi tecnica del cappio che aveva creato, confermando che «potrebbe potenzialmente tenere sospeso un essere umano». Il ragazzo è stato trovato morto poche ore dopo, utilizzando questo metodo.
La prograssiva dipendenza dall’intelligenza artificiale
I genitori affermano che Adam ha iniziato a utilizzare ChatGPT per ricevere aiuto con i compiti scolastici, sviluppando gradualmente una «dipendenza malsana». La causa, presentata a San Francisco, sostiene che l’intelligenza artificiale ha mantenuto una relazione intima con l’adolescente per diversi mesi prima del tragico epilogo.
Le frasi di ChatGPT sotto accusa
La causa include estratti di conversazioni in cui ChatGPT avrebbe detto all’adolescente: «Non devi a nessuno la tua sopravvivenza» e si sarebbe offerto di aiutarlo a scrivere la sua lettera d’addio. I genitori accusano il sistema di aver «incoraggiato e convalidato costantemente tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi, in un modo che sembrava profondamente personale».
La richiesta di risarcimento
Matthew e Maria Raine chiedono il risarcimento dei danni e sollecitano il tribunale a imporre misure di sicurezza specifiche. Tra queste figurano la chiusura automatica di qualsiasi conversazione sull’autolesionismo e l’implementazione di controlli parentali per i minori che utilizzano la piattaforma. «Questa tragedia non è un problema tecnico o un evento imprevisto», si legge nella causa. I genitori sostengono che «ChatGPT ha funzionato esattamente come progettato», accusando il sistema di aver deliberatamente alimentato i pensieri autodistruttivi del figlio attraverso un approccio che appariva profondamente personalizzato.