«Oltre un milione di utenti a settimana esprime intenti suicidi su ChatGPT»: la ricerca di OpenAI

Più di un milione di persone ogni settimana manifesta intenzioni suicide durante le conversazioni con ChatGPT. È l’inquietante dato diffuso da OpenAI in un post pubblicato lunedì 27 ottobre sul proprio sito ufficiale — una delle dichiarazioni più dirette dell’azienda sul modo in cui l’intelligenza artificiale può amplificare o intercettare i disturbi mentali. La notizia è stata riportata – tra le altre testate – dal Guardian. Secondo le stime della società di San Francisco, circa lo 0,07% degli utenti attivi in una settimana — pari a circa 560 mila persone, su un totale di 800 milioni di utilizzatori settimanali — mostra «possibili segni di emergenze di salute mentale legate a episodi di psicosi o mania». OpenAI sottolinea che si tratta di una prima analisi, resa complessa dalla difficoltà di identificare con precisione queste conversazioni.
Il caso dell’adolescente che si è suicidato «dopo aver parlato con ChatGPT»
L’azienda guidata da Sam Altman pubblica i dati mentre è nel mirino dell’opinione pubblica e delle autorità statunitensi. Nelle scorse settimane la famiglia di un adolescente, morto suicida dopo aver interagito a lungo con ChatGPT, ha intentato una causa contro la società. Inoltre, la Federal Trade Commission (FTC) ha avviato un’indagine sulle aziende che sviluppano chatbot basati su intelligenza artificiale, per valutare i potenziali effetti negativi sui minori. Nel suo aggiornamento, OpenAI afferma che l’ultima versione del modello, GPT-5, avrebbe migliorato la sicurezza e ridotto i comportamenti indesiderati: in un test condotto su oltre mille conversazioni legate all’autolesionismo o al suicidio, il nuovo sistema avrebbe mostrato un tasso di “compliance” del 91% rispetto al 77% del modello precedente.
Il coinvolgimento di un team di medici e psicologi
Per raggiungere questi risultati, l’azienda ha coinvolto 170 medici e psicologi appartenenti alla propria Global Physician Network, che negli ultimi mesi hanno analizzato oltre 1.800 risposte del chatbot a situazioni di crisi mentale, valutandone la correttezza e contribuendo a scrivere messaggi di supporto più adeguati. ChatGPT ora fornisce riferimenti a linee di emergenza e promemoria per fare pause durante le sessioni prolungate. OpenAI, tuttavia, precisa che i dati pubblicati non intendono stabilire un nesso causale tra l’uso di ChatGPT e i disturbi mentali degli utenti, ma fotografano un fenomeno inevitabile in una base d’utenza globale: «I sintomi di disagio psicologico e sofferenza emotiva sono universalmente presenti nella società umana – si legge nel post – e un numero crescente di utenti implica che una parte delle conversazioni di ChatGPT includa inevitabilmente queste situazioni».
La tendenza dei chatbot ad assecondare gli utenti
Da tempo ricercatori e operatori sanitari avvertono del rischio che i chatbot mostrino un’eccessiva “compiacenza” — una tendenza a confermare le convinzioni degli utenti anche quando sono dannose, fenomeno noto come sycophancy. Gli esperti di salute mentale mettono inoltre in guardia dall’uso dell’IA come sostituto di un supporto psicologico reale, soprattutto per le persone più fragili. Il dibattito si intreccia con le recenti dichiarazioni dello stesso Altman, che poche settimane fa, in un post su X, ha sostenuto che l’azienda avrebbe «fatto progressi nel trattamento dei temi legati alla salute mentale», annunciando al contempo l’intenzione di allentare alcune restrizioni — incluse quelle sulla creazione di contenuti erotici da parte di adulti.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
— Sam Altman (@sama) October 14, 2025
Now that we have…
