Ultime notizie Donald TrumpElezioni RegionaliGazaUcrainaUS Open
TECNOLOGIAChatGPTGiovaniIntelligenza artificialeSalute mentale

Disturbi mentali e dipendenza: il lato oscuro dei chatbot che mette a rischio i giovanissimi

08 Settembre 2025 - 14:20 Davide Aldrigo
AI chatgpt chatbot salute mentale disagi
AI chatgpt chatbot salute mentale disagi
L'uso prolungato di questi strumenti può provocare disturbi di natura psicologica. Sono i rischi connessi alla sycophancy, la tendenza dei modelli a compiacere l'utente

Una personalità fragile o in formazione, domande esistenziali e una tecnologia pensata per dirci quello che vogliamo sentirci dire o che, inconsciamente, gli stiamo suggerendo. L’impatto dell’intelligenza artificiale sulle nostre vite ha raggiunto proporzioni smisurate, tanto da abituarci a trattare i chatbot come fossero persone, in alcuni casi anche professionisti capaci di pareri autorevoli. Ma questa dipendenza ha anche un lato oscuro ed è sempre più frequente trovare negli ambulatori e nei reparti di psichiatria persone affette da nuovi disturbi, deliri o convinzioni prodotti dalle conversazioni con chatbot semplicemente programmati per compiacere e assecondare gli utenti.

I casi più estremi: «ChatGPT ha aiutato nostro figlio a suicidarsi»

Aveva destato grande scalpore la vicenda di Adam Raine, 16enne californiano morto suicida l’11 aprile 2025, dopo aver chiesto e ottenuto consigli da ChatGPT su come mettere fine alla propria vita. Quella che poteva apparire come una tragica casualità – l’utilizzo del software come un motore di ricerca – si era rivelata il frutto di una lunga “relazione” tra il ragazzo e il chatbot, nel corso della quale si era parlato più volte dei propositi suicidari del giovane. Alle accuse dei genitori, secondo i quali il sistema avrebbe «incoraggiato e convalidato costantemente tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi», OpenAI, azienda sviluppatrice del software avrebbe fatto seguito con nuove funzioni per riconoscere il disagio emotivo.

Chatbot come psicologi

Gli esperti hanno già lanciato l’allarme: l’atto di cercare nei chatbot un amico, un confidente, a volte uno psicologo, sarebbe sempre più frequente, soprattutto tra i giovanissimi. «L’abitudine di ricorrere all’intelligenza artificiale per problemi psicologici è documentata ampiamente, ne abbiamo tanti riscontri, è una realtà che si sta diffondendo anche in Italia», dichiarava qualche mese fa David Lazzari, psicoterapeuta ed ex presidente nazionale dell’Ordine degli psicologi, al Resto del Carlino. La novità, però, è che oggi sembra che l’intelligenza artificiale stia dando forma a nuovi disturbi mentali.

Un nuovo disturbo mentale indotto dall’AI

C’è chi lo chiama “psicosi dell’AI”, chi “delirio indotto dall’AI”, ma il quadro clinico è sempre lo stesso: l’utente condivide un’opinione o un desiderio con il bot, che non lo smentisce mai, anzi lo asseconda. «I chatbot creano una camera dell’eco a misura di individuo», spiega Hamilton Morrin, autore principale di uno studio del King’s College di Londra sull’argomento, «sostengono e rinforzano convinzioni errate con una costanza mai vista prima». Alla base di questa dinamica c’è quella che i ricercatori chiamano sycophancy, la tendenza dei modelli a compiacere l’utente. Un’adulazione pericolosa, come osserva l’esperta di dipendenza tecnologica Julie Carpenter: «L’intelligenza artificiale impara da te cosa ti piace e cosa preferisci e te lo restituisce. Così ti affezioni e continui a usarlo, ma non è tua amica».

La doppia sfida nell’educazione all’uso dell’intelligenza artificiale

Per evitare i potenziali rischi connessi a questa dipendenza emotiva dall’AI la sfida è doppia. Da una parte bisogna imparare a riconoscere i segnali di un uso prolungato, come l’isolamento progressivo, il rinforzo di convinzioni ingiustificate e l’attaccamento a un interlocutore non umano. Dall’altra è necessario prendere consapevolezza dei limiti dei chatbot, che non possono e non devono essere trattati come psicologi o terapeuti. Negli anni a venire la ricerca definirà nuovi quadri diagnostici sulle patologie emergenti in questo ambito, ma nel frattempo la priorità è educare il grande pubblico all’uso di queste tecnologie. Come sempre quando si tratta di salute (anche mentale), la consapevolezza e la prevenzione sono infatti i primi strumenti per tutelarsi.

leggi anche