Ultime notizie DaziDonald TrumpGazaUcrainaVladimir Putin
SALUTEChatGPTIntelligenza artificialeSanitàUSA

Chiede a ChatGPT come sostituire il sale nella sua dieta quotidiana e finisce in ospedale in preda alle allucinazioni

13 Agosto 2025 - 12:19 Alba Romano
chatgpt psicologo
chatgpt psicologo
Il caso citato sulla rivista scientifica statunitense Annals of Internal Medicine: Clinical Cases. L'IA gli aveva suggerito il bromuro di sodio

Un 60enne di cui non sono state rese note le generalità ha finito ha chiesto a ChatGPT come creare del sale casalingo ed è finito in ospedale in preda alle allucinazioni. Il caso è riportato dalla rivista scientifica statunitense Annals of Internal Medicine: Clinical Cases ed è citato oggi sul Corriere della Sera.

La richiesta a Chat Gpt

L’uomo, dopo essersi informato sui possibili effetti nocivi del sale da cucina sulla salute umana, ha chiesto al popolare chatbot (versione 3.5 o 4) un valido sostituto. La risposta di ChatGPT è stato il bromuro di sodio. Valido però per «per altri scopi, come la pulizia», spiega il paper. Una opzione che però l’AI non avrebbe menzionato. Così, dopo averlo acquistato on line il 60enne lo ha inserito nella sua dieta quotidiana. Tre mesi dopo si è presentato in ospedale nel pieno di un episodio psicotico, convinto che un vicino di casa lo volesse avvelenare. E si è ammalato di bromismo, un’intossicazione cronica debellata negli anni. Ha accusato per settimane paranoie, allucinazioni, disturbi della memoria, confusione mentale. Tutti sintomi della sindrome che «si riteneva contribuisse fino all’8% dei ricoveri psichiatrici, poiché i sali di bromuro erano presenti in molti farmaci da banco destinati a una vasta gamma di disturbi, tra cui insonnia, isteria e ansia», spiegano sulla rivista scientifica. Il caso è emblematico per sottolineare i limiti dell’intelligenza artificiale, spesso nelle diagnosi fai da te, che possono «potenzialmente contribuire allo sviluppo di conseguenze negative per la salute che potrebbero essere evitate».

leggi anche