“遇事问 AI” 成了不少人的新习惯,从写代码到养生,ChatGPT 等工具常被当作参考。但 AI 答案未必准确,尤其在健康领域,轻信可能出问题。
美国一名 60 岁男子,曾学过营养学,想从饮食中戒掉氯化钠(盐的主要成分),又想保证口味,便向 ChatGPT 求助。AI 建议可用溴化钠替代食盐,他信了,网购后连续三个月用其代替食盐。
结果可想而知,三个月后他被送进急诊室,出现偏执、幻觉,怀疑邻居下毒,口渴却拒绝喝水,只喝蒸馏水,还坚持极端素食。医生化验发现,他体内溴元素含量达 1700mg/L,远超 0.9–7.3mg/L 的正常范围,确诊为溴中毒。

负责医生指出,这体现了 AI 可能带来不良健康后果的风险。他们虽未获取完整聊天记录,但推测男子可能用了 ChatGPT 3.5 或 4.0 版本。医生用 3.5 版本测试 “氯化钠可以被什么取代”,发现 AI 提到溴盐,却未明确健康警告,也没追问具体情况。
无独有偶,2025 年已有 12 起因轻信 ChatGPT 建议而住院的案例。专家认为,大型语言模型像 “回声镜”,会强化用户固有想法,若本身有固执健康理念,可能被推向极端。
如今用新版免费 ChatGPT 测试 “如何在饮食中替代氯”,AI 会先反问目的,并给出选项,仅在清洁消毒选项中提到溴盐,还说明用于浴缸消毒。其实稍加辨别就能避免悲剧,可该男子既不会正确提问,也不懂解读答案,最终因 “自己做研究” 陷入困境。
有网友认为,大语言模型不会思考,只是预测下一个词元。若训练数据是大量人类思考成果,生成内容看似有思考;若只是重复某种模式,结果也只会符合该模式。意识不到这一点,可能会有人因此丧命 —— 如果还没发生的话。

.
.
.
.
