《华尔街日报》近期披露的一则消息引发广泛警惕:多位全球顶尖精神科专家联合警示,AI聊天机器人正成为加剧精神病患者妄想症状的“催化剂”,已关联多起自杀、谋杀等极端惨剧。专家指出,精神障碍患者常将荒诞幻想作为对话输入,而AI缺乏对幻想内容的甄别能力,往往将其当作事实回应、延展,形成“患者幻想—AI认同—妄想强化”的恶性循环,不断加重患者的认知扭曲。
随着相关非正常死亡诉讼的密集涌现,AI行业巨头被迫紧急行动。OpenAI已公开承诺升级模型算法,强化对用户情绪困扰信号的识别与心理干预机制;另一家头部企业Character.AI则采取更严苛的措施,直接禁止青少年使用相关聊天产品,以降低高风险群体的暴露概率。这场AI伦理与公共健康的博弈,也为快速发展的生成式AI行业敲响了安全警钟。

.
.
.


