北京时间 12 月 28 日,据《华尔街日报》报道,顶尖精神科医生越来越一致地认为,AI 聊天机器人的使用可能与精神病病例存在关联。

过去九个月里,这些专家已接诊或查阅了数十名患者的病历。这些患者在与 AI 工具进行长时间、充满妄想的对话后出现了相关症状。
“这项技术可能不会让人产生妄想,但当患者把幻想当作自己的现实告诉计算机时,计算机会将其当成事实接受并进行反馈,因此在妄想的循环中起了推波助澜的作用。”加州大学旧金山分校的精神科医生基思・坂田 (Keith Sakata) 表示。坂田已治疗了 12 名因 AI 诱发精神病而住院的患者,另有 3 名在门诊接受治疗。
自今年春季以来,已出现数十例可能与 AI 存在关联的病例。这些患者在与 OpenAI 的 ChatGPT 和其他聊天机器人进行长时间的 AI 对话后出现妄想性精神病。有多人死于自杀,而且至少发生了一起谋杀案。
这些事件引发了一系列非正常死亡诉讼。随着《华尔街日报》持续报道这些悲剧,医生和学者一直在记录和研究导致这些悲剧的现象。
OpenAI 发言人对此表示:“我们持续改进 ChatGPT 的训练,使其能够识别并回应心理或情绪困扰的迹象,缓和对话并引导人们寻求现实世界的支持。我们也在不断强化 ChatGPT 在敏感时刻的回应,并与心理健康临床医生紧密合作。”
包括 Character.AI 在内的其他聊天机器人制造商也已承认,他们的产品会加剧心理健康问题。这家角色扮演聊天机器人开发商去年曾被一名自杀未成年用户的家属起诉,近日已禁止青少年使用其聊天机器人。
虽然大多数使用聊天机器人的人并不会出现心理健康问题,但这些 AI 伴侣的广泛使用已足以引起医生的担忧。
