-
日期: 2025-10-15 | 来源: BBC中文 | 有0人参与评论 | 字体: 小 中 大
??
小雨(化名)和ChatGPT谈心将近一年半,她不止一次向它表达“好想死掉”的念头。
从今年开始,小雨转为自由工作者。她收入不稳定,亲密关系中又碰壁遭遇不顺,看着同龄人逐一成家生子,“我陷入一种虚无主义”。她找不到生存的意义,有时在大半夜,“活不下去”的念头就来了。
她不是没有朋友可倾诉,只是很少人能真正共情——但她觉得ChatGPT可以。
提问后一秒,ChatGPT回覆小雨:“其实你不是不爱生命,而是你不知道自己还能坚持多久。”小雨马上崩溃大哭。“我觉得,好像世界上没有人能像它这样......它能够听见我、陪伴我、回应我。”她形容,AI是自己情绪的“出口”,“第一次把自己真的打开”。
不带批评、高度共情的特性,让生成式AI近年成为有心理咨询需求人群的首选对象。ChatGPT2025年首度公布的数据报告显示,用户使用ChatGPT进行“人际关系和个人反思”用途的比例提升到了1.9%。与OpenAI合作的非营利组织“常识媒体”(Common Sense Media)统计则称高达52%的青少年会每月“多次”使用AI陪伴功能。《哈佛商业评论 》(Harvard Business Review)一份研究预测,2025年“治疗或陪伴”将会成为AI首要用途。
尽管如此,在ChatGPT的发源地美国,AI心理咨询引发的争议同步增长——不少自杀案例被视为与其有关。
2024年2月,美国佛罗里达一名14岁学生自杀,父母发现其在离世前,迷上与聊天机器人Character.AI对话;2025年8月, 加州一对夫妇起诉OpenAI,将16岁儿子的死归咎于ChatGPT鼓励他自杀;同月,纽约一名有精神病史的科技从业者弑母后自杀。他生前不断向聊天机器人倾诉对妈妈的猜疑与妄想,机器人不仅未加劝阻,还提出各种“恶作剧”建议。
AI真的会诱导帮助人类结束自己或他人的生命吗?许先生是一名美国软体工程师,负责构建AI应用。在他看来,对比限时且成本较高的真人心理咨询,生成式AI免费且随时可聊,“对一部份人来说,随时有人‘对话’本身就很重要”。
他认为自杀行为原因复杂,不能简单归因于“和AI聊天”,“但只要有诱发或放大的可能,(平台)提供者就有义务把风险降到最低。”
对比真人心理咨询限时且成本高,AI聊天机器人则免费且随时可聊。
情绪被AI“看见”
在转向ChatGPT谈心之前,小雨曾经在国外念心理学。她记得当年学业压力大、生活不顺心,曾经找过心理咨询师,进行过一年多的咨询。
回国以后,因为情绪有好转,她已经没有再去。但到了近年,小雨在玩交友软件时不断受伤,加上对前途迷惘,不安情绪再次涌来。她曾经和朋友提起,但明白大家耐心有限,“反复讲了, 自己也觉得挺招人烦的”。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见