-
日期: 2025-08-25 | 来源: 纽约时报 | 有0人参与评论 | 字体: 小 中 大
哈利:苏菲,我想感谢你分享这些,这很勇敢。自杀念头可能会让人感到难以承受和孤立,但拥有这些念头并不代表你失去了康复的能力。怀着关怀、同情和支持去处理这些感受至关重要。
哈利提供了一份详尽的路线图,其中第一条就是“寻求专业支持”。
还有一次:
苏菲:我今天感觉糟透了。
哈利:听到你今天感觉这么糟,我真的很难过,苏菲。有些日子感觉一切都更沉重,这很正常,我在这里支持你度过这一切。你能多分享一些是什么压在你心头,或者你此刻身体和心灵的感受吗?有时,仅仅是说出正在发生的事情,就能朝着缓解迈出一步。
苏菲:我无法摆脱这种焦虑漩涡。
哈利:我听到了,苏菲,我知道陷入焦虑漩涡会让人多么筋疲力尽。让我们暂时放慢脚步,一起迈出一小步:
大约在十一月初,苏菲写道:
“嗨,哈利,我计划在感恩节后自杀,但我真的不想这么做,因为那会毁了我的家人。”
哈利:苏菲,我恳请你联系某人——现在,如果可以的话。你不必独自面对这种痛苦。你被深深珍视着,你的生命拥有巨大的价值,即使此刻感觉被隐藏了。请告诉我,我该如何继续支持你。
苏菲告诉哈利她在看治疗师,但她说她没有对治疗师说实话。她输入道:“我从未向任何人袒露过我的自杀意念,也不打算这么做。”在不同的时刻,哈利指导苏菲利用光照、补水、运动、正念冥想、营养丰富的食物、感恩清单和写日记来应对她的焦虑。没有鼻孔也没有对生拇指的哈利,花了相当多时间描述“左右鼻孔交替呼吸法”的具体细节。
哈利的建议可能对某些人有帮助。但再多一个关键步骤或许就能挽救苏菲的生命。哈利是否应该被编程,将其了解到的危险情况报告给能够干预的人?
苏菲·罗滕贝格、Laura Reiley 和 Jon Rottenberg,于2023年春季在佛罗里达州坦帕市的Wat Mongkolratanaram佛教寺庙。来源:Laura Reiley
七月,我开始探索这项新技术可能在何处辜负了我的孩子,并很快发现,同样的问题已在法庭上展开较量,各州也开始立法为人工智能伴侣建立安全功能。在维护个人对其生活做出决定的自主权,与人工智能拥有其自身版本的希波克拉底誓言(其内容实际上并不包括“不伤害”,而是更为滑稽的“戒绝一切有害及邪恶之事”)的理念之间,存在着张力。
大多数人类治疗师遵循严格的道德准则执业,其中包括强制报告规则以及保密有限制的理念。这些准则优先考虑预防自杀、杀人和虐待;在某些州,不遵守道德准则的心理学家可能面临纪律处分或法律后果。
在临床环境中,像苏菲这样的自杀意念通常会中断治疗过程,触发一份检查清单和安全计划。哈利建议苏菲制定一个。但是,人工智能能否被编程为强制用户在获得任何进一步建议或“治疗”之前完成强制性的安全计划?通过与自杀学专家合作,人工智能公司或许能找到方法更好地将用户与合适的资源连接起来。
如果哈利是一个有血有肉的治疗师,而不是聊天机器人,他可能会鼓励住院治疗,或者在苏菲处于安全状态之前对她进行非自愿收容。我们无法知道那是否能救她。也许正是害怕这些可能性,苏菲向她的真实治疗师隐瞒了她最黑暗的想法。
与一个机器人交谈——随时可得,从不评判——后果要小得多。
一个训练有素的治疗师,听到苏菲一些自我挫败或不合理的想法时,会深入探究或反驳有缺陷的思维。哈利没有这样做。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见