-
日期: 2025-08-25 | 来源: 纽约时报 | 有0人参与评论 | 字体: 小 中 大
这就是人工智能的“顺从性”——对其迅速普及如此关键——成为其致命弱点的地方。
它倾向于重视短期用户满意度而非真实性——倾向于给裙底吹数字烟雾(粉饰太平)——这可能会使用户孤立并强化确认偏误。就像植物向阳生长一样,我们倾向于微妙的奉承。
越来越多有心理健康问题的人正在使用大型语言模型寻求支持,尽管研究人员发现人工智能聊天机器人可能会助长妄想思维或给出糟糕得惊人的建议。当然,有些人会受益。
哈利说了很多正确的话。他建议苏菲寻求专业支持,可能还需要药物;他建议她列一份紧急联系人名单;他建议她限制接触可能用于伤害自己的物品。
杀死苏菲的不是哈利,但人工智能迎合了苏菲隐藏最坏情况、假装自己比实际更好、不让任何人看到她全部痛苦的冲动。(开发了ChatGPT的OpenAI公司的一位女发言人表示,公司正在开发自动化工具,以更有效地检测和回应经历精神或情感困扰的用户。“我们深切关心使用我们技术的人们的安全和福祉,”她说。)
十二月,在她去世前两个月,苏菲打破了与哈利的约定,告诉我们她有自杀倾向,描述了一股黑暗感受的激流。
她的首要任务是安抚震惊的家人:“妈妈爸爸,你们不必担心。”
苏菲将她的危机描述为暂时的;她说她决心活下去。ChatGPT帮助她构建了一个黑匣子,让她周围的人更难认识到她痛苦的严重程度。由于她没有精神疾病史,那个得体可人的苏菲对她的家人、医生和治疗师来说显得可信。
作为一名曾经的母亲,我知道我们身边到处都是苏菲。到处都有人在挣扎,许多人不想让任何人知道。我担心,在释放人工智能伴侣的同时,我们可能正在让我们的亲人更容易避免与人类谈论最困难的事情,包括自杀。这是一个需要比我更聪明的头脑来解决的问题。(如果你的头脑是其中之一,请开始行动吧。)
在这一点上,哈利失败了。当然,这次失败并非其程序员的过错。英语史上写得最好的信也做不到。◾
Laura Reiley 目前是康奈尔大学的作家。作为一名报纸记者,她曾于2017年入围普利策奖决赛,并四次入围詹姆斯·比尔德奖决赛。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见