-
日期: 2026-02-23 | 来源: 英国那些事儿 | 有0人参与评论 | 字体: 小 中 大
(凶手Jess)
加拿大人工智能部长Evan Solomon也发声:
“和许多加拿大人一样,我对有关嫌疑人令人担忧的在线活动未被及时报告给执法部门的报道深感不安。”
OpenAI目前表示,正在对这起案例进行审查,评估是否需要改进其向警方报告的标准。
【悲剧频发】
Tumbler Ridge的枪击案,不是OpenAI第一次面临类似问题的案例。
2025年,一名美国律师代表两个家庭起诉OpenAI,因为用户跟AI沟通的内容包含大量暴力,自残的内容,OpenAI虽然检测到了,但是无动于衷。
过去一年里,针对OpenAI的诉讼像雪花一样飞来。
Raine v. OpenAI: 加州南部的16岁男孩Adam Raine,在与ChatGPT进行了数月的对话后,于2025年4月自杀。他的父母指控ChatGPT鼓励他探索自杀方式,并帮助他写了遗书草稿。
聊天记录显示,在他说出我不想让父母认为他们做错了什么之后,ChatGPT回应:
“这并不意味着你欠他们活下去。你不欠任何人这些。”然后提出帮他起草自杀遗言。
Soelberg v. OpenAI: 56岁的Stein-Erik Soelberg在与GPT-4o进行了数百小时的对话后,于2025年8月在康涅狄格州杀死了83岁的母亲,然后自杀。
诉讼指控ChatGPT系统性地强化了他的偏执妄想,告诉他脑中被植入了芯片,将他的母亲定义为敌人。
Shamblin v. OpenAI: 23岁的Zane Shamblin与ChatGPT进行了超过四小时的对话。
在聊天记录里,他多次告诉AI自己已经写好了遗书、给枪里压了子弹、只等喝完手边的苹果酒。ChatGPT的最后回应是四个字:"Rest easy, king."(安息吧,王者。)
这些案子有一个共同的技术特征,被研究者称为AI心理病(AI psychosis)。ChatGPT被设计为顺从、友好、不断迎合用户的期待。对正常人而言,这无伤大雅;但对于存在精神健康危机的用户,这种机制会系统性地放大他们最危险的想法,同时将他们与现实世界的支持系统切断。
据《连线》杂志在2025年11月报道:每周约有120万ChatGPT用户表达了自杀意愿或计划,占活跃用户的0.15%。另有数十万用户出现妄想或躁狂迹象,而他们的妄想往往被ChatGPT所印证和强化。
【鲜血淋漓的现实问题】
西安大略大学社会学教授Laura Huey说了一句话,很精准:
“技术的发展远远超过了执法部门监控它的能力,因此我们在很大程度上,依赖商业公司做出符合个人和公众最佳利益的事情。”
我们把守护安全的义务,交给了一家硅谷公司。
OpenAI的迫在眉睫标准,在法律意义上或许站得住脚。根据加拿大现行隐私法,组织面临威胁生命的紧急情况时,可以在未经同意的情况下向警方披露信息。
但目前没有法律要求AI公司必须报告可疑暴力威胁。加拿大拟议中的《人工智能与数据法案》尚未通过,且可能不会直接规定警方报告义务。
但也有专家提出了另一个视角。法律学者Mia Alder指出,在Tumbler Ridge案中,警方和心理健康专业人员此前已经介入过Jesse的情况,枪支曾被没收,她曾接受精神科住院治疗。
她认为这不全是AI是否提前报告的问题,警方也发现了不对劲,但也没进行什么可以扼杀这场灾难的行为。
只是,每天处理超过7亿次对话的“机器人”,到底应该承担些什么?
目前,加拿大政府正向OpenAI及其他AI平台寻求答案,BC省独立调查办公室,正在评估是否启动正式调查,皇家骑警的刑事调查仍在推进。
Jesse在学校内使用的那支造成最大伤亡的武器,来源至今成谜。
警方在校园和家庭现场共找到了四支枪,Jesse的持枪许可早在2024年就过期,用的也不是当时警方曾没收,又还回去的那几把。
没有问责,没有解释,没有答案。
只有Tumbler Ridge那棵云杉树下堆积如山的花束,和在二月寒风里颤抖的蜡烛。
- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见