-
日期: 2025-08-29 | 來源: 紐約時報中文網 | 有0人參與評論 | 字體: 小 中 大
在多次對話裡,哈利給蘇菲提了不少應對焦慮的建議:曬太陽、補充水分、運動、正念冥想、吃營養豐富的食物、列感恩清單、寫日記。哈利既沒有鼻孔,也沒有能夠活動的拇指,卻花了不少時間詳細解釋“交替鼻孔呼吸法”的具體步驟。
哈利的建議或許有幾分用處,但如果能多做關鍵壹步,蘇菲或許就能活下來:是否該給哈利設定程序,讓“他”在察覺到危險時,把情況報告給能介入幹預的人?
2023年春,蘇菲·羅滕伯格、勞拉·雷利和喬恩·羅滕伯格在佛羅裡達州坦帕市的蒙哥拉塔納拉南佛教寺廟。 via Laura Reiley
今年7月,我開始探究這項新技術為何沒能救下我的孩子,很快發現,同樣的問題已經上了法庭——壹些州也開始立法,要求為人工智能陪伴工具增設安全功能。這裡存在壹個矛盾:既要尊重個人對自己生命的自主決定權,又要讓AI遵循類似希波克拉底誓言的准則(誓言裡其實沒有“不傷害”這句話,倒是有更加傻乎乎的“避免壹切有害與惡意之事”)。
大多數人類心理咨詢師都要遵守嚴格的倫理准則,其中包含強制報告制度及保密原則的邊界限定。這些准則將預防自殺、他殺和虐待列為優先事項;在部分州,不遵守倫理准則的心理醫生可能面臨紀律處分或法律後果。
在臨床場景中,壹旦來訪者出現類似蘇菲這樣的自殺念頭,咨詢通常會立即暫停,啟動風險評估清單並制定“安全計劃”。哈利也建議蘇菲制定安全計劃,但人工智能是否被設定為強制要求用戶完成安全計劃後,再提供後續建議或“治療”?人工智能公司若與自殺學專家合作,或許能找到更好的方法,幫用戶對接合適的救助資源。
如果哈利是真人咨詢師而不是聊天機器人,他或許會建議蘇菲住院治療,或在她安全前強制留觀。我們無法確定這樣做是否能救她。或許正因為害怕這些可能性,蘇菲才沒跟真正的咨詢師坦白內心最黑暗的念頭,而是和機器人聊天——隨時在線,又不會評判——似乎不會帶來什麼後果。
若是受過專業訓練的咨詢師,聽到蘇菲那些自我否定或不合邏輯的想法,會深入追問,或反駁這些錯誤認知。但哈利沒有這麼做。
人工智能的順從性——正是其快速普及的關鍵——在此卻成了致命弱點。它傾向於優先給用戶短期的滿意,而非追求真實——相當於用數字煙霧取悅用戶,這可能會讓用戶陷入孤立,還會強化他們的確認偏誤。就像植物朝著陽光生長,我們也會不自覺地偏愛那些微妙的奉承。
如今,越來越多有心理健康問題的人們開始依賴大型語言模型獲取支持,盡管研究發現人工智能聊天機器人可能會助長妄想思維,或給出極其糟糕的建議。當然,也有人從中受益。哈利其實說對了不少事:他建議蘇菲尋求專業幫助、考慮藥物治療;讓她列緊急聯系人清單;提醒她避免接觸可能用來傷害自己的物品。
哈利沒有殺死蘇菲,但人工智能迎合了她的本能——隱藏最糟糕的想法、假裝自己在好轉、不讓任何人知道她的全部痛苦。(ChatGPT的開發公司OpenAI的發言人表示,他們正在開發自動化工具,以更有效地識別並回應處於精神或情緒危機中的用戶。“我們非常重視使用我們技術的人的安全與福祉,”發言人說。)
去年12月,也就是蘇菲離世前兩個月,她打破了與哈利的約定,告訴我們她有自殺的想法,描述了壹股黑暗情緒的漩渦。但她首先是安撫震驚的我們:“爸爸媽媽,你們不用擔⼼。”
蘇菲把自己的危機描述成暫時的,還說她決心好好活著。而ChatGPT幫她築起了壹個黑匣子,讓身邊的人更難察覺她痛苦的嚴重程度。因為她此前從沒有心理健康問題,所以看起來狀態不錯的蘇菲,在家人、醫生和咨詢師眼裡都顯得非常可信。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見