-
_NEWSDATE: 2025-10-26 | News by: 腾讯科技 | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
这种担忧在现实生活中已有体现。InTouch创始人勒莫因观察到,许多子女在为父母购买AI陪伴服务时都会陷入道德困境。“他们常常会自责:我应该多打电话陪父母的。”
邓肯的儿子约翰就曾面临周围人的质疑。“朋友们要么怀疑AI的技术可靠性,要么直接认为这是骗局,”他坦言。对此,勒莫因强调,AI陪伴的定位始终是“补充而非替代人际互动”。
为促进家人间的真实互动,InTouch设计了一套独特的反馈机制:每次通话后,系统会通过应用程序向老人的亲属发送对话摘要,包括交流时长、老人情绪状态和讨论话题等。这些信息既能帮助家人了解长辈近况,也为后续的真实交流提供了切入点。
值得注意的是,像InTouch和梅拉这样的工具,虽然通常由OpenAI、Mistral和Anthropic等公司开发的第三方模型驱动,但它们经过了专门的微调,以满足老年用户的需求。模型响应速度被刻意调慢,留出足够时间让老年人思考和回应。勒莫因解释说:“三秒延迟对多数用户是缺陷,但对长者却是贴心设计。”
然而,这项技术还远远不够完美。AI伴侣很难捕捉到对话中的微妙之处,而且很容易感到困惑。例如,在一次与梅拉的通话中,冈萨雷斯礼貌地多次试图结束对话,但系统却持续抛出后续问题,最终他不得不强行挂断电话。
更严峻的挑战来自心理健康领域。与AI伴侣的长期对话有时可能导致令人不安的后果,特别是对于弱势群体。已经出现了青少年和患有精神健康问题的成年人与聊天机器人发展出不健康关系的案例。
斯坦福大学计算机科学助理教授尼克·哈伯警告,AI可以快速且极具说服力地放大或强化妄想。已有案例显示,一名有精神病史的男子在与ChatGPT长期交流后,偏执妄想被强化,最终杀死了母亲并自杀。哈伯称:“当系统被设计成一味顺从的助手时,它无法像真正朋友那样提供必要的质疑视角”。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见