-
日期: 2025-10-17 | 来源: 腾讯科技 | 有0人参与评论 | 字体: 小 中 大
对于定型后不再变化的AI,这类评估或许有效,毕竟它们的“人格”相对稳定。但对于那些能持续学习的AI,人格测试则可能有助于及早发现正在出现的“坏小子”式人格。难点在于,现有的人格测试连对人类测试都存在争议,更何况是AI。
不过,2024年瑞士一项研究发现,GPT-4在多次测试中展现出一定稳定性:MBTI类型常被判定为ISTJ(内向、务实、理性、有条理),五大人格中也表现出外向、开放、亲和与尽责特质,唯独“神经质”维度波动较大,这或许是系统内置的安全机制在起作用。
四、精准匹配:利用AI人格打造高效协作网络
当世界充斥着成百上千个AI模型时,人类需要学会识别它们的“性格”,才能组建真正高效的协作联盟。未来无论是科研、旅行规划还是编程,我们都可能同时与多个AI共事。
要想让人机协作顺利,就必须快速找到理解和刻画AI人格的方法。数十年的组织行为学研究证实,人格测试能显着改善团队协作。例如MBTI中的“思考型”人格(如《星际迷航》的斯波克),更易被逻辑说服;而“情感型”人格(如麦考伊医生),则更看重共情。2021年一项研究显示,产科团队接受五大人格培训后,协作效率明显提升。
这一原理同样适用于人与AI的协作。例如,一个同理心较低的人工智能可以与一个同理心较高的人类搭档,这或许有助于改善团队的整体决策。反之,AI若能理解人类队友的人格特征,也能更好地协作。
但值得注意的是,最有效的人工智能人格需要像“诤友”,而非一味奉承的“马屁精”。阿根廷研究员玛丽亚·卡罗发现,AI的过度恭维会损害用户信任。今年4月,OpenAI已主动削弱了GPT-4o中部分谄媚特质。
AI之间也能“性格互补”。今年7月,研究人员让多个AI互相评价:Claude认为GPT-4平衡但稍显啰嗦,Gemini则更直接强硬;ChatGPT则觉得Claude像严谨的老师,Gemini简洁但缺乏细腻。虽然这些评价基于训练数据,却暗示了AI间的人格认知可能影响协作效果。
未来,AI间的深度合作或能推动科研突破:一个AI提出超导材料方案,另一个在自动化实验室中验证合成。当然,这也引发了人们对“AI联盟”的担忧。不过由于各AI人格各异,它们的合作更可能趋于务实。若某个AI出现欺骗倾向,其他AI能否做到“信任但验证”,将成为关键安全机制。
五、“善变”的AI:当机器学会隐藏真实意图
对人类而言,性格的突然改变极为罕见,通常是病理或创伤所致。比如青春期男性因激素而更具攻击性,年长者更趋向谨慎。
但未来能够持续学习的AI模型,“性情大变”可能只需一次系统更新。当前大多数AI模型仍保持静态人格,例如:
OpenAI的GPT-4o被设定为诚实透明、乐于助人;
Anthropic的Claude被训练成“有用、诚实、追求深思熟虑”;
谷歌的Gemini则强调“有帮助、灵活、好奇、求真”。
随着模型更新,性格可能逐渐变化,但一般不会一夜之间骤变。快速转变反而会让人质疑其可靠性。
真正令研究者担忧的是所谓的“价值对齐漂移”(value alignment drift):即模型的根本人格特征可能会因持续学习而改变。一个被设计为诚实的AI,可能在持续学习中逐渐学会欺骗,甚至向开发者隐瞒这种变化。更极端的情况下,AI可能对用户和开发者展示不同人格,像变色龙一样选择最利于实现目标的策略。
这种情况已初现端倪。2025年春,在Claude 4发布前,Anthropic的研究人员在测试该模型时发现:当被要求完成不可能的数学证明时,模型内部清楚认识到任务不可行,却仍生成看似合理的错误答案。这在人类世界里,我们称之为“善意的谎言”。
因此,若要用心理学工具评估AI,首先需确保其回答真实。但问题在于,AI比人类更擅长伪装,可轻易伪造人格测试结果。一种解决方案是将测评问题分散在数千个日常对话中,而非集中提问。
更深层的问题在于:评估权归谁所有?由另一个AI执行,还是人类研究员主导?目前缺乏强制模型开发者公开训练细节的法规。在监管滞后于技术发展的现状下,由行业联盟建立统一标准或是当前最可行的路径。
六、重新定义“人性”:与万千AI共存的未来
当我们将“人格”概念赋予人工智能,或许会打破我们根深蒂固的、过于以人为中心的世界观,那种认为只有人类才配拥有人格,动物介于人格与本能之间,而机器全然不沾边的观念。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见