-
_NEWSDATE: 2025-04-05 | News by: New Economist | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
技术伦理的断裂带:
当AI信任超越人类控制
新经济学家智库特约研究员
晶恒
铜陵高速公路的监控画面定格在22时44分28秒——小米SU7以97公里时速撞向水泥护栏的瞬间,车内三名大学生的生命与智能驾驶系统的决策算法一同化为燃烧的铁壳。这场事故不仅撕开了智能汽车安全性的技术面纱,更暴露出一个残酷现实:已然证明可以对克隆人技术实施严密有效监管、航空业一致保持高度监管从而有效降低事故率的人类,在面对人工智能的伦理框架构建和人工智能创新时,却表现出令人费解的滞后与激进。这道不断扩大的鸿沟,正悄然将人类的生命以及文明推向未知的风险深渊。
一、智能驾驶事故背后的“标准套利”与监管时差
小米事故车SU7标准版为降低成本移除激光雷达,而纯视觉系统在车速超过85km/h时的有效检测距离不足200米,留给系统应急反应的时间仅在7秒左右,低于行业建议的安全阈值。面对这样的事故,我们不禁要问:难道智能汽车行业没有成熟的安全标准可循吗?
事实上,百年航空业的发展为高风险行业提供了极为宝贵的安全体系参考。以波音787为例,该机型的飞控系统需通过FAA 25部规章下超过300项专项认证,而且根据波音官方《787 Flight Crew Training Manual》数据,飞行员转型培训标准为28天全沉浸式课程,其中包括56小时模拟器训练。这种严格的系统认证与操作人员培训双重保障,构筑了安全防线。当然,航空业也存在如波音737 MAX这样的反面教材。波音为降低成本和加速上市,移除了第二套迎角传感器,导致MCAS系统因单一传感器故障而引发致命坠机事故。但因为监管严密,这种将安全冗余让位于市场竞争的决策,让波音的高管和工程师至今仍因MCAS系统缺陷而被追责。
令人忧虑的是,智能汽车行业未能从航空业严谨经验方面汲取经验,反而选择了与737 MAX相似的错误道路。其问题根源主要体现在两方面:一是监管政策的滞后。以美国为例,国家公路交通安全管理局(NHTSA)尽管自2016年起推出了《自动驾驶系统2.0:安全愿景》等框架,但至今仍未对L4及以上自动驾驶系统建立强制性认证标准。相比之下,航空业FAA的严格标准确保了整体安全性。二是企业自律性不足。行业标杆特斯拉的Autopilot系统虽然在过去十年经历了5次架构革新,技术上有长足进步,但也未对驾驶员提出过任何培训要求或建议,这与航空业对飞行员的严格培训形成鲜明对比。
这种现象暴露了一个古老又存在至今的"标准套利"原则:企业利用监管标准的更新滞后性,通过选择性引用较低层级或宽松标准来规避技术责任,从而在安全与成本之间做出有利于短期市场竞争但可能损害长期用户安全的权衡,这反映了技术治理与市场竞争之间的结构性矛盾。未来,智能驾驶汽车是应该延续传统汽车的渐进式监管,还是应该提高标准,借鉴航空业的预防性监管体系?这不仅是监管机构与企业需要思考的问题,也是我们每一个人都应当参与讨论的重要议题。在追求技术创新与商业利益的同时,如何确保用户安全不被让步,将是智能驾驶行业能否健康发展的关键。
二、技术决策的伦理豁免权
作为一种备受瞩目的技术,人工智能(AI)正以席卷之势迅猛发展。在成功推动大语言模型的应用落地后,AI又信誓旦旦地跨入垂直生产力领域。如今,任何对AI发展的质疑似乎都可能被视为不合时宜。“为机器立心”、“碳基生命可能是硅基生命的过渡”等论点可以堂而皇之地发表而不受谴责。联合国秘书长古特雷斯在巴黎人工智能行动峰会上提出的灵魂追问——"谁来决定人工智能应解决哪些问题?谁最能从中受益?谁将承担其错误的代价?"——早已被淹没在技术达尔文主义的热潮中。
相比之下,在不算遥远的过去,克隆技术的治理展现了截然不同的逻辑光谱。1997年多利羊诞生后,各国迅速采取行动。例如,美国时任总统克林顿于当年3月颁布行政命令,禁止联邦资金用于人类克隆研究;1998年,欧洲委员会通过了《欧洲人权与生物医学公约》的附加议定书,禁止任何形式的人类生殖性克隆。这一议定书已被包括法国、德国、西班牙等多个成员国签署和批准;俄罗斯于2002年颁布联邦法令,暂时禁止人类克隆,并在2010年将禁令延长为无限期有效;中国在2003年发布《人胚胎干细胞研究伦理指导原则》,明确禁止将克隆技术用于生殖目的。这些刚性约束形成了全球范围内对克隆技术的一种伦理规范。然而,这样的治理逻辑在人工智能领域却几近“天方夜谭”。例如,DeepMind最新发布的AlphaGeometry模型已具备自主证明复杂定理的能力,但对于其训练数据中可能存在的伦理争议迄今无人问责。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见