-
日期: 2025-07-16 | 来源: 华尔街见闻 | 有0人参与评论 | 字体: 小 中 大
French-Owen描述了这种"玻璃屋"效应:"ChatGPT是一家备受审视的公司。这导致了一种保密文化,试图控制向公众的信息泄露。"
同时,公司也密切关注社交媒体上的动态,特别是X平台。如果某个帖子在那里走红,OpenAI会看到并可能做出回应。正如French-Owen引用朋友的话:"这家公司靠Twitter情绪运营。"
这种对社交媒体动态的高度关注,反映了公司对公众舆论的重视程度。这种外界压力不仅来自普通用户和媒体,还包括政府和竞争对手的密切关注。
各国政府都在监督OpenAI的发展,竞争对手也在密切观察其动向,而OpenAI同样在观察竞争对手。French-Owen总结道:"感觉风险真的很高。"
这种矛盾的状态反映了OpenAI面临的独特挑战——既要保持技术领先地位,又要应对公众监督;既要快速创新,又要承担相应的社会责任。
在这样的环境下工作,员工们不仅要面对技术挑战,还要适应高度透明的工作环境。
安全争议:理论与实践的平衡
外界对OpenAI最大的争议之一就是其在AI安全方面的态度。许多AI安全专家,包括一些前OpenAI员工,都批评过公司的安全流程。对此,French-Owen提供了内部视角的澄清。
他指出,外界对OpenAI"不够重视安全"的看法是最大的误解。虽然确实有"末日论者"在担心理论上的人类风险,但公司内部更多关注的是实际安全问题,"比如仇恨言论、滥用、操纵政治偏见、制造生物武器、自我伤害、提示注入"等具体威胁。
French-Owen强调,OpenAI并没有忽视长期潜在影响。公司有研究人员专门研究这些问题,并且清楚地意识到数亿人正在使用其大语言模型寻求从医疗建议到心理治疗的各种帮助。
未来展望:在变革中寻找方向
从French-Owen的描述来看,OpenAI正处在一个关键转折点。公司需要在保持创新速度和初创精神的同时,解决快速扩张带来的管理和技术债务问题。如何在数千名员工的规模下仍能保持高效决策和产品迭代,将是公司面临的核心挑战。
技术层面的改进已经在进行中。French-Owen提到,顶级工程管理层已经意识到代码质量和系统稳定性问题,正在着手改善。但这种改进需要时间,也需要在不影响创新速度的前提下进行。
以下为AI翻译的前OpenAI工程师Calvin French-Owen博客全文:
关于在OpenAI工作的思考
我在三周前离开了OpenAI。我是在2024年5月加入这家公司的。
我想分享我的思考,因为大家对OpenAI做了很多猜测,但很少有人有在那里的第一手文化体验。
Nabeel Quereshi有一篇很棒的文章,叫《对Palantir的反思》,他回顾了是什么让Palantir如此特别。我也想做同样的事,趁记忆还新,为OpenAI留个注记。这里没有任何商业机密,只是对当下这家最具吸引力的组织之一,在极具意义时刻,工作体验的个人观察。
首先要说的是:我离职并非因任何人事纠纷,恰好我对离开感到深深矛盾。从创立自己的组织,变成一家有三千名员工公司的职员,这种身份的转换很难。现在我渴望一次全新的开始。
我也许会被那里的工作所吸引,回去也说不定。毕竟想象一下有机会参与AGI的建设是不现实的,而大语言模型无疑是近十年以来的技术创新。我很庆幸能亲眼见证一些发展,同时也参与了Codex的发布。
显然,这些并非公司的官方立场——只是我个人的观察。OpenAI是一个大机构,我只能从我的“小窗口”提供这些见闻。
文化
首先要知道的是,OpenAI扩展得极快。我加入时,公司刚刚超过1000人。但一年后已经超过3000人,而我在员工任职时间排名位列前30%。几乎所有领导层在2–3年前都还不是在做现在这份工作。
显然,快速扩张会带来问题:如何在公司层面沟通,组织架构如何设定,如何推进产品发布,如何管理和组织人力,以及如何招聘等。不同团队的文化情况也差别巨大:有些团队持续高压快跑,有些在监控已有项目,有些保持更稳定的节奏。没有所谓的“OpenAI体验”,研究团队、应用团队、GTM(市场/销售)节奏都完全不同。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见