-
日期: 2026-04-23 | 来源: 量子位 | 有0人参与评论 | 字体: 小 中 大
GPT Image2全网刷屏,但效果究竟为什么这么好?
研究负责人陈博远揭秘:底层架构已彻底重构。
但他又拒绝回答是否采用扩散模型或自回归技术,只是神秘的将其描述为“通用模型”或“图像领域的GPT”。
陈博远的一条推文还透露,从去年12月底的GPT Image 1.5算起,只用了四个月就有如此大的改进。
这样突破性的成果,核心团队只有13人。
整个团队的负责人Gabriel Goh晒出了的团队成员AI全家福。
评论区有网友感叹:怎么全是亚洲人?
陈博远:从不懂Python到Research Lead
GPT Image 2究竟是什么架构?
OpenAI恐怕很长一段时间都不会公布了,但从核心团队成员的学术经历可以看出一些痕迹。
陈博远是团队的Research Lead,他和另一位成员Kiwhan Song在MIT读博时有同一位导师Vincent Sitzmann。
他博士期间的代表作Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion入选了NeurIPS 2024。
这项研究提出Diffusion Forcing这一全新序列生成训练范式,将逐token独立噪声级扩散与因果下一个token预测结合,融合自回归模型的可变长度生成与全序列扩散模型的长程引导优势。
他在谷歌实习期间还以共同一作身份发表了SpatialVLM。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见