-
日期: 2026-04-23 | 來源: 量子位 | 有0人參與評論 | 字體: 小 中 大
GPT Image2全網刷屏,但效果究竟為什麼這麼好?
研究負責人陳博遠揭秘:底層架構已徹底重構。
但他又拒絕回答是否采用擴散模型或自回歸技術,只是神秘的將其描述為“通用模型”或“圖像領域的GPT”。
陳博遠的壹條推文還透露,從去年12月底的GPT Image 1.5算起,只用了肆個月就有如此大的改進。
這樣突破性的成果,核心團隊只有13人。
整個團隊的負責人Gabriel Goh曬出了的團隊成員AI全家福。
評論區有網友感歎:怎麼全是亞洲人?
陳博遠:從不懂Python到Research Lead
GPT Image 2究竟是什麼架構?
OpenAI恐怕很長壹段時間都不會公布了,但從核心團隊成員的學術經歷可以看出壹些痕跡。
陳博遠是團隊的Research Lead,他和另壹位成員Kiwhan Song在MIT讀博時有同壹位導師Vincent Sitzmann。
他博士期間的代表作Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion入選了NeurIPS 2024。
這項研究提出Diffusion Forcing這壹全新序列生成訓練范式,將逐token獨立噪聲級擴散與因果下壹個token預測結合,融合自回歸模型的可變長度生成與全序列擴散模型的長程引導優勢。
他在谷歌實習期間還以共同壹作身份發表了SpatialVLM。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見