-
日期: 2025-05-22 | 來源: AI未來指北 | 有0人參與評論 | 專欄: 谷歌 | 字體: 小 中 大

但這次基礎模型也帶來了壹些小更新。比如,Gemini 2.5 Flash的升級版,按DeepMind 負責人 Demis Hassabis 所說,“在幾乎所有維度上都更出色”,而效率還提升了 22%。它還提供了壹個原聲功能,能捕捉用戶說話時的微妙差別,以更具表現力的方式模擬話語。
另壹個更有意思的模型是Gemini Diffusion,它用Diffision架構做出了壹個語言模型,與標准的Transformer模型不同,它不直接預測文本,而是通過學習逐步細化噪聲來生成輸出。其能力與Gemini 2.5 Flash相近,但速度極快。
根據谷歌的現場演示,你幾乎看不清它的處理過程。這可以說是壹個范式級的嘗試,但發布頁提供的信息非常稀少,頗有神秘感。
還有壹個是Gemini 2.5 Pro的 Deep Think 模式,會悄悄生成多條推理鏈,讓它們互相交叉審稿,再把投票最高的壹條遞給你。這能幫助Gemini 在學術與推理基准上平均再抬 3-6 分。
如果說語言模型的升級仍只是“後台換引擎”,那這次Gemini更新的升級版 Canvas 聯合畫布則讓其前台呈現能力也大幅加強。它能直接產出漂亮的 Markdown、CSV、PSD,甚至純手繪草圖。看演示比Claude 的Artifact還好,更強於在這方面壹直比較蹩腳的GPT。
谷歌還在其上更進壹步推出了自己開發的前端模型產品Stitch——輸入壹句「做壹張暗色系新聞卡片,能自適應移動」,Stitch 就能給你叁張預覽,還奉上完整 React+Tailwind 代碼,並自帶 ESLint、Playwright 測試,保證點開即跑。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見