-
日期: 2025-05-20 | 來源: 愛范兒 | 有0人參與評論 | 專欄: 谷歌 | 字體: 小 中 大
去年的 Google I/O 前壹天,OpenAI 甩出 GPT-4o 狙擊。
今年攻守之勢異也。
前幾天 OpenAI 透露 GPT-5 將 All in One,集成各種產品。剛剛,Google 就把這個思路貫徹到 I/O 大會,直接掏出了自家有史以來最強的 AI 全家桶。
從發布 Gemini 2.5 Pro 與 Flash 兩款模型,到 AI Mode,再到 Veo 3、Imagen 4,以及面向開發者與創作者的 AI 套件等,Google 幾乎把從模型到產品的路徑都壓縮到壹場發布會裡。
更准確地說,當下最火的 AI 應用場景,都被 Google“預埋”進了產品接口裡,讓人意識到它仍是全球最具工程實力和生態整合能力的 AI 巨頭之壹。
也難怪許多網友調侃,將近兩個小時的發布會過後,又將有壹大批初創公司死於 Google 之手。
不過,也不難看出,發布會上有壹些功能仍停留在“預告片”和小范圍測試階段,距離真正的落地或許還有不小的距離。
幫我“買票 + 找座 + 填表”壹口氣搞定,Google 新 AI 搜索卷瘋了
AI 正在重寫搜索這件事的底層邏輯。
在去年的 I/O 大會上,Google 推出了 AI 概覽(AI Overviews)功能,至今已擁有超過 15 億的月活躍用戶。
生成式 AI 逐漸改變了人們的搜索方式,但隨之而來的卻是,我們不再滿足於在搜索框裡輸入簡單的問題,而是拋出更復雜、更長、更具多模態的提問。
今天,Google 再次加碼搜索與 AI 的融合,推出壹種端到端的 AI 搜索體驗——AI Mode。
正如 Google CEO 桑達爾·皮查伊介紹的那樣,這是 Google 有史以來最強大的 AI 搜索形態,不僅具備更先進的推理能力和多模態理解能力,還支持通過上下文追問和網頁鏈接進行深度探索。
例如,當用戶面對壹個需要復雜解讀的搜索問題,AI Mode 可啟動“深度搜索”機制,不同信息之間進行推理,並在幾分鍾內生成壹份專家級的引用報告,為你節省數小時的研究時間。
與此同時,Google 也將 Project Astra 的多模態能力接入搜索,進壹步提升搜索的實時交互性。通過 Search Live 功能,用戶只需打開攝像頭,即可通過畫面實時提問並獲得反饋。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見