-
日期: 2024-12-21 | 來源: AI未來指北 | 有0人參與評論 | 字體: 小 中 大
可惜只能微調o1-mini,適用上也都是那些復雜領域任務,比如醫療、法律或金融和保險。泛用性較差。
高級視頻語音模式(Day6)
這又是個老餅上桌。5月13日,在GPT-4o的演示中,OpenAI的工作人員就能和4o視頻通話,可以看到我們實時的手機屏幕內容,或者根據相機裡的實時畫面和我們聊天或解答問題。
這次就是真正實裝了,沒有什麼升級。但這個功能本身還是非常重要的。
不過因為這個餅烙的時間有點長,前兩天微軟推出的Vision和谷歌還在烙的Astra也已經跟上了。OpenAI的領先正在壹點點被蠶食。
與蘋果的合作(Day5、Day11)
ChatGPT和Apple Intelligence的,更像是個官宣深度結果。蘋果搞不定的只能讓賢OpenAI了。
整合主要包含叁個方面:首先是與Siri的協同。當Siri判斷某個任務可能需要ChatGPT的協助時,它可以將任務移交給ChatGPT處理;
其次是寫作工具的增強,用戶現在可以使用ChatGPT從頭開始撰寫文檔,還能進行文檔細化和總結;
第叁是iPhone 16的相機控制功能,它能夠通過視覺智能讓用戶更深入地了解拍攝對象。
後面第拾壹天的Mac整合,則是給了GPT更多Mac工具的調用權限。
我唯壹不理解的就是這倆為什麼不能同壹天宣布,還非分兩天?
能力補齊和小功能更新(Day 7,8,9,10)
剩下的幾個更新最多只能算是湊數。簡單壹句話就能說清。
“Projects”項目功能:它允許用戶創建特定項目,上傳相關文件,設置自定義指令,並將所有與該項目相關的對話集中在壹個地方。基本和Claude的沒差別。
ChatGPT搜索升級:能在對話中搜索,支持多模態輸出。Perplexity的Pro模式早支持了。
4o熱點:美國用戶能打電話用4o了!挺尊老愛老的,我看也算是給他們過重陽了。
o1 圖像輸入和4o高級語音API正式開放:我建議這個放在o1發布當天最後壹句話說完。
這幾天真的是有點進入拖時間的循環了。
最終王炸:GPT-o3(Day 12)
如果不是最後壹天GPT-o3壓軸登場,我真的覺得OpenAI純粹是為了攪渾水才連開12天發布會。
因為在這期間,Google發布了Gemini 2 Flash,超快超強;Astra,看起來是真的Agent模樣; Voe2,碾壓Sora ;Gemini 2 Flash Thinking,o1人家也有了。就發了叁篇公告幾個視頻,把OpenAI前11天的發布全都掀了桌。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見