-
日期: 2025-11-19 | 來源: 澎湃新聞 | 有0人參與評論 | 字體: 小 中 大
ChatGPT能夠通過聲紋分析和人物面部出現異常的塊狀偽影等技術特征,判斷出該視頻為深度偽造內容。
但ChatGPT的分析方式在日常生活中難以被普通人借鑒。在沒有背景知識的加持下,模型羅列的專有名詞,也可能使部分崇拜技術力量的用戶因盲從而做出錯誤的判斷。
而Gemini能夠以更高的准確度對視頻的真實性做出判斷,也許恰恰是因為放棄了對技術的迷信,而使用了更為靈活、多元的判斷路徑,而這樣的路徑又與事實核查員日常判斷視頻真偽的思路不謀而合。
我們對Gemini分析思路進行了總結,概括為以下8點,供大家參閱:
1. 評估視頻的質量:是否存在畫面質量過低或質量參差不齊的情況?
2. 觀察關鍵幀中的細節:畫面中的前景與背景是否矛盾?光影是否自然?是否存在文字亂碼等常見的AI生成視頻的細節?
3. 考察視頻的動態連續性:在鏡頭移動過程中,視頻畫面中的遠景和近景的視角變化(即視差)是否符合物理世界的規律?是否存在“瞬間移動”式的運鏡?
4. 音頻檢測:視頻中的聲音與視頻的內容是否和諧?是否存在音畫不同步或聲音與說話者口型無法對應的情況?
5. 考慮視頻中描述的事件在現實世界中發生的可能性。現實中是否存在視頻中展示的技術?在現實生活中能否找到視頻中展示的物體?視頻展現的場景是否符合現實邏輯?
6. 反搜視頻關鍵幀,確認視頻出現的時間,考察當時的社會狀況是否與視頻展示畫面的內容相符。
7. 考慮視頻制作的難度:相較於拍攝,使用AI或CGI來表現相同的畫面、運鏡會更難還是更容易?
8. 搜索外部資料,查看是否有報道或其它視頻資料可以佐證被檢測視頻的內容。
後記
在與Gemini對話的界面上,有個用藍色星標修飾的“顯示思考”的按鈕格外顯眼。固然,大模型是個黑箱,我們無從探知它的“思考”究竟是壹種模仿還是其他。但即便在“奇點時刻”尚未到來之前,這樣的“思考”也並非沒有意義。
兩年半過去,模型的識假辨假的能力有了顯著增長,盡管仍然伴隨著幻覺。從這個意義上說,人工智能也許並不只是傳播風險的放大器,它也有可能成為信息秩序的守門人。無論是檢測偽造圖像、識別生成視頻,還是追溯信息源頭,模型的介入或許將使人類擁有更多與虛假信息抗衡的工具。未來,真正的挑戰或許不在於讓機器像人壹樣思考,而在於讓它幫助人類更清晰地看見現實本身。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見