-
日期: 2023-06-04 | 來源: 深燃 | 有0人參與評論 | 字體: 小 中 大
近期,“AI詐騙正在全國爆發”的話題多次沖上微博熱搜。
就在上個月,企業老板郭先生突然接到了好友的微信視頻,稱自己急需430萬走賬,看著視頻裡的好友壹臉焦慮,郭先生沒多想就把錢轉了過去,整個過程不到10分鍾,事後郭先生才發現自己被騙子用AI換臉技術給騙了。
今年2月以來,AI相關的技術日新月異,帶來的副作用也日益顯現。深度偽造(deepfake)這壹AI技術,能讓視頻中的人物變臉、變聲,有人用它詐騙,有人將自家主播的臉換成明星的臉帶貨撈錢,還有人用它AI換臉“造黃謠”。
或許很多人沒有意識到問題的嚴重性,認為技術還沒有成熟到可以詐騙的地步,存有“僥幸”心理。5月31日,深燃直播間邀請到了瑞萊智慧聯合創始人、算法科學家蕭子豪,李旭反傳防騙團隊負責人李旭,就“怎樣識別AI詐騙”這壹主題展開對話。
兩位嘉賓壹位懂技術,壹位懂反傳,兩種完全不同的視角,卻有共同的“反詐科普”目標,對於AI詐騙主要有哪些手段、哪些人更容易被AI詐騙盯上、普通人應該如何預防AI詐騙等與生活息息相關的話題,都給出了非常實用的建議。
任何壹項技術都是壹把雙刃劍,既能推動社會進步,又能挖掘人性中隱藏的惡,任何技術都應該要在可控、可監督的范圍內發展。如今,AI大潮已經將我們裹挾其中,要想更好的應對,首先應該了解和學習它,繼而依靠全社會的力量與它的暗面進行抗衡。
以下是直播實錄,由深燃編輯整理:
01.AI詐騙,為什麼屢禁不絕?
深燃:利用AI技術進行詐騙是今年才有的套路嗎?
李旭: 早在2019年,打著AI算命、AI看相旗號的微信公眾號、小程序或APP就火爆壹時,實質上是通過誘導分享發展用戶來吸金。
這兩年,我們看到壹些微商團隊發布明星的祝福/宣傳視頻來發展下線,其中不少視頻並非明星真實錄制,而是運用了AI換臉、AI語音合成等技術制作而成,不少人信以為真而選擇加入,結果陷入騙局。還有壹些人利用AI生成圖片/視頻進行裸聊詐騙,要求受害者下載APP進而將其手機通訊錄拷貝過來,後續以此為要挾進行敲詐,很多人中招。
深燃:AI詐騙有哪些常用手段?
李旭: 第壹種是AI聲音合成,騙子給受害人打騷擾電話,提取受害人的聲音,後期對聲音素材進行合成,用於詐騙。比如某公司財務的小王曾接到領導電話,要求其立即給供應商轉賬2萬元,理由是避免繳納滯納金,由於領導的聲音拾分逼真,小王在壹個小時內就轉款完成,後來才發現被騙。
第贰種是AI換臉,騙子首先會根據受害人發布在社交平台上的照片或視頻信息生成假臉,然後在視頻通話中利用AI換臉騙取受害人信任,被騙430萬的郭先生就是這樣上當的。
第叁種是AI篩選受害人,騙子根據所要實施的騙術,通過AI技術篩選目標人群,在短時間內生產出定制化的詐騙腳本,實施精准詐騙。比如情感詐騙的騙子會篩選經常發布感情類信息的人群,金融詐騙的騙子會篩選經常搜索投資理財信息的人群。
李旭反傳防騙團隊負責人李旭
深燃:2018年,壹段奧巴馬罵特朗普的視頻在全美瘋傳,後來被證明這個奧巴馬是用深度偽造技術制作出來的,5年後,用於AI詐騙的技術是否已經升級?
蕭子豪: AI詐騙背後的技術5年來不斷迭代,相比2018年有了非常明顯的提升。
壹個對比的維度是逼真度更高,現在的AI詐騙不僅能夠生成比較逼真的人像,甚至可以生成比較真實的場景,比如前段時間網上瘋傳的特朗普被捕的畫面,其實都是用AI生成的,因為太過逼真,大眾肉眼無法識別,會產生誤導。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見