-
日期: 2026-03-06 | 來源: 煎蛋網 | 有0人參與評論 | 字體: 小 中 大
長期以來,在網絡上使用化名被認為是壹種足以保護隱私的手段。人們習慣在不同的社交平台上扮演不同的角色,覺得只要不實名,就能安全地參與敏感討論。然而,這種安全感可能即將煙消雲散。最新的研究發現,大語言模型正在以令人驚訝的准確度撕掉網絡用戶的匿名面具。
這項研究的核心在於通過算法關聯不同平台上的特定個體或帖子。研究結果顯示,AI在去匿名化方面的表現遠超傳統方法。過去,識別匿名用戶需要人類調查員辛苦收集結構化數據,或者依靠復雜的算法匹配,而現在的AI只需要分析非結構化的自由文本即可完成。在實驗中,AI成功識別用戶的召回率高達68%,而預測准確率甚至達到了90%。
這意味著,你在網上留下的每壹段文字都可能成為出賣身份的線索。這種AI代理可以做到以前極難完成的任務:從壹段看似匿名的訪談記錄出發,壹路逆向推導出這個人的真實身份。與老舊的去匿名化方法不同,AI能夠像人類壹樣瀏覽網絡,利用推理能力將潛在的個人信息片段拼接在壹起。
研究人員利用多個公開數據集進行了測試。其中壹個實驗收集了Hacker News和LinkedIn的個人資料,通過跨平台引用將它們聯系起來。即使研究人員剝離了帖子中所有的顯性識別特征,大語言模型依然能精准匹配。在另壹個針對*Netflix*微身份數據的實驗中,AI展現出了遠超經典的去匿名化攻擊的性能。
針對Reddit用戶的實驗則揭示了壹個殘酷的規律:你在網上說得越多,就越容易暴露。以Reddit的電影討論版塊為例,如果壹個用戶只討論過1部電影,AI的識別准確率約為3.1%;但如果這個用戶討論過10部以上的電影,識別率就會猛增至48.1%,准確率高達90%。
甚至在壹些極其模糊的場景下,AI也表現出了可怕的洞察力。在安斯羅皮克公司關於人們如何使用AI的壹份問卷調查中,研究人員僅根據參與者提供的通用信息,就成功識別出了125名參與者中的7%。Simon Lermen指出,雖然7%看起來不高,但考慮到AI是基於如此廣泛且壹般的信息完成的識別,這本身就是壹個值得警惕的信號。隨著AI系統不斷進化,這種搜索和驗證身份的能力只會越來越強。
研究人員警告說,這種技術的普及將徹底顛覆現有的在線隱私模型。普通用戶通常認為只要不主動公開個人信息,化名就是足夠的防火牆。但大語言模型使這種假設失效了,因為它們可以自動抓取網頁並驗證提取到的各種身份信號。如果這種能力被濫用,政府可能以此鎖定在線批評者,公司可能構建超精准的廣告畫像,而攻擊者則能發起高度個性化的社會工程學詐騙。
為了應對這壹威脅,研究人員建議平台方采取限制API訪問頻率、檢測自動抓取行為等措施。同時,大語言模型提供方也應建立護欄,拒絕執行去匿名化的請求。當然,對於個人用戶來說,更現實的建議可能是大幅減少在社交媒體上的發言,或者養成定期刪除舊帖子的習慣。
在AI驅動的監控時代,隱私的圍牆正在倒塌。 計算機安全領域正因為大語言模型引發的攻擊能力而不得不重新審視,而現在看來,個人隱私保護也面臨著同樣的迫切需求。
(示意圖)- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見