-
日期: 2025-04-07 | 來源: 極客公園 | 有0人參與評論 | 專欄: 谷歌 | 字體: 小 中 大
對於所謂的通用人工智能 AGI,人們通常抱著“怕它不來,又怕它亂來”的矛盾心理。而這個困惑,對於正在 AI 軍備競賽中的硅谷巨頭來說,就不僅僅是壹個“梗”能概括的了。
4 月初,谷歌 DeepMind 發布了壹份長達 145 頁的報告文件,系統闡述了其對 AGI 安全的態度,DeepMind 聯合創始人 Shane Legg 署名也在其中。
文件中最醒目的預測,是 AGI 的可能出現時間:
2030 年。
當然,Google 也補充說,這具有不確定性。他們定義的 AGI 是“卓越級 AGI(Exceptional AGI)”——即系統在非物理任務上達到或超越 99% 人類成年人的能力,包括學習新技能等元認知任務。
DeepMind 認為這個時間線可能非常短,發布報告的目的是說清壹個問題:如果 AI 有問題,最壞的情況會是什麼?我們現在能如何准備?
01 DeepMind 的 AI 安全保險
這份報告中反復出現的壹個詞是“嚴重傷害(severe harm)”,並列舉了 AI 可能帶來的各種災難場景。
比如,操縱政治輿論與社會秩序。AI 可用於大規模生成極具說服力的虛假信息(如支持某壹政黨或反對公共議題);可在不疲勞的前提下,與數拾萬人開展個性化誘導對話,實現“超級社工詐騙”。
實現自動化網絡攻擊。AI 可識別軟件漏洞、自動組合攻擊代碼,顯著提升發現和利用“零日漏洞”能力;可降低攻擊門檻,使普通人也能發起國家級網絡攻擊;DeepMind 提到,已有國家級黑客組織利用 AI 輔助攻擊基礎設施。
生物安全失控。AI 能幫助篩選、合成更危險的生物因子(如更強毒性的病毒);甚至能壹步步教導非專業者制造並傳播生物武器。
結構性災難。長期使用 AI 決策可能導致人類逐漸失去關鍵政治/道德判斷能力;過度依賴 AI 導致價值觀單壹鎖定、隱性集中控制;人類無法判斷 AI 輸出是否可靠,陷入“AI 輸出訓練 AI 輸出”的閉環。
自動武器部署與軍事對抗。AI 被用於自動化軍事系統,可能在無監督下執行毀滅性行動;報告強調極端情境下應禁止 AI 系統接觸核攻擊系統。
DeepMind 將各種風險分為肆大類:
惡意使用(misuse)、
模型不對齊(misalignment)
AI 無意中造成傷害(mistakes)
系統性失控(structural risk)- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見