-
日期: 2024-01-03 | 來源: 煎蛋網 | 有0人參與評論 | 字體: 小 中 大
雖然2023年對於人工智能來說,是壹個改變游戲規則的壹年,但這只是開始,2024年將迎來壹系列令人恐懼的突破,包括**通用人工智能**和甚至更加逼真的深度偽造技術。
人工智能(AI)已經存在了幾拾年,但今年對於這項令人毛骨悚然的技術來說是壹個突破性的時刻,OpenAI的ChatGPT為大眾創造了實用、易用的AI。然而,人工智能的歷史卻充滿了爭議,今天的技術是由壹系列失敗的實驗累積而來的。
總的來說,人工智能的創新看起來有望提升諸如醫學診斷和科學發現等領域。例如,壹個人工智能模型可以通過分析X光掃描來檢測你是否有高風險患肺癌。在新冠病毒流行期間,科學家們也構建了壹個能夠通過聽人們咳嗽的微妙差別來診斷病毒的算法。AI也已被用於設計超越人類構思的量子物理實驗。
但並非所有的創新都那麼善良。從致命的無人機到威脅人類未來的AI,以下是壹些可能在2024年出現的最恐怖的AI突破。
Q-Star:通用人工智能的時代?
我們不清楚為何OpenAI的CEO Sam Altman在2023年底被解職並復職。但在OpenAI的企業混亂中,有謠言傳出,有壹種稱為Q-Star (讀作 Q星)的先進技術可能威脅到人類的未來。這個由OpenAI開發的系統可能是通用人工智能(AGI)這個引人注目的概念的具體體現,據路透社報道。關於這個神秘系統我們知之甚少,但如果報道屬實,它可能將AI的能力提升到壹個新的層級。
通用人工智能是壹個假設的轉折點,也被稱為"奇點",在這個點上,AI變得比人類更聰明。當前的AI在壹些人類擅長的領域,如基於語境的推理和真正的創造力,仍然落後。大多數(如果不是所有的)AI生成的內容只是以某種方式重復訓練數據。
但是,研究人員稱通用人工智能可能比大多數人更好地完成某些工作。 它也可能被武器化,用於創建增強型病原體,發起大規模的網絡攻擊,或者進行大規模的操縱。
通用人工智能的想法長期以來壹直被限制在科幻小說中,許多科學家認為我們永遠不會達到這個點。如果OpenAI已經達到了這個轉折點,那無疑會令人震驚-但也並非沒有可能。我們知道,例如,Sam Altman在2023年2月就已經開始為通用人工智能做前期准備,他在博客文章中概述了OpenAI對通用人工智能的方法。我們也知道專家們開始預測即將發生的突破,包括英偉達的CEO Jensen Huang在11月份表示,通用人工智能在未來伍年內將變得觸手可及,這是巴倫報報道的。2024年會是通用人工智能的突破年嗎?只有時間會告訴我們答案。
(示意圖)
影響選舉結果的超現實深度偽造
人們對網絡威脅最重要的壹種擔憂是深度偽造技術** -- 完全捏造的人像圖片或者視頻,可能被使用來誤導他們,污名化他們,甚至對他們進行欺凌。但深度偽造的AI技術還沒有發展到足以構成重大威脅的程度,但這個情況或許即將改變。
AI現在可以實時生成深度偽造 - 換句話說,現場視頻 - 它現在變得非常擅於生成人臉,以至於人們無法分辨真假。另壹項發表在11月13日的《心理科學》雜志上的研究揭示了"超現實主義"的現象,其中AI生成的內容比實際的真實內容更有可能被視為"真實"。
這將使得人們幾乎不可能用肉眼分辨事實與虛構。盡管有工具可以幫助人們檢測深度偽造,但這些工具還沒有成為主流。例如,英特爾制造了壹個可以實時檢測深度偽造的設備,其工作方式是使用AI來分析血液流動。但是據BBC報道,該設備,被稱為FakeCatcher,的結果參差不齊。
隨著生成型AI的成熟,壹個恐怖的可能性是,人們可能使用深度偽造技術來試圖影響選舉結果。例如,據金融時報報道,孟加拉正准備迎接壹個可能被深度偽造技術幹擾的1月選舉。當美國為2024年11月的總統選舉做准備時,AI和深度偽造技術可能會改變這個關鍵投票的結果。例如,加州大學伯克利分校正在監控競選中的AI使用情況,NBC新聞也報道說,許多州缺乏法律或工具來應對人工智能生成的假信息的激增。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見