-
日期: 2025-02-21 | 來源: 萬維讀者網 | 有0人參與評論 | 字體: 小 中 大
萬維讀者網(Creaders.net)江夏編譯報道:美國《每日信號》網站發表“傳統基金會”訪問學者、品牌專家及作家麥基(Steve McKee)的文章說,全世界都在談論有關“深度求索”(DeepSeek)的新聞,DeepSeek是壹個新的開源AI平台,它改變了開發高級人工智能系統需要多少時間、金錢和處理能力的范式。
包括汽車制造商長城汽車和中國叁大電信公司在內的大型中國公司最近宣布,將支持DeepSeek並將其集成到他們的運營中。但DeepSeek只有壹個問題——它無法正常工作。我們都聽說過GIGO這個詞,它代表“垃圾進,垃圾出”。這不僅適用於我們輸入電腦的數據,還涉及我們吃的食物和消費的娛樂活動。鑒於我們對AI工作原理的了解,壹個新術語BIBO,即“偏見入,偏見出” 是恰當的。
筆者讓美國制造的Chat GPT承認它是否有偏見。它是這樣說的:
“作為壹名AI語言模型,我努力保持公正,並根據我接受訓練的數據提供信息和幫助。但是,需要注意的是,我的回答是根據訓練數據中存在的模式和信息生成的,其中可能包括數據本身固有的偏差。雖然在訓練過程中已努力減輕偏見,但我可能仍然會在不經意間表現出壹些偏見,或反映我接受訓練的數據的偏見。批判性地評估信息並咨詢多個來源以獲得全面的視角,始終是壹個好主意。”
聽到這樣的坦白令人欣慰,它突顯了AI時代將如何越來越重視真相。美國學者韋弗 (Richard Weaver) 在贰戰後提出的“想法有後果”的推論是,壞的想法有受害者,這意味著有效AI應用的激勵措施,將是盡可能多地根除錯誤。
使用人工智能,醫療保健診斷和治療將得到更好、更快速的管理,前提是使用准確的信息,否則人會受到傷害。運輸系統借助AI將更快、更安全,而前提是它們必須獲得良好數據的信息,否則會導致事故。利用AI的制造系統將更加高效和多產,但前提是它們必須以事實輸入為指導,否則將無法工作。
有了人工智能,那句老話——謊言可以傳遍半個地球,而真相仍在系鞋帶,可能會成為不合時宜的說法。在公共政策領域,人工智能在壹定程度上能更快地揭露壞想法並確認好想法,人類將越來越繁榮。
由於擁有更好的證據,歪曲事實的政客和專家可能會更快地被開除。以更快速、更詳細的形式收集經濟數據,將更好地揭露被誤導的稅收政策。更快、更准確地收集全球情報,將降低通常導致破壞性外交政策決策的不確定性。更豐富、更復雜的空中交通數據,將有助於防止我們的天空發生悲劇性事故。
在DeepSeek的案例中,不完整或不正確的信息不是錯誤,而是壹種功能。極權主義的中國早就證明了技術如何被用於越來越多地跟蹤、欺騙和壓迫其人民。中共領導人對DeepSeek向用戶講述全部真相不感興趣。
據報道,該平台的早期采用者曾詢問1989年天安門廣場大屠殺或中國新疆維吾爾人目前的困境等話題,但都遭到了禮貌的阻撓和妨礙。甚至左傾的“政治家”網站(Politico)最近也發布了這樣的標題:“我們向DeepSeek詢問了地緣政治問題,它給了我們北京的談話要點。
DeepSeek無法獲勝的原因很簡單——它無法說出真相,至少在政治、政策、迫害方面是這樣,例如某些病毒的起源。其他現有的AI應用程序遠非完美,但至少創建者正在努力改進,因為他們知道,當涉及到廣泛、長期的采用時,信任是該領域的硬道理。
在人工智能時代,世界是否會更安全?既然所有的謊言最終都會被揭穿,筆者的回答是肯定的。但對DeepSeek的案例來說,我們可能不得不等待它像共產主義本身壹樣,最終永遠成為歷史的灰燼。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見