-
日期: 2025-11-06 | 來源: 大聲思考 | 有0人參與評論 | 字體: 小 中 大
那麼,在ChatGPT問世、AI生成免費內容泛濫後,Substack是否受到沖擊?數據顯示,2025年2月,Substack的流量達到創立以來的新高,僅次於2023年1月的高峰。
這說明,生成式AI興起後,反而使人們更想要閱讀高品質、甚至需付費的電子報。Substack的創作者提供個人觀點與深度分析,這正是AI難以取代的價值。
“降智”與“懶思”的擔憂
對AI保持批判性是很難的——你必須具備自律性。不把批判性思維完全轉嫁給這些機器,是壹項非常具有挑戰性的任務。
作為大學老師,我常常能在學生身上看到輕易轉嫁的行為。雖然這並不是我通過實證測試得出的結論,但我相信學生們太容易通過讓互聯網告訴他們該做什麼、讓大模型告訴他們該信什麼,來替代獨立思考。
缺乏批判性思維,就很難明智地消費AI生成的內容。盡管這些內容看起來很有說服力,尤其是在你越來越依賴它們的情況下,但不要被表象所迷惑。與人類相比,機器人聊天不僅產生更容易理解的信息,同時也生成了更具欺騙性的虛假信息。
AI語言模型擅長生成語法流暢、邏輯連貫、語氣自信的文本,這種“形式上的可信度”往往掩蓋了其“事實上的不可靠性”。AI的“可信外觀”與用戶的“自動信任”相互強化,使得虛假信息的傳播更加隱蔽和高效。長期依賴AI輸出可能導致判斷力鈍化、懷疑機制退化,由此來看,批判性思維的缺失,不僅僅是個能力問題,而是正在成為壹種新的信息風險。
除了考慮使用人工智能時發生的事情,還可以思考使用後的影響。就像其他令人愉悅的事物壹樣,我們的大腦會因為突然的靈感閃現而產生興奮感,這種感覺來自於神經獎勵系統的活動。這些心理獎勵幫助我們記住改變世界的想法,同時也會改變我們的即時行為,使我們變得不那麼害怕冒險——這被認為能促進進壹步的學習、創造力和機會。但由人工智能產生的靈感似乎不會在大腦中引發如此強烈的反應。認知神經科學家相信,獎勵系統是大腦發育中極其重要的壹部分,而我們到目前為止,還不知道使用AI技術在未來會產生什麼樣的影響。至今還沒有人對此進行過測試。
當然,作為媒介史研究者,我也拾分清楚,歷史上,從文字到互聯網,每壹次技術革命都伴隨著“降智”與“懶思”的擔憂。這壹次,我們能簡單地沿用“技術悲觀論總會落空”的想法來化解當下的焦慮嗎?
並不能。這是因為,人工智能與以往的技術相比,存在幾個根本性的不同:首先,它是認知功能的直接替代。過去的技術大多是擴展或輔助人類能力,比如文字幫助記憶,計算器輔助計算,而AI特別是生成式AI,正在直接替代甚至執行傳統上屬於人類“思考”、“判斷”、“創造”的核心認知功能。這種替代是質的飛躍,而非簡單的工具輔助。
其次是技術的規模與普及速度前所未有。AI的應用滲透極快,覆蓋面廣,許多日常生活和工作中的復雜決策都能被AI參與甚至主導,這使得“依賴性”風險比以往任何技術都更大。
再次,“智能”模擬的真實性與迷惑性也很致命。如前所述,用戶在面對AI生成文本時,往往被其語義連貫、邏輯嚴謹與表達自然的表象所吸引,從而逐漸形成認知依賴。這種“偽智能”可能降低人類對信息的質疑和批判意識,帶來新的認知風險。
最後是社會結構與價值體系的潛在重塑。AI不僅影響個體認知,更可能改變教育、工作、權力結構和倫理觀念,帶來深層次的社會變革。
因此,簡單用“技術悲觀論總是多余”來否定對AI的擔憂,可能過於草率。雖然歷史教導我們,技術帶來的恐慌大多會被現實修正,但AI的獨特性質也提醒我們:這種新技術的影響必須被嚴肅、全面地審視和管理。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見