-
日期: 2026-03-13 | 來源: 愛范兒 | 有0人參與評論 | 字體: 小 中 大
可是,這樣的 AI 要由誰來造呢——不還是那些工程師嗎?
在硅谷的社交媒體和技術論壇上,壹個反復出現的敘事模式是:被裁員工發現,自己此前被要求系統性地記錄工作流程、決策邏輯和操作規范——管理層稱之為「知識管理」或「流程優化」——而這些文檔最終被用於訓練 AI 系統。
部分團隊在使用 AI 工具大幅提升了生產效率之後,整組被裁撤。
這些個案的細節難以逐壹驗證。上周在社交媒體上廣泛傳播的壹則關於亞馬遜裁員的「內部爆料」,已被證實為 AI 生成的虛假內容。
但虛假敘事能獲得 200 萬次瀏覽,恰恰是因為它描述的結構性恐懼是真實的:當企業要求員工系統性地文檔化自己的工作,而文檔的最終用途是訓練壹個用來取代他們的 AI——這不是「自動化取代重復勞動」。這是要求工人親手打造壹個可以取代自己的工具。
訓練數據的價值在於:壹旦被提取,人就可以被丟棄。工業革命時期,盧德運動者砸毀紡織機,但至少紡織機不是由紡織工人自己設計的。2026 年的工程師面對的是壹個更精巧的困境:你的專業知識、判斷邏輯、處理邊緣情況的直覺——這些構成你不可替代性的東西——被轉化成了訓練數據。
甚至,這裡還藏著壹重悖論。
拒絕使用 AI,你因為「效率低」被裁;積極擁抱 AI 並提升了效率,你等於親手證明了 AI 能做你的工作——所以你也被裁。
壹位去年被裁員的簽署者表示:「人工智能壹引入,就要求更短的工時,人們被要求在更快的時間內完成更多的工作——我們被暗示會按照使用人工智能的方式被打分。」
唯壹的「安全」位置似乎是成為那個管理 AI 的人。但當亞馬遜讓高級工程師充當審核員的時候,他們的工作本質已經從「創造」變成了「審查」,後者,恰恰是壹個更容易被標准化、進而被自動化的任務。
當你的工作定義從「工程師」變成「審查員」,你就變成了通道,而不是目的地。
壹邊在加速裁人,壹邊 AI 開始把系統搞崩,然後讓剩下的人去兜底。人類把決策權交給 AI,AI 不承擔後果,後果回到人類頭上,但那時候能兜底的人已經被裁掉了——閉環了。
員工清除計劃
亞馬遜的員工們不想坐以待斃,他們發起了聯合簽名行動,不僅鼓勵員工們參與, 也呼吁外部人士加入進來,目前已經有超過肆千多人參與。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見