-
日期: 2023-04-19 | 來源: 人神共奮 | 有0人參與評論 | 字體: 小 中 大
未來的員工將分成兩類
1/5
壹段關於AI的討論
上周跟幾個前同事聚會,他們現在大多自己開公司,而且主要是管理咨詢、廣告設計、游戲外包等專業類服務,自然要聊起近日大火的ChatGPT、Midjourney等人工智能產品,聊到會不會“利用AI工具減少人力成本”的問題上。
雖然每壹個人都有這樣的願望,但大家也都承認,近幾年不太可能做到,AI出品的圖,幾乎每張都需要後期修圖,ChatGPT的文字太水了,幾乎要壓縮掉80%的內容,主要用來配合客戶提案的演示。
當然,大家也壹致認為,這可能只是暫時的現象,畢竟這幾個月來,AI輸出的東西已經從“幾乎不可用”進步到“修改後可商用”,誰知道它會發展到哪壹步呢?
但壹個人對AI的信任度的問題,卻並非技術進步可以解決,它的生產內容的可控性壹般,有時候不管用什麼辦法都得不到自己想要的。
為什麼說這個弱點並非技術進步可以解決呢?
我幾年前曾經寫過壹篇文章,分析優秀員工的價值體系,共叁個層次:“可預測、可展望、可控制”,AI的這個弱點讓它在可見的當下很難達到“可預測”的要求、可見的未來更無法達到“可展望”的要求(可控制是人際關系和公司文化的要求,對於AI並不適用)。
換言之,不想自己的工作被AI取代,就要多多考慮如何在這兩點上發揮人類的優勢。
先分析壹下,什麼是“可預測”?
可預測
先問個問題:你到壹家常去的餐館吃飯,最貴的主菜,你是點你以前吃過覺得不錯的菜呢?還是點沒有吃過的新菜?
答案肯定是要看情況,如果是重要的場合,比如請客,當然要點以前吃過覺得不錯的菜;如果是家人朋友日常小聚,點壹些新出的菜品,說不定會有驚喜。
在考慮員工晉升時也是壹樣,穩定發揮型的員工,獲得晉升機會的可能性更大,因為這是重要的決策,穩健更重要。
這在決策中,被稱為“可預測性”或者“確定性”,越是重要的決定,越是如此。
很多人可能不贊同這個觀點。確實,實際生活中,答案與公司文化和公司業務類型有關,在核電站工作的人,“創新”是貶義詞,在互聯網創業企業,“穩重”是對你最大的否定。
但這種差異並不會影響上司最終的選擇,“可預測性”是公司持續經營的前提,也事關上司自己的晉升。
AI到底最後會成為員工的工具,還是取代員工,這壹點可能正是取決於未來AI生成內容的穩定性,這也是我的前同事們認為,不會馬上用AI取代員工的原因。
那麼,AI有沒有可能通過技術來解決這個穩定性的問題呢?
3/5
人工智能的幻覺
在微軟的壹篇論文《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中,列出了GPT-4 的幾個局限性,其中有壹條關鍵問題——透明度、可解釋性和壹致性。
報告中說:“模型不僅會產生幻覺、編造事實和產生不壹致的內容,而且似乎沒有辦法驗證它產生的內容是否與訓練數據壹致,或者是否是自洽的。”
對於人類而言,這可能是壹個好消息,它可能是AI與生俱來的缺陷,源於它的深度學習機制。
很多人以為ChatGPT是壹個智能的搜索引擎,能搜索與問題相關的文本資料,再用壹定的方式串成壹段文本結果,但如果真是如此,ChatGPT就不應產生“事實性錯誤”,而且不是每次都錯,如果你換個方法問,它可能又會糾正這個錯誤。
模型有些會編造壹些訓練材料中根本沒有的事實,比如有壹位澳大利亞市長,發現 ChatGPT 聲稱他被判定犯有賄賂罪並被判處監禁,這件事不但是捏造的,甚至訓練數據中也沒有任何可能誤導 ChatGPT的資料,那麼,它到底是如何產生這個幻覺的呢?
雖然這壹現象在GPT-4中大大降低,但微軟的這份報告也承認,沒有任何理由認為未來系統升級後,這個缺陷就會改變。因為GPT是壹個“黑箱”,我們只知道它的原理,但沒有人知道它具體是如何創作出各種結果的。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見