-
日期: 2016-03-29 | 來源: 美國之音 | 有0人參與評論 | 字體: 小 中 大
“(人工智能)有很多與人類不同的智能方式。”這是人工智能領域的領軍人物帕特裡克?溫斯頓(Patrick Winston)說過的話。盡管他的觀點很簡單,但多數思考工作未來的人沒有領悟到它的含義。然而,他所說的是我們應該最為關注的人工智能的壹個特征。

從上世紀50年代到80年代,在人工智能研究“第壹次浪潮”時期,人們壹般認為,創建能夠將任務執行到達到人類專家水平或更高水平的系統的最佳方法,是復制專家們的工作方式。但問題是:對於很多任務,人類專家都常常難以說出他們是如何執行的。
下棋是壹個很好的例子。當研究人員與大師們坐下來,請他們解釋如何把棋下得這麼好時,答案都是毫無用處的。壹些大師認為是“直覺”,還有壹些人則歸因於“經驗”。很多人表示,他們根本不知道原因。如果最優秀的棋手自己都不能解釋他們為何如此出色,那麼研究人員如何能夠創建壹個可以打敗大師的下棋系統?
1997年,壹個轉折點出現了。當時的國際象棋世界冠軍加裡?卡斯帕羅夫(Garry Kasparov)被IBM的超級計算機“深藍”(Deep Blue)擊敗。最引人矚目的是這個電腦系統擊敗人類的方法。“深藍”沒有卡斯帕羅夫的“直覺”或“經驗”。它是憑借強大的處理能力和大規模數據存儲能力獲勝的。
接著出現了人工智能的“第贰次浪潮”,就是現在。谷歌(Google)的人工智能程序AlphaGo剛剛在5局的圍棋對弈中擊敗或許稱得上目前最優秀的棋手李世石(Lee Se-dol)。不久以前,多數研究人員還認為,我們距離機器獲勝至少還有10年的時間。然而,AlphaGo在與李世石的5局交鋒中,有4局獲勝。它沒有李世石的天賦或戰略眼光;它憑借的是被稱為“深度神經網絡”的系統,同樣的,該系統是由處理能力和數據存儲能力驅動。與“深藍”壹樣,從某種程度上來說,AlphaGo玩的是不同的游戲。
回過頭來看,我們能夠看出早期的研究人員犯下了我們現在稱之為“人工智能謬論”的錯誤:他們認為,要把壹項任務執行到達到人類專家的標准,唯壹途徑是復制人類專家的方法。如今,很多評論人士在思考工作的未來時也在重復同樣的錯誤。他們未能意識到,將來系統戰勝人類不是通過模仿最優秀的人類專家,而是通過以截然不同的方式執行任務。
以法律界為例。法學教授丹尼爾?馬丁?卡茨(Daniel Martin Katz)設計了壹個預測美國最高法院投票行為的系統。它可以預測得與多數專家壹樣好,但它並不是模仿人類的判斷。它利用的是記錄美國最高法院60年行為的數據。
我們還在其他經濟領域看到了類似的事情。在美國,數百萬人利用在線報稅軟件,而不是親自與會計師會面,來提交納稅申報表。Autodesk的“Project Dreamcatcher”會通過篩選大量可能的設計以及選擇最佳方案(而不是模仿建築師的創意)來生成電腦化設計。IBM的超級計算機“沃森”(Watson)通過查閱海量醫療數據(而非復制醫生的推理方法)幫助診斷癌症。
所有這壹切都沒有預示“工作的終結”。它只是表明未來與多數專家的預測截然不同。人們經常說,因為機器無法像人類那樣“思考”,所以它們永遠無法變得有創意;因為它們無法像人類那樣“推理”,所以它們永遠無法做出判斷;因為它們無法像人類那樣“感受”,所以它們永遠無法變得有同情心。出於這些原因,有人聲稱,很多任務永遠需要人類去執行。
但這未能意識到,未來的系統將處理很多現在需要創意、判斷或同情的任務,不是通過模仿我們,而是通過用壹種完全不同的非人類的方式工作。人類專屬的任務可能會比很多人預測的少得多。
作者丹尼爾?薩斯坎德是《職業的未來》(The Future of the Professions)壹書的合著者之壹。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見