-
日期: 2023-08-01 | 來源: 紐約時報中文網 | 有3人參與評論 | 字體: 小 中 大
凡是被ChatGPT和Bard等人工智能聊天機器人吸引的人——哇,它們還能寫文章和食譜!——最終都會遭遇所謂的幻滅——他們會發現人工智能有捏造信息的傾向。
聊天機器人會根據從互聯網上獲取的信息猜測該說什麼,但難免出錯。當它們失敗時——比如發布了壹份面粉用量非常不准確的蛋糕食譜——就會讓人掃興。
然而,隨著主流技術工具繼續整合人工智能,掌握如何利用它為我們服務是至關重要的。在過去兩個月裡,我測試了數拾種人工智能產品,我得出的結論是,我們大多數人都在以壹種不理想的方式使用這項技術,主要是因為科技公司給我們提供的指導不夠好。
我們向聊天機器人提問,然後希望它們給出正確答案——這就是它們被設計用來使用的方式,然而在這種情況下,它們起到的作用是最小的。但是,如果引導人工智能使用來自可信來源的信息,例如可信的網站和研究論文,人工智能就能以高度准確的方式完成有用的任務。
“如果你給它們正確的信息,它們可以用這些信息做有趣的事情,”人工智能初創公司Context的創始人薩姆·休特梅克說。“但如果只靠它們自己,你得到的結果中有70%是不准確的。”
通過建議聊天機器人處理特定數據這樣壹個簡單的調整,它們產生了可理解的答案和有用的建議。在過去幾個月裡,這讓我從壹個暴躁的人工智能懷疑論者變成了壹個熱情的超級用戶。當我使用ChatGPT計劃的旅行路線去旅行時,進展很順利,因為這些建議來自我最喜歡的旅游網站。
將聊天機器人引導到特定的高質量來源,如知名媒體和學術出版物的網站,也有助於減少錯誤信息的產生和傳播。下面讓我分享壹些我在烹飪、研究和旅行計劃方面獲得幫助的方法。
膳食規劃
像ChatGPT和Bard這樣的聊天機器人可以編寫理論上看起來不錯,但實際上行不通的食譜。在《紐約時報》美食版去年11月進行的壹項實驗中,壹個早期的人工智能模型為感恩節菜單創建了食譜,其中包括硬邦邦的火雞和幹巴巴的蛋糕。
我用人工智能生成的海鮮食譜上也令我大失所望。但當我嘗試ChatGPT插件時,情況發生了變化,這些插件本質上是與聊天機器人協同工作的第叁方應用程序。(只有每月支付20美元使用最新版聊天機器人ChatGPT4的用戶才能使用插件,這些插件可以在設置菜單中激活。)
在ChatGPT的插件菜單上,我選擇了Tasty Recipes,它從知名媒體網站BuzzFeed旗下的Tasty網站獲取數據。然後,我讓聊天機器人根據網站上的食譜制定出壹份包括海鮮、豬肉糜和蔬菜配菜在內的飲食計劃。機器人提出了壹個給人帶來啟發的膳食計劃,包括香茅豬肉炒飯、烤豆腐塔可餅和冰箱裡翻出來的任意壹種意大利面;每頓飯的建議都有壹個菜譜鏈接。
至於其他發布者提供的食譜,我使用了Link Reader,這是壹個插件,可以讓我粘貼壹個網絡鏈接,以便使用其他可靠網站(如Serious Eats)上的食譜生成膳食計劃。聊天機器人從網站上提取數據來制定膳食計劃,並告訴我訪問這些網站來閱讀食譜。這需要額外的工作,但要比人工智能自己制定的膳食計劃更好。
研究
當我為壹篇關於熱門電子游戲系列的文章做研究時,我求助於ChatGPT和Bard,通過總結游戲情節來刷新我對過去游戲的記憶。結果人工智能弄錯了游戲故事和角色的重要細節。
在測試了許多其他人工智能工具後,我得出的結論是,對於研究來說,關注可信的來源並快速檢查數據的准確性至關重要。我最終找到了壹個工具:Humata.AI,它是壹款免費的網絡應用程序,在學術研究人員和律師中很受歡迎。
這款應用可以讓你上傳壹份文檔,比如PDF文件,然後聊天機器人會回答你關於這份材料的問題,並提供壹份文檔副本,高亮顯示相關部分。
在壹次測試中,我上傳了壹篇在政府運營的科學文獻搜索引擎PubMed上找到的研究論文。這個工具在幾分鍾內就為這份冗長的文件生成了相關摘要,這個過程如果讓我自己來做,可能要花費幾個小時的時間,我看了壹下高亮顯示部分,以便再次檢查摘要的准確性。
總部位於得克薩斯州奧斯汀的Humata公司的創始人賽勒斯·卡伊萬迪說,他在斯坦福大學做研究員時開發了這款應用,當時他在閱讀密集的科學文章時需要幫助。他說,像ChatGPT這樣的聊天機器人的問題在於,它們依賴於過時的網絡模型,因此數據可能缺乏相關背景。
旅行計劃- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接: