-
日期: 2026-02-26 | 來源: BBC | 有0人參與評論 | 字體: 小 中 大
從禮貌待人到假裝自己身處《星際迷航》(Star Trek,《星際爭霸戰》)的場景中,關於如何與聊天機器人對話的建議可謂伍花八門,而且完全沒有用。以下這些才是真正有效的方法。
壹群研究人員決定測試“正向思考”是否能提高人工智慧(AI)聊天機器人的准確率,結果卻出乎意料。他們向不同的聊天機器人提問,嘗試稱贊它們“聰明”,鼓勵它們認真思考,甚至在問題結尾加上壹句“這會很有趣!”。然而,這些方法都沒有產生壹致的效果,但其中壹種方法脫穎而出。當他們讓AI假裝自己身處《星際迷航》場景,它的基礎數學能力竟然有所提升。看來,它真的能把我傳送上去。
人們嘗試過各種奇葩策略,試圖從大型語言模型(LLM,ChatGPT等工具背後的AI技術)中獲得更好的回饋。有些人深信,威脅AI能讓它表現得更好;另壹些人認為,禮貌待人會讓聊天機器人更配合;還有些人甚至要求機器人扮演某個研究領域的專家來回答問題。這樣的例子不勝枚舉。這都是圍繞著“提示工程”或“情境工程”——即建構指令以使AI提供更佳結果的不同方法——所形成的迷思的壹部分。但事實是:專家告訴我,許多被廣泛接受的提示技巧根本不起作用,有些甚至可能是危險的。但是,你與AI的溝通方式確實至關重要,某些技巧真的能帶來差異。
“很多人認為,只要用壹些神奇的詞語,就能讓大型語言模型解決問題,”美國范德比爾特大學(Vanderbilt University)研究生成式AI的電腦科學教授朱爾斯·懷特(Jules White)說,“但關鍵不在於用詞,而在於你如何從根本上表達你想要做的事情。”
要講究禮貌嗎?
2025年,壹位用戶在X(前身為Twitter)上發推文問道:“我想知道OpenAI因為人們向他們的模型說‘請’和‘謝謝’而損失了多少電費。” 制作ChatGPT的OpenAI首席執行官薩姆·奧特曼(Sam Altman)回應道:“花掉的數千萬美元很值得,”他說,“誰知道呢。”
大多數人將最後壹句解讀為對潛在“AI末日”的戲謔,盡管“數千萬美元”這個數字究竟有多大可信度還很難說。不過,這是壹個實際的問題。
大型語言模型的工作原理是將你的話語分割成稱為“詞元”(tokens)的小塊,然後利用統計方法分析這些詞元,從而得到適當的回應。這代表你說的每壹個字詞,甚至是壹個額外的逗號,都可能影響AI的回答。問題在於,這種影響幾乎無法預測。雖然已經有許多研究試圖從AI提示的細微變化中尋找規律,但大部分證據相互矛盾,結論也不明確。
舉例來說,2024年的壹項研究發現,當使用者以禮貌的方式提問,而不是直接下命令時,大型語言模型的回答更好、更准確。更奇怪的是,這其中還存在著文化差異:與中文和英文相比,如果你對日文聊天機器人過於客氣,它們的表現反而會略遜壹籌。
但也別急著去買張“謝謝卡”送給你的AI。另壹個小型測試發現,舊版的ChatGPT在被辱罵時反而更准確。總體來說,這方面的研究還遠遠不足,無法得出可靠的結論。而且,AI公司不斷更新他們的聊天機器人,這意味著研究結果很快就會過時。
專家表示,AI模式在短短幾年內取得了巨大的進步。因此,如果你的目標是讓AI更加准確,那麼奉承、禮貌、侮辱或威脅等技巧都是浪費時間。
“那時候完全是碰運氣。”博通公司(Broadcom)應用機器學習工程師裡克·巴特爾(Rick Battle)說。他也是《星際迷航》研究的作者之壹。雖然這項研究是在2024年進行的,但情況已經改變了。巴特爾等人表示,如今你在ChatGPT、Gemini或Claude等主流產品中遇到的新型AI模型,能夠更好地捕捉你提示中最關鍵的部分。它們大概不會因為語言上的細微變化而受到影響,至少不會以壹種你能持續利用的方式受到影響。
這個結論本身就有些令人不安。當公司設計像ChatGPT或谷歌的Gemini這樣的AI時,會使其行為像人壹樣,所以它們有時看起來好像有情緒,你可以控制它們,或者可以引導它們的個性,這也就不足為奇了。但不要被其所迷惑。AI工具只是模仿者,不是生命體。它們只是在模擬人類行為。如果你想要更好的答案,就不要把AI當人看待,而應該把它當成工具來使用。
如何與聊天機器人對話
AI確實存在壹些非常現實的問題,從倫理問題到其可能對環境造成的影響。有些人甚至選擇完全不與它互動。但如果你打算使用大型語言模型,那麼學會如何更快、更有效率地獲得你想要的結果,不僅對你有好處,對過程中消耗的能源也可能更有益。以下這些技巧將幫助你入門。
要求多個選項
“我告訴人們的第壹件事就是不要只問壹個答案,而是問叁個或伍個。”懷特說。例如,如果你想讓AI幫你寫文章,就告訴它提供幾個在某些重要方面不同的選項。“這能迫使人們重新思考自己喜歡什麼以及為什麼喜歡。”
提供范例
盡可能為AI提供范例。 “例如,我見過有人讓壹個法學碩士幫他們寫郵件,然後他們就感到沮喪,因為他們會說‘這完全不像我的風格’。”懷特說。人們的自然反應是列出壹長串指令,“要這樣做”和“不要那樣做”。懷特說,更有效的做法是說“這裡有我過去寄出的10封電子郵件,請使用我的寫作風格。”
要求面談
“假設你想要生成壹份職缺描述。告訴AI:‘我希望你壹次問我壹個問題,直到你收集到足夠資訊來撰寫壹份有吸引力的職缺公告,’”懷特說,“透過壹次壹個問題的方式,它能根據你的回答進行調整。”
謹慎對待角色扮演
“過去人們認為,如果你告訴AI它是壹位數學教授,例如,它在回答數學問題時實際上會更准確。”桑德·舒爾霍夫(Sander Schulhoff)說。他是壹位企業家和研究員,也是“提示工程”理念的推廣者。但舒爾霍夫和其他人表示,當你尋找資訊或提出只有壹個正確答案的問題時,角色扮演反而會降低AI模型的准確性。
“這實際上可能很危險,”巴特爾說。 “你實際上是在鼓勵它產生幻覺,因為你告訴它它是專家,它應該相信它內部的參數知識。”本質上,這會讓AI表現得過於自信。
但對於那些沒有單壹正確答案的開放式任務,角色扮演是有效的(例如建議、腦力激蕩、創意或探索性的問題解決)。如果你對求職面試感到緊張,讓聊天機器人模仿招聘主管的語氣練習可能是壹個不錯的主意——只是要記得同時參考其他資源。
保持中立
“不要引導證人,”巴特爾說,如果你正在兩輛車之間猶豫不決,不要說你傾向於豐田。 “否則,你很可能就會得到那樣的答案。”
“請”和“謝謝”
根據皮尤研究中心2019年的壹項調查,超過壹半的美國人在與智慧音箱對話時會說“請”。這種趨勢似乎仍在持續。 未來出版社2025年的壹項調查發現,70%的人在使用AI時會保持禮貌。大多數人表示,他們這樣做是因為這是理所當然的,但也有12%的人表示,他們這樣做是為了在機器人起義時保護自己。
禮貌或許無法保護你免受機器人的憤怒攻擊,也不能讓大型語言模型更准確,但還有其他理由讓我們繼續保持禮貌。
舒爾霍夫說:“對我來說,更重要的是,說‘請’和‘謝謝’可能會讓你在與AI互動時感到更自在。這雖然不會提升模型的性能,但如果它能讓你因為感到更自在而更願意使用它,那麼它就是有用的。”
此外,你自身人性中的溫柔也值得考慮。哲學家伊曼努爾·康德(Immanuel Kant)認為,人不應該虐待動物,因為這同樣會對自己造成傷害。本質上,對任何事物不友善都會讓你變得更加冷酷無情。你無法傷害AI的感受,因為它根本沒有感情,但或許你還是該對它友善壹點。這種習慣或許也能讓你的生活其他方面受益。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見