如何向AI下指令、給予提示詞在人工智慧崛起的時代已成為一項技能,各大企業一度捧著20萬美元高薪,就為求得相關人才,現在更漸漸成為所有工作者需要具備的能力。AI新創Anthropic就發布了一份提示工程指南,和用戶分享如何能夠有效地給予AI提示。
ChatGPT問世後,提示工程曾經職場上最受追捧的新技能,不乏企業開出20萬到25萬美元的年薪招募擁有提示工程能力的人才,不過隨著AI模型變得越來越易用,這項技能從有著一定門檻的專業能力,逐漸轉變為眾多工作者都得熟練運用的技巧。
即使如此,要有效下指令給AI執行,仍需要懂得一些竅門。推出Claude系列模型的Anthropic,近日發布了一篇《提示工程概述》的指南,教導用戶如何有效地利用提示詞與模型互動,以得到自己想要的結果。
根據《Business Insider》報導,這份指南雖然是針對Anthropic旗下的Claude量身打造,同樣適用於市面上幾乎所有聊天機器人。
Anthropic強調這份指南主要是提供有一些基礎的AI用戶,至少需要有一份想改進的初步提示詞,以及有著明確的成功標準,並有辦法進行實證評估。《數位時代》也從中節選部分關鍵訣竅與讀者分享。
訣竅一:提示要明確
Anthropic建議,與Claude互動時,要把他想像成一位很有才華、但記憶力不太好的新員工,「Claude不了解你的規範、風格、準則或偏好的工作方式,你越精準解釋想要的內容,Claude的回應就會越好。」
在舉例中,當你要求Claude在輸出內容中不要用刪節號時,詳細解釋要求比單純提出要求更好。
較不有效的寫法
「不要使用刪節號」
更有效的寫法
「你的回應會轉成語音朗讀,所以不要使用刪節號,因為文字轉語音功能不知道如何發音。」
指南中提到,給予Claude的任務最好包括生成的結果要用於哪裡、輸出的內容要提供給誰、這項任務屬於什麼工作流程,以及它最終的樣貌。並且可以使用編號或項目符號標記要求,確保AI依照你期望的順序、方式完成任務。指示越有條理、越清晰,得到的結果就越好。
訣竅二:給予AI範例
Anthropic在指南中分享的另一個要點,則是建議多給予AI模型範例,「範例是讓Claude產生你所需內容的祕密武器,在提示中加入一些精心設計的範例,可以顯著提昇Claude的準確性、一致性及品質。」這種作法被稱作「多範例提示」(few-shot)。
指南中提到,範例要有效需要注意相關性,範例是否反應實際案例,以及多樣性,範例是否涵蓋大多甚至極端狀況,同樣還要注意明確程度,例如使用<範例>標籤註明,讓AI明白知道哪些內容是你提供的範例。
訣竅三:給AI思考的空間
「當面對研究、分析或解決問題等複雜任務時,給予Claude思考時間可以大幅提昇表現。」Anthropic在指南中如此表示。
那麼,該如何給予AI思考的時間?這涉及到一種被稱為「思維鏈」(CoT)的提示技術,透過讓AI逐步拆解問題,進而生成更精準、細緻的回應。雖然思考可以讓AI模型提供更準確的答案,指南中也表示,思考會影響輸出時間,不是所有任務都需要AI深入思考,需要妥善在性能與延遲間取得平衡。
而最基本的作法,就是直接在提示詞中要求AI「逐步思考」。文中也以一封請求捐贈人援助今年關愛兒童計畫為例。
●基本提示
撰寫個人化的電子郵件,請求捐贈人為今年的關愛兒童計畫提供援助。
在撰寫電子郵件前請逐步思考
這種提示雖然較為簡短,但缺乏如何思考的指導。
●引導式思考
撰寫個人化的電子郵件,請求捐贈人為今年的關愛兒童計畫提供援助。
撰寫電子郵件前請先思考。首先,依照他們的捐贈歷史和過去援助的活動,思考什麼訊息可以思考這位捐贈人。然後依照這些歷史資訊,思考關愛兒童計畫有哪些方面可能吸引他們。最後,運用你的分析結果撰寫個人化電子郵件。
這種方法告訴AI幾個可以依循的步驟,不過Anthropic指出,缺點在於缺乏結構化,無法將答案從思考過程分離出來。
●結構化提示
撰寫個人化的電子郵件,請求捐贈人為今年的關愛兒童計畫提供援助。
在使用 <思考> 標籤撰寫電子郵件之前,請先思考一下。首先,依照他們的捐贈歷史和過去援助的活動,思考什麼訊息可以給予這位捐贈人參考。然後依照這些歷史資訊,思考關愛兒童計畫有哪些方面可能吸引他們。最後,使用 <電子郵件> 標籤,結合你的分析撰寫個人化電子郵件。
相比前兩種作法,這可以將AI的推理過程與最終答案分離開來,但相對也需要占用較多的文本量,並需要更長的思考時間。
訣竅四:賦予AI角色
Anthropic指出,賦予AI一個角色(比如新聞記者、法務專家),能夠大幅提升其表現。
這種被稱為「 角色提示 」的作法,能夠將AI從一般助手轉變為該領域的專家,「在複雜的場景中(比如法律分析或建立財務模型),角色提示可以顯著提升Claude的表現。」
同時,為AI賦予角色也能更容易規範它的遣詞用字符合你的需求,例如需要如財務長報告般簡潔扼要,或者專業撰稿人的正式文筆,都能更簡單地讓AI按照預期產出內容。另外,還可以透過限定角色的情境,確保AI在任務的特定範圍內進行回覆。
Anthropic在提供的範例中,要求AI分析一份軟體授權協議可能存在的風險,沒有被賦予角色的AI回答很簡略,沒有看出什麼重大問題。然而當它被賦予了「財星500強企業法務長」的身份後,便發現協議中存在大量陷阱,對公司極為不利,可能導致上百萬美元的損失。
訣竅五:允許AI說「我不知道」
AI生成內容最大詬病點,便是可能一本正經胡說八道,信誓旦旦地說著編造的內容,或者正確的內容中參雜虛假資訊,導致難以察覺或核實。
要減少AI產生幻覺的可能性,該指南中提到,最好的方式就是允許AI說「我不知道」,明確開放AI可以承認自己不確定的事項,如此一來便能大大減少出現錯誤資訊的情況。
另外,在一些涉及長文檔的任務時,可以要求AI先擷取引用資訊,再執行任務,這樣可以確保AI的回應都是基於引用資訊,降低幻覺問題。
用戶還可以再更進一步,要求AI為每個聲明標記引文和資料來源,讓你在查閱生成內容時可以查證說法是否屬實,甚至直接讓AI在生成內容後,重新檢視所有說法,一旦找不到引用來源就得撤回。
不過Anthropic也強調,這些技術雖然可以降低幻覺機率,卻不能保證完全消除風險, 用戶最好手動驗證部分關鍵訊息 ,尤其是涉及重要決策時。
熟悉這些要點並實行,能夠讓AI更準確生成用戶所期望的內容,不過上述的5個要點只是Anthroic這份指南中的一部份內容,其中還有更多的範例與細節教學,若希望精進自己運用AI能力的人,或許值得再閱讀完整指南。
延伸閱讀:年薪上看487萬!10大「AI最難取代」高薪職位出爐:不只工程師,這類非理科也超穩
「沒人在用email!」前OpenAI工程師揭內部文化:實力至上、鼓勵實作⋯優秀PM很稀缺