OpenAI最完整攻略,六招輕鬆駕馭GPT-4!提示詞怎麼下?怎麼讓模型思考?
OpenAI最完整攻略,六招輕鬆駕馭GPT-4!提示詞怎麼下?怎麼讓模型思考?

ChatGPT 誕生以來,憑借劃時代的創新,被無數人一舉送上生成式 AI 的神壇。

我們總是期望它能準確理解我們的意圖,卻時常發現其回答或創作並非百分之百貼合我們的期待。這種落差可能源於我們對於模型性能的過高期望,亦或者我們在使用時未能找到最有效的溝通途徑。

正如探險者需要時間適應新的地形,我們與 ChatGPT 的互動也需要耐心和技巧,此前 OpenAI 官方發布了 GPT-4 使用指南 Prompt engineering,這裡面記載了駕馭 GPT-4 的六大策略。

相信有了它,未來你和 ChatGPT 的溝通將會更加順暢。

延伸閱讀:ChatGPT Plus重新開放註冊!客製化ChatGPT能做什麼?3大功能讓OpenAI被擠爆了

簡單總結一下這六大策略:

  1. 寫出清晰的指令
  2. 提供參考文本
  3. 將複雜的任務拆分為更簡單的子任務
  4. 給模型時間「思考」
  5. 使用外部工具
  6. 系統地測試變更

一:寫出清晰的指令

描述詳細的訊息

ChatGPT 無法判斷我們隱含的想法,所以我們應該盡可能明確告知你的要求,如回覆的長短、寫作的水平、輸出的格式等。

越少讓 ChatGPT 去猜測和推斷我們的意圖,輸出結果滿足我們要求的可能性越大。例如,當我們讓他寫一篇心理學的論文,給出的提示詞應該長這樣:

請幫助我撰寫一篇有關「抑鬱症的成因及治療方法」的心理學論文,要求:需要查詢相關文獻,不能抄襲或剽竊;需要遵循學術論文格式,包括摘要、引言、正文、結論等部分;字數 2000 字以上。

30.jpg-.jpeg!720.jpeg
圖/ 愛范兒

讓模型扮演某個角色

術業有專攻,指定模型扮演專門的角色,它輸出的內容會顯得更加專業。

例如:請你扮演一名警探小說家,用柯南式推理描述一起離奇命案。要求:需匿名處理,字數 1000 字以上,劇情跌宕起伏。

31.jpg!720.jpeg
圖/ 愛范兒

使用分隔符清楚地劃分不同部分

三引號、XML 標籤、節標題等分隔符號可以幫助劃分需要區別對待的文本,幫助模型更好地消除歧義。

32.jpg!720.jpeg
圖/ 愛范兒

指定完成任務所需的步驟

將部分任務拆成一系列條例清晰的步驟,這樣更有利於模型執行這些步驟。

33.jpg!720.jpeg
圖/ 愛范兒

二:提供示例

提供適用於所有示例的一般性說明通常比示例演示更有效,但在某些情況下提供示例可能更容易。

舉個例子,如果我告訴模型要學會游泳,只需要踢腿和擺動手臂,這就是一個一般性的說明。而如果我給模型展示一個遊泳的影片,展示踢腿和擺動手臂的具體動作,那就是透過示例來說明。

指定輸出長度

我們可以告訴模型,希望它生成的輸出有多長,這個長度可以以單字、句子、段落、要點等方式進行計數。

受限於模型內部機制和語言複雜性的影響,最好還是按照段落、要點來劃分,這樣效果才會比較好。

提供參考文本讓模型使用參考文本回答

假如我們手上有更多參考訊息,那我們可以「餵」給模型,並讓模型使用提供的訊息來回答。

35.jpg!720.jpeg
圖/ 愛范兒

讓模型引用參考文本來回答

如果輸入中已經包含了相關的知識文檔,用戶可以直接要求模型透過引用文檔中的段落來為其答案添加引用,盡可能減少模型胡說八道的可能性。

在這種情況下,輸出中的引用還可以用編程方式驗證,即透過對所提供文檔中的字符串進行匹配來確認引用的準確性。

36.jpg!720.jpeg
圖/ 愛范兒

三:將複雜的任務拆分為更簡單的子任務

把問題分類定義操作

處理那些需要很多不同操作的任務時,我們可以採用一個比較聰明的方法。首先,把問題分成不同的類型,看看每一種類型需要什麽操作。這就好像我們在整理東西時,先把相似的東西放到一起。

接著,我們可以給每個類型定義一些標準的操作,就像給每類東西貼上標籤一樣,這樣一來,就可以事先規定好一些常用的步驟,比如查找、比較、了解等。

而這個處理方法可以一層層地遞進,如果我們想提出更具體的問題,就可以根據之前的操作再進一步細化。

這麽做的好處是,每次回答用戶問題時,只需要執行當前步驟需要的操作,而不是一下子把整個任務都做了。這不僅可以減少出錯的可能性,還能更省事,因為一次性完成整個任務的代價可能比較大。

總結或過濾之前的對話

模型在處理對話時,受制於固定的上下文長度,不能記住所有的對話歷史。

想要解決這個問題,其中一種方法是對之前的對話進行總結,當輸入的對話長度達到一定的限制時,系統可以自動總結之前的聊天內容,將一部分訊息作為摘要顯示,或者,可以在對話進行的同時,在後台悄悄地總結之前的聊天內容。

另一種解決方法是在處理當前問題時,動態地選擇與當前問題最相關的部分對話。這個方法涉及到一種叫做「使用基於嵌入的搜尋來實現高效的知識檢索」的策略。

簡單來說,就是根據當前問題的內容,找到之前對話中與之相關的部分。這樣可以更有效地利用之前的訊息,讓對話變得更有針對性。

分段總結長文檔並構建完整摘要

由於模型只能記住有限的訊息,所以不能直接用來總結很長的文本,為了總結長篇文檔,我們可以採用一種逐步總結的方法。

就像我們閱讀一本書時,可以透過一章又一章地提問來總結每個部分。每個部分的摘要可以串聯起來,形成對整個文檔的概括。這個過程可以一層一層地遞歸,一直到總結整個文檔為止。

如果需要理解後面的內容,可能會用到前面的訊息。在這種情況下,另一個有用的技巧是在閱讀到某一點之前,先看一下摘要,並了解這一點的內容。

四:給模型時間「思考」

指示模型得出結論前,先想出自己的解決方案

以往我們可能直接讓模型看學生的答案,然後問模型這個答案對不對,但是有時候學生的答案是錯的,如果直接讓模型判斷學生的答案,它可能判斷不準確。

為了讓模型更準確,我們可以先讓模型自己做一下這個數學題,先算出模型自己的答案來。然後再讓模型對比一下學生的答案和模型自己的答案。

先讓模型自己算一遍,它就更容易判斷出學生的答案對不對,如果學生的答案和模型自己的答案不一樣,它就知道學生答錯了。這樣讓模型從最基本的第一步開始思考,而不是直接判斷學生的答案,可以提高模型的判斷準確度。

39.jpg!720.jpeg
圖/ 愛范兒

使用內心獨白來隱藏模型的推理過程

有時候在回答特定問題時,模型詳細地推理問題是很重要的。但對於一些應用場景,模型的推理過程可能不適合與用戶共享。

為了解決這個問題,有一種策略叫做內心獨白。這個策略的思路是告訴模型把原本不想讓用戶看到的部分輸出整理成結構化的形式,然後在呈現給用戶時,只顯示其中的一部分,而不是全部。

例如,假設我們在教某個學科,要回答學生的問題,如果直接把模型的所有推理思路都告訴學生,學生就不用自己琢磨了,

所以我們可以用「內心獨白」這個策略:先讓模型自己完整地思考問題,把解決思路都想清楚,然後只選擇模型思路中的一小部分,用簡單的語言告訴學生。

或者我們可以設計一系列的問題:先只讓模型自己想整個解決方案,不讓學生回答,然後根據模型的思路,給學生出一個簡單的類似問題,學生回答後,讓模型評判學生的答案對不對。

最後模型用通俗易懂的語言,給學生解釋正確的解決思路,這樣就既訓練了模型的推理能力,也讓學生自己思考,不會把所有答案直接告訴學生。

40.jpg!720.jpeg
圖/ 愛范兒

詢問模型在之前的過程中是否遺漏內容

假設我們讓模型從一個很大的文件裡,找出跟某個問題相關的句子,模型會一個一個句子告訴我們。

但有時候模型判斷失誤,在本來應該繼續找相關句子的時候就停下來了,導致後面還有相關的句子被漏掉沒有告訴我們。

這個時候,我們就可以提醒模型「還有其他相關的句子嗎」,接著它就會繼續查詢相關句子,這樣模型就能找到更完整的信息。

五:使用外部工具

使用基於嵌入的搜索實現高效的知識檢索

如果我們在模型的輸入中添加一些外部訊息,模型就能更聰明地回答問題了。比如,如果用戶問有關某部電影的問題,我們可以把電影的一些重要訊息(比如演員、導演等)輸入到模型裡,這樣模型就能給出更聰明的回答。

文本嵌入是一種能夠度量文本之間關係的向量。相似或相關的文本向量更接近,而不相關的文本向量則相對較遠,這意味著我們可以利用嵌入來高效地進行知識檢索。

具體來說,我們可以把文本語料庫切成塊,對每個塊進行嵌入和存儲。然後,我們可以對給定的查詢進行嵌入,並通過矢量搜索找到在語料庫中最相關的嵌入文本塊(即在嵌入空間中最接近查詢的文本塊)。

使用代碼執行來進行更準確的計算

語言模型並不總是能夠準確地執行複雜的數學運算或需要很長時間的計算。在這種情況下,我們可以告訴模型寫一些代碼來完成任務,而不是讓它自己去做計算。

具體做法是,我們可以指導模型把需要運行的代碼按照一定的格式寫下,比如用三重反引號包圍起來。當代碼生成了結果後,我們可以提取出來並執行。

最後,如果需要,可以把代碼執行引擎(比如 Python 解釋器)的輸出當作模型下一個問題的輸入。這樣就能更有效地完成一些需要計算的任務。

另一個很好的使用代碼執行的例子是使用外部 API。如果我們告訴模型如何正確使用某個 API,它就可以寫出能夠調用該 API 的代碼。

我們可以給模型提供一些展示如何使用 API 的文檔或者代碼示例,這樣就能引導模型學會如何利用這個 API。簡單說,給模型提供一些關於 API 的指導,它就能夠創建代碼,實現更多的功能。

42.jpg!720.jpeg
圖/ 愛范兒

警告:執行由模型生成的代碼本質上是不安全的,任何嘗試執行此操作的應用程式都應該採取預防措施。特別是,需要使用沙盒代碼執行環境來限制不受信任的代碼可能引起的潛在危害。

讓模型提供特定功能

我們可以透過 API 請求,向它傳遞一個描述功能的清單。這樣,模型就能夠根據提供的模式生成函數參數。生成的函數參數將以 JSON 格式返回,然後我們再利用它來執行函數調用。

然後,把函數調用的輸出用到下一個請求中的模型裡,就可以實現一個循環,這就是使用 OpenAI 模型調用外部函數的推薦方式。

六:系統地測試變更

當我們修改一個系統時,很難判斷這些修改是好是壞。因為例子太少,很難確定結果是真的改進了還是運氣好。有時候一個修改在某些情況下是好的,在其他情況下是壞的。

那麽我們如何評價系統輸出的質量呢?如果問題只有一個標準答案,電腦可以自動判斷對錯。如果沒有標準答案,可以用其他模型來判斷。

此外,我們也可以讓人工來評價,又或者電腦和人工結合評價,當問題的答案很長時,不同的答案質量差別不大,這時就可以讓模型自己來評價。

當然,隨著模型變得更先進,可以自動評價的內容會越來越多,需要人工評價的越來越少,評價系統的改進非常難,結合電腦和人工是最好的方法。

43.jpg!720.jpeg
圖/ 愛范兒

參考黃金標準答案評估模型輸出

假設我們面對一個問題,需要給出答案。我們已經知道這個問題的正確答案,是基於一些事實的。比如問題是「為什麽天空是藍色的」,正確答案可能是「因為陽光通過大氣層的時候,藍光的光比其他顏色通過得更好」。

這個答案就是基於以下事實:陽光包含不同顏色,藍光通過大氣層時損耗較小

有了問題和正確答案後,我們可以用模型 (比如機器學習模型) 來判斷,答案中的每一部分事實對於答案正確的重要性。

比如通過模型判斷出,答案中「陽光包含不同顏色」這一事實對於答案的正確性非常重要。而「藍光損耗較小」這一事實,對於答案也很重要。這樣我們就可以知道,這個問題的答案依賴於哪些關鍵的已知事實。

47.jpg!720.jpeg
圖/ 愛范兒

在和 ChatGPT 人機交流的過程中,提示詞看似簡單,卻又是最為關鍵的存在,在數字時代,提示詞是拆分需求的起點,透過設計巧妙的提示詞,我們可以將整個任務拆分成一系列簡明的步驟。

這樣的分解不僅有助於模型更好地理解用戶的意圖,同時也為用戶提供了更為清晰的操作路徑,就好像給定了一個線索,引導我們一步步揭開問題的謎底。

你我的需求如同湧動的江河,而提示詞就像是調節水流方向的水閘,它扮演著樞紐的角色,連接著用戶的思維與機器的理解。毫不誇張地說,一個好的提示詞既是對用戶深度理解的洞察,也是一種人機溝通的默契。

當然,要想真正掌握提示詞的使用技巧,僅依靠 Prompt engineering 還遠遠不夠,但 OpenAI 官方的使用指南總歸給我們提供了寶貴的入門指引。

延伸閱讀:ChatGPT給的答案像「垃圾」?掌握指令詞的3大關鍵,讓AI也能聽懂人話

本文授權轉載自:愛范兒ifanr

責任編輯:蘇祐萱

關鍵字: #AI #openai #ChatGPT
往下滑看下一篇文章
從台流轉型到跨界共創,2025亞洲新媒體高峰會以「RESILIENCE:韌性 · 突圍」驅動產業續航
從台流轉型到跨界共創,2025亞洲新媒體高峰會以「RESILIENCE:韌性 · 突圍」驅動產業續航

全球影視娛樂正處在結構翻轉的臨界點。從串流平台的競合與權力再分配,到生成式AI引爆的創作革命,再到觀眾注意力被碎片化的內容浪潮瓜分,市場規則幾乎在一年之內重寫。

在這樣的動盪中,「如何永續成長」成為所有內容產業的共同焦慮。台灣擁有豐沛的創作能量,卻在規模化與國際化的路上,始終面臨結構性瓶頸。為了回應時代考驗,NMEA(新媒體暨影視音發展協會)以「RESILIENCE:韌性 · 突圍」為題,將於11月24日至25日舉行2025亞洲新媒體高峰會,邀請超過五十位國內外產業領袖對話,從組織、內容、技術與商業模式出發,探討如何讓台灣影視娛樂在不確定中,創造屬於自己的續航動能。

韌性,從衝擊中找到成長的可能

「Resilience」一詞原本源自工程學,指材料在受壓後能回彈的能力。NMEA理事長李芃君指出,當這個詞被用於產業時,它所代表的已不只是「抗壓」,而是「擁抱變化與永續成長」的能力——在巨變中快速重組關鍵資源、甚至藉由創新找到新的突破。

她觀察,全球產業變動的背後,主要受到三股力道的衝擊:地緣政治的風險、科技典範的轉移,以及氣候與疫情等帶來的自然挑戰。這些因素同樣影響著台灣文化內容產業。

以台灣一家全球背光模組大廠為例。近年隨著國際電子品牌紛紛在筆電與平板產品導入OLED顯示技術,傳統背光模組市場面臨挑戰;該企業在察覺趨勢轉向後,選擇主動調整策略,透過併購前沿技術快速推出新產品,切入車用、醫療與AR/VR顯示等新領域。李芃君指出,這樣的轉向即是韌性的展現——在技術更迭的浪潮中重新定位自己,讓企業從被動防守,轉為開創下一波成長曲線。

「這種思維放回影視娛樂也一樣。當市場被新技術和新平台顛覆,產業若仍困於單一市場、單一資金、單一合作關係,就難以應對下一次衝擊。」她強調,建立韌性不能停留在抽象的口號,必須要有具體行動,而關鍵就在「多角化」。

多角化的市場讓故事能走出台灣、觸及不同文化的觀眾;多角化的技術與人才,讓製作不再受限於傳統框架;而多角化的資金與夥伴結構,則能減少對補助與單一委製案的依賴,形成正向循環的產業體質。諸如日本《鬼滅之刃》透過IP延伸創造跨世代效應,或泰國在政府策略支持與國際平台Netflix合作,讓在地內容走向全球,都是多角化的案例。

高峰會四大主軸,挖掘韌性的潛力

「政策當然重要,但最終能否長出韌性,關鍵仍在產業本身的自覺與行動力。」李芃君表示,第七屆亞洲新媒體高峰會以「台流轉型、跨界共創、影視創新、商模躍進」四大主軸為核心,期望讓韌性不再停留於口號,而能轉化為具體實踐。不只是思考「如何生存」,更要推動產業主動探索「如何成長」。

在「台流轉型」議題中,論壇將從亞洲娛樂的整體格局出發,思考台灣內容如何在國際市場中建立辨識度與合作機制。面對串流平台競爭與區域內容崛起,產業要重新定義「台流」的價值,從單點創作走向跨國布局。

「跨界共創」則從電競、音樂、體育到AI應用,剖析影視娛樂如何走向一個多層次的體驗場域。透過多個實際案例,探討不同產業之間的協作經驗,助攻內容突破原有框架,創造新的商業能量。

「影視創新」主軸聚焦於新技術與內容形式的融合。如:短劇風潮、現象級作品及AI生成式內容等,正改變影視產業的創作邏輯。論壇將聚焦技術如何成為創意夥伴,推動人才與內容的再進化。

最後,「商模躍進」則回應內容永續與變現挑戰。當觀眾行為與平台策略不斷重組,內容不再只是作品,也是可延伸、可轉化的商業資產。論壇將引導產業思考,如何讓內容價值在不同階段持續發酵,打造可長可久的生態循環。

李芃君強調,高峰會的價值,在於讓這些不同維度的討論彼此交會;唯有當創作、技術與資本願意對話,產業的韌性才能真正落地。「我們希望產業能從危機思維轉向成長思維,在對話與合作中,激盪出新的想像與行動。」

韌性,新媒體暨影視音產業必備的DNA

自2017年成立以來,NMEA持續扮演政策倡議與產業整合的推動者。每一屆高峰會也都對應時代命題,映照產業進化軌跡。從2023年「EMPOWERING」的全面賦能、2024年「CONSOLIDATION」的整合共榮,到今年的「RESILIENCE」發揮韌性、尋求突圍,李芃君形容,這是一條從能力啟動、資源整合到體質調整的路徑,引領台灣影視娛樂邁向國際舞台。

NMEA
NMEA理監事集結產業代表,共思壯大台灣內容產業之道。
圖/ NMEA

她指出,高峰會結束後,NMEA也將以工作坊與共創計畫延續對話熱度,讓產業交流落地為實際行動。協會也積極拓展跨域合作,從企業交流、IP授權推動到媒體合作,串聯更多產業能量。

值得注意的是,自2022年起,高峰會同步啟動線上直播,三年累計已吸引超過20萬名觀眾參與,單屆觀看更突破8.1萬人次。李芃君認為,這不僅是數據表現,更代表台灣影視產業逐漸建立國際話語權。當產業以開放與創新的態度前行,才能在全球文化浪潮中,站上屬於台灣的舞台。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓