在今天淩晨,OpenAI 突然發布了一個 ChatGPT 的大更新。主要更新內容有:
ChatGPT新增六大更新
- 在 Chat Completions API 新增函數呼叫(Function call)功能
- 改進了 GPT-4 和 GPT-3.5-turbo 版本
- 更新了gpt-3.5-turbo的 16k 上下文版本
- 嵌入式模型降低了 75% 的成本
- gpt-3.5-turbo 的輸入 tokens 成本減少了 25%
- 宣布了 gpt-3.5-turbo-0301 和 gpt-4-0314 模型的棄用時間表
OpenAI 也宣布,未來幾周內邀請更多人試用 GPT-4,直到完全刪除候補名單。
什麽是Function Calling?
開發者現在可以向 GPT 模型描述函數,並讓模型智慧地選擇輸出一個包含參數的 JSON 對象來呼叫這些函數。
簡單來說,GPT 能夠知道何時要需要用外部工具來解決問題,不再需要開發者為它描述複雜的 Prompt,進一步降低了出錯的可能性。
舉個例子:當你向 ChatGPT 提問「波士頓的天氣怎麽樣?」時,你的問題會被模型解讀為呼叫第三方天氣 API,這時候它就會去搜尋相關的數據,輸出準確的回答。
OpenAI 相當於提供了一個規範的接口呼叫方式,這將會給基於 GPT 開發應用的開發者們更高的靈活性。
模型更新後可輸入長達20頁文本
OpenAI 這次一同發布了 gpt-4-0613 和 gpt-3.5-turbo-0613 改進模型,均支持函數呼叫功能。
OpenAI 還發布了 gpt-3.5-turbo-16k 模型,支持 16000 tokens 的上下文長度,比目前的 gpt-3.5-turbo 要大 4 倍。
ChatGPT 無法輸入長文本一直是一個為人詬病的問題,如今使用 gpt-3.5-turbo-16k 模型,你可以輸入長達 20 頁的文本,把長文檔、論文直接丟給 ChatGPT 讀。
gpt-3.5-turbo-16k 是加量不加價,雖然文本量大了 4 倍,但價格只是 gpt-3.5-turbo 2 倍。
OpenAI 還宣布了他們會進一步降低模型運行的成本,以 gpt-3.5-turbo 為例,它的輸入 tokens 成本降低了 25%,相當於每美元大約可以處理 700 頁文件。
本文授權轉載自:愛范兒
責任編輯:蘇祐萱