博客專欄

EEPW首頁 > 博客 > GPT-3.5 Turbo支持微調(diào)了,打造專屬ChatGPT,但價(jià)格小貴

GPT-3.5 Turbo支持微調(diào)了,打造專屬ChatGPT,但價(jià)格小貴

發(fā)布人:機(jī)器之心 時(shí)間:2023-08-23 來源:工程師 發(fā)布文章
OpenAI:對(duì) GPT-4 的微調(diào)也將于秋季到來。

今天,OpenAI 又迎來了一次新的產(chǎn)品升級(jí)。

現(xiàn)在企業(yè)客戶終于可以對(duì) GPT-3.5 Turbo 進(jìn)行微調(diào)了。這樣一來,開發(fā)人員能夠得到在自己的用例上表現(xiàn)更好的自定義模型,并大規(guī)模地運(yùn)行這些模型。

至于實(shí)際效果,早期測(cè)試已經(jīng)證明,GPT-3.5 Turbo 微調(diào)版本的能力在一些小范圍任務(wù)上可以媲美甚至超越基礎(chǔ) GPT-4 模型。

OpenAI 表示,此次微調(diào) API 的傳入和傳出數(shù)據(jù)完全歸客戶所有,它自己或任何其他機(jī)構(gòu)都不能使用這些數(shù)據(jù)來訓(xùn)練其他模型。這一做法保證了客戶數(shù)據(jù)的安全性和隱私性。

圖片


對(duì)于 GPT-3.5 Turbo 支持微調(diào)功能,英偉達(dá) AI 科學(xué)家 Jim Fan 表示,這是 OpenAI 自 APP Store 之后最重要的產(chǎn)品升級(jí)。


圖片


微調(diào)后性能更強(qiáng)、提示更短、速度更快


自 GPT-3.5 Turbo 推出以來,開發(fā)人員和企業(yè)一直要求可以自定義該模型,以此創(chuàng)建獨(dú)特和差異化的用戶體驗(yàn)。


隨著 OpenAI 宣布支持微調(diào)功能,開發(fā)人員現(xiàn)在可以運(yùn)行監(jiān)督微調(diào),使得 GPT-3.5 Turbo 在一些常見用例上輸出更好的結(jié)果。


首先增強(qiáng)了可控性。微調(diào)后的模型可以更好地遵循指令,比如輸出簡(jiǎn)潔或者使用給定語言進(jìn)行響應(yīng)。舉個(gè)例子,開發(fā)人員可以利用微調(diào)保證在提示使用德語時(shí),始終以德語進(jìn)行回答。


其次保證可靠的輸出格式。微調(diào)提升了模型輸出一致性格式的能力,這對(duì)于代碼補(bǔ)全或生成 API 調(diào)用等要求特定響應(yīng)格式的應(yīng)用來說很重要。開發(fā)人員可以通過微調(diào)更可靠地將用戶提示轉(zhuǎn)換為高質(zhì)量的 JSON 代碼片段,以供自己的系統(tǒng)使用。


最后是自定義語氣。微調(diào)是「磨煉」模型輸出語氣的好方法,以此更適合企業(yè)品牌聲音。擁有知名品牌聲音的企業(yè)可以通過微調(diào),讓模型輸出與自身調(diào)性更加一致。


除了性能更強(qiáng),微調(diào)后的 GPT-3.5 Turbo 模型可以在縮短提示的同時(shí)保證性能不會(huì)大變。此外微調(diào)后可以處理 4k token,這是 OpenAI 以往微調(diào)模型的兩倍。早期測(cè)試人員在對(duì)模型指令進(jìn)行微調(diào)時(shí), 提示大小最高可以縮短 90%,從而加快了每個(gè) API 調(diào)用的速度,減少了成本。


當(dāng)與提示工程、信息檢索和函數(shù)調(diào)用等其他技術(shù)結(jié)合使用時(shí),微調(diào)將變成超級(jí)強(qiáng)大的工具。OpenAI 還表示,今天秋季還將支持對(duì)函數(shù)調(diào)用和 gpt-3.5-turbo-16k 的微調(diào)。


微調(diào)一般分為四步完成:準(zhǔn)備數(shù)據(jù)、上傳文件、創(chuàng)建一個(gè)微調(diào)任務(wù)和使用一個(gè)微調(diào)模型。


安全性也非常重要。為了在微調(diào)過程中保證默認(rèn)模型的安全性,微調(diào)訓(xùn)練數(shù)據(jù)通過了 OpenAI 的審核 API 和 GPT-4 支持的審核系統(tǒng),從而檢測(cè)出與其安全標(biāo)準(zhǔn)相沖突的不安全訓(xùn)練數(shù)據(jù)。


價(jià)格有點(diǎn)貴


GPT-3.5 Turbo 的微調(diào)成本分為兩部分,包括初始訓(xùn)練成本和使用成本。其中:


訓(xùn)練階段:1K Tokens 要 0.008 美元

使用輸入:1K Tokens 要 0.012 美元

使用輸出:1K Tokens 要 0.016 美元


舉個(gè)例子,如果要對(duì) 10 萬 tokens 的訓(xùn)練文件進(jìn)行微調(diào),并訓(xùn)練 3 個(gè) epochs,則預(yù)計(jì)成本為 2.40 美元。


對(duì)此,有人表示,價(jià)格有點(diǎn)小貴,是基礎(chǔ) GPT-3.5 模型的 4 倍了。


圖片


博客鏈接:https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates


*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉