博客專欄

EEPW首頁 > 博客 > ChatGPT加速登陸手機(jī)?OpenAI招募移動終端團(tuán)隊 這些巨頭也在發(fā)力

ChatGPT加速登陸手機(jī)?OpenAI招募移動終端團(tuán)隊 這些巨頭也在發(fā)力

發(fā)布人:科創(chuàng)板日報 時間:2023-04-19 來源:工程師 發(fā)布文章
上周,OpenAI創(chuàng)始人阿爾特曼(Sam Altman)確認(rèn),現(xiàn)階段并沒有在訓(xùn)練GPT-5,“只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作”。

“更多的工作”有哪些?布局移動端或是重要一環(huán)。

其公司招聘頁顯示,OpenAI正招募ChatGPT移動終端工程經(jīng)理,“我們正在尋找一位經(jīng)驗豐富的工程師來幫助建立和領(lǐng)導(dǎo)ChatGPT移動團(tuán)隊?!痹擃I(lǐng)導(dǎo)崗位的年薪在30萬美元至50萬美元間,還包括“慷慨”的股權(quán)贈與和員工福利。OpenAI的移動端布局跨iOS和安卓,將招募安卓軟件工程師和iOS軟件工程師等。

圖片

圖片

圖源:OpenAI官網(wǎng)

此前,ChatGPT已經(jīng)試水移動端。微軟于2月份宣布,iOS和安卓端的必應(yīng)搜索和Edge瀏覽器均已接入ChatGPT。

ChatGPT登陸移動端無疑有利于觸達(dá)更多用戶。正如微軟所說,“如今有64%的搜索都發(fā)生在手機(jī)上?!?據(jù)調(diào)研機(jī)構(gòu)Gartner統(tǒng)計,2022年全球電腦出貨2.862億臺,手機(jī)出貨12.8億部。

另一方面,移動設(shè)備廠商也有意引入AI應(yīng)用為硬件產(chǎn)品增加亮點。據(jù)紐約時報消息,三星電子考慮將其設(shè)備上的默認(rèn)搜索引擎由谷歌改為必應(yīng)。三星是目前全球出貨量第一的手機(jī)廠商,據(jù)估計,谷歌與三星的合同關(guān)系到前者近30億美元的年收入。

不過,以ChatGPT為代表的大模型應(yīng)用登陸移動端將面臨計算資源、網(wǎng)絡(luò)資源、電量、儲存空間和信息安全受限等技術(shù)問題。

以大模型的計算需求為例,GPT等模型龐大且計算資源要求高,而手機(jī)上沒有用來加速AI運算的專業(yè)GPU,計算速度遠(yuǎn)不及電腦,且在移動端運行AI模型需要的大量計算也會迅速耗盡設(shè)備電量。

產(chǎn)業(yè)端已著手解決這些技術(shù)難題,高通、華為致力于實現(xiàn) AI 大模型在終端的輕量化部署,谷歌、騰訊、百度等已將模型壓縮技術(shù)緊密結(jié)合移動端模型部署框架/工具。

3月2日,高通在MWC2023大會發(fā)布全球首個運行在安卓手機(jī)上的Stable Diffusion終端側(cè)演示,Stable Diffusion模型參數(shù)超過10億,高通利用其AI軟件棧對模型進(jìn)行量化、編譯和硬件加速優(yōu)化,使其成功在搭載第二代驍龍8移動平臺的手機(jī)上運行。

華為新一代P60系列手機(jī)將于5月上線智慧搜圖功能,該功能通過對模型進(jìn)行小型化處理,實現(xiàn)其在端側(cè)輕量化應(yīng)用。

谷歌在2018年推出MLKit,核心功能Learn2Compress模型壓縮技術(shù)結(jié)合網(wǎng)絡(luò)剪枝、量化以及知識蒸餾三項技術(shù),可實現(xiàn)在CIFAR-10圖像分類測試任務(wù)中生成較NASNet尺寸縮小94倍的輕量化模型,且仍保持90%以上精度。

2018年騰訊推出全球首款自動化深度學(xué)習(xí)模型壓縮框架PocketFlow,2022年百度開源的文心ERNIE-Tiny在線蒸餾方案可得到參數(shù)規(guī)模僅為原模型0.02%且效果相當(dāng)?shù)妮p量級模型。

華泰證券分析師黃樂平認(rèn)為,模型壓縮技術(shù)可在保有大模型原有性能和精度基本不變前提下降低對推理算力的需求,是實現(xiàn)AI大模型在邊/端部署的核心技術(shù)。伴隨模型壓縮技術(shù)發(fā)展,AI將加速與終端設(shè)備融合應(yīng)用。



*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉