博客專欄

EEPW首頁(yè) > 博客 > 營(yíng)收增長(zhǎng)15倍!Cerebras提交IPO申請(qǐng):估值達(dá)41億美元!

營(yíng)收增長(zhǎng)15倍!Cerebras提交IPO申請(qǐng):估值達(dá)41億美元!

發(fā)布人:芯智訊 時(shí)間:2024-12-08 來(lái)源:工程師 發(fā)布文章

10月1日消息,據(jù)路透社報(bào)道,晶圓級(jí)AI芯片公司Cerebras Systems已經(jīng)啟動(dòng)在美國(guó)納斯達(dá)克進(jìn)行首次公開募股(IPO)程序,股票代碼為「CBRS」。花旗集團(tuán)、巴克萊、瑞銀投資、富國(guó)證券(Wells Fargo Securities)和瑞穗銀行(Mizuho)是這次發(fā)行的承銷商。估值已達(dá)41億美元。

image.png

Cerebras Systems的三代AI芯片

資料顯示,Cerebras Systems是位于美國(guó)加州森尼韋爾市(Sunnyvale)的一家AI芯片公司,由公司CEO Andrew Feldman與Jean-Philippe Fricker、Michael James、Gary Lauterbach和Sean Lie等創(chuàng)始人于2016年創(chuàng)立。其中,Andrew Feldman曾創(chuàng)建微型服務(wù)器公司SeaMicro,并以3.34億美元的價(jià)格賣給了AMD。

Cerebras公司認(rèn)為,目前AI面臨的挑戰(zhàn)是如何將多組芯片連接起來(lái),但又能兼顧能耗和處理速度。而Cerebras解決方案是制造一個(gè)巨型芯片,以更快地處理數(shù)據(jù)。Feldman指出,“傳統(tǒng)策略是將一個(gè)大芯片切成小塊,再把有瑕疵的小塊扔掉。生產(chǎn)更大芯片較困難,且可能浪費(fèi)珍貴的硅。公司開發(fā)的系統(tǒng)可讓其芯片抵御瑕疵”。

為此,在2019年8月,Cerebras推出了“世界上最大”的半導(dǎo)體AI芯片Wafer Scale Engine(以下簡(jiǎn)稱“WSE”),其采用了一整張12英寸晶圓來(lái)制作,基于臺(tái)積電16nm工藝,核心面積超過46225mm2,集成了高達(dá)1.2萬(wàn)億個(gè)晶體管,擁有40多萬(wàn)個(gè)AI計(jì)算內(nèi)核,以及高達(dá)18GB的片上SRAM內(nèi)存。這也帶來(lái)了超強(qiáng)的AI算力和超高的內(nèi)存帶寬,可以很好的應(yīng)對(duì)各類AI加速任務(wù)。

隨后在2021年4月,Cerebras推出了第二代的晶圓級(jí)AI芯片WSE-2,雖然芯片面積依然是462.25平方厘米,但是制程工藝由臺(tái)積電16nm工藝提升到了7nm工藝,這也使得WSE-2的晶體管數(shù)量提高到了2.6萬(wàn)億個(gè),AI內(nèi)核數(shù)量為85萬(wàn)個(gè),片上內(nèi)存SRAM為40GB,內(nèi)存帶寬為20PB/s,結(jié)構(gòu)帶寬高達(dá)220PB/s。

當(dāng)時(shí),Cerebras 還宣布,基于WSE-1的Cerebras CS 系列人工智能超級(jí)電腦在過去的一年中,已經(jīng)被包括Argonne 國(guó)家實(shí)驗(yàn)室、Lawrence Livermore 國(guó)家實(shí)驗(yàn)室、匹茲堡超級(jí)計(jì)算機(jī)中心(PSC)、愛丁堡大學(xué)的超級(jí)電腦中心、東京電子設(shè)備公司(Tokyo Electron Devices)、制藥產(chǎn)業(yè)大廠葛蘭素史克(GlaxoSmithKline)等在內(nèi)的知名機(jī)構(gòu)部署。

2024年3月,Cerebras又推出了其第三代的晶圓級(jí)AI芯片WSE-3,基于臺(tái)積電5nm制程,芯片面積為46225平方毫米,擁有的晶體管數(shù)量達(dá)到了4萬(wàn)億個(gè),擁有90萬(wàn)個(gè)AI核心,44GB片上SRAM,整體的內(nèi)存帶寬為21PB/s,結(jié)構(gòu)帶寬高達(dá)214PB/s。使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,性能達(dá)到了上一代WSE-2的兩倍,可用于訓(xùn)練業(yè)內(nèi)一些最大的人工智能模型。

image.png

image.png

盡管性能翻了一番,CS-3仍保持著與前代產(chǎn)品相同的功耗。它還簡(jiǎn)化了大型語(yǔ)言模型(LLM)的訓(xùn)練,與GPU相比,所需代碼減少了97%。例如,該公司表示,GPT-3大小的模型在Cerebras平臺(tái)上只需要565行代碼。

image.png

Cerebras表示,該公司已經(jīng)看到了外界對(duì)CS-3的巨大興趣,并有來(lái)自各個(gè)行業(yè)的大量訂單積壓,包括企業(yè)、政府和公有云廠商。Cerebras還與美國(guó)阿貢國(guó)家實(shí)驗(yàn)室和梅奧診所等機(jī)構(gòu)合作,強(qiáng)調(diào)了CS-3在醫(yī)療保健方面的潛力。

今年上半年?duì)I收增長(zhǎng)15倍,阿聯(lián)酋G42是最大客戶

隨著近年來(lái)生成式人工智能市場(chǎng)爆發(fā),對(duì)于高性能AI芯片的需求持續(xù)爆發(fā)式增長(zhǎng),這也直接推動(dòng)了AI芯片市場(chǎng)龍頭英偉達(dá)營(yíng)收的及股價(jià)的暴漲。

不同于英偉達(dá)所走的能夠靈活適用于各種算法的GPU路線,Cerebras走的是專用芯片(ASIC)路線,雖然靈活性略低,但隨著大模型紛紛集中于Transformer架構(gòu),其單芯片所擁有的強(qiáng)大算力和高帶寬的片上內(nèi)存優(yōu)勢(shì),疊加其易于部署(相對(duì)于同等算力下需要更多英偉達(dá)AI芯片組網(wǎng)的情況)的特性,也使得其在大模型加速芯片市場(chǎng)的競(jìng)爭(zhēng)當(dāng)中擁有了一席之地。

Cerebras公司的目標(biāo)是吸引部分遭壓抑的需求,宣稱與其他選擇相比,Cerebras的大型芯片能夠以更少時(shí)間、使用更少電力解決問題。

當(dāng)被問Cerebras能從業(yè)界龍頭(英偉達(dá))搶走多少市占率時(shí),Feldman直言足以讓他們惱羞成怒

根據(jù)招股書顯示,Cerebras 2022年?duì)I收2462萬(wàn)美元,虧損17772萬(wàn)美元;2023年收入7874 萬(wàn)美元,凈虧損12716萬(wàn)美元;2024 年上半年?duì)I收為1.36億美元,較去年同期的860萬(wàn)美元增加超過15倍。不過,今年前六個(gè)月依然虧損了6,700萬(wàn)美元,比前一年同期7,800萬(wàn)美元略有減少。

目前阿聯(lián)酋的AI廠商G42是Cerebras的最大客戶。Cerebras是自2023年開始G42供應(yīng)基于其AI芯片的超級(jí)電腦。根據(jù)Cerebras招股書,G42占該公司2024年上半年?duì)I收87%,G42也承諾明年4月前將購(gòu)買價(jià)值3.35億美元Cerebras股票,持股比例超過5%。

Cerebras公司目前累計(jì)已經(jīng)籌集到7.4億美元風(fēng)險(xiǎn)投資資金,估值達(dá)41億美元,其中Benchmark、Eclipse Ventures和Foundation Capital是最大支持者。

編輯:芯智訊-浪客劍



*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: 芯片

技術(shù)專區(qū)

關(guān)閉