博客專欄

EEPW首頁 > 博客 > 一場腦機接口的大賽,看到時代需要的「AI超級底座」

一場腦機接口的大賽,看到時代需要的「AI超級底座」

發(fā)布人:機器之心 時間:2023-08-23 來源:工程師 發(fā)布文章
「AI 超級底座」有什么價值?小到一場競賽,大到整個產(chǎn)業(yè)。

從 2022 年開始,大模型就成為了最熱門的技術關鍵詞,這種熱度顯然輻射到了多個相關領域。比如,在近日召開的 2023 世界機器人大會上,「大模型 + 機器人」就成為現(xiàn)場討論最多的話題。這幾天,不管是后空翻的四足機器狗,還是吟詩互動的人形機器人,都給到場的觀眾留下了深刻的印象。如果你也在現(xiàn)場,一定還會關注到這場「熱火朝天」的技術大賽:戴上腦電帽,雙手平放只靠「意念」打字、控制機械臂,甚至指揮無人機,即使是在這場「黑科技」眾多的機器人盛會中也格外吸睛。

圖片


這是「世界機器人大賽 —BCI 腦控機器人大賽」連續(xù)舉辦的第七年。很多人可能不知道,在 2022 年之前,由于賽事系統(tǒng)只能同時支撐十幾支隊伍本地參賽,所以比賽的舉辦規(guī)模一直受到限制。
而從去年開始,比賽報名、賽題發(fā)布、數(shù)據(jù)建模、算法訓練、算法驗證等流程成功上云,使得報名規(guī)模一下子提升了超過 50%。今年,大家的參賽熱情不減:共有 67 所高校的 200 + 支隊伍參與,其中,來自機械科學、人工智能、計算機科學專業(yè)的參賽者數(shù)量最多。
在賽事上云之前,選手們無法在賽場上使用需要 GPU 算力進行深度學習訓練與推理的創(chuàng)新算法。但現(xiàn)在,每一位參賽選手都擁有充足的計算資源在比賽中去驗證自己的技術設想。
這幾百支隊伍的每一次算法更改、調試,背后都是騰訊云在提供算力支持。
支撐一場 200 支隊伍的賽事需要怎樣的云端算力?
腦機接口是通過生物電信號實現(xiàn)直接人機交互的方法,是一門涉及計算機科學、神經(jīng)科學的前沿技術,在醫(yī)療、養(yǎng)老、助殘、康復等領域具備巨大前景和廣闊市場應用基礎。比如,醫(yī)院可通過腦機接口識別情緒后即時提供心理健康建議、殘疾人士可利用腦機接口控制輪椅完成意念打字進行日常交流等。
在這些方向上,也已經(jīng)出現(xiàn)了一些產(chǎn)業(yè)化落地的探索。比如馬斯克成立的 Neuralink 就希望借助這項技術幫助視障和行動不便人士,恢復視力和行動能力。今年 5 月,Neuralink 獲準進行腦機接口人體試驗,意味著腦機接口技術進入了一個新的階段。
不過,目前的腦機接口技術進展距離大規(guī)模產(chǎn)業(yè)化仍有一定距離。很多實驗室都在投入腦機接口項目的研究,但暫時僅用于基礎科研。中國十分注重腦機接口的產(chǎn)業(yè)化發(fā)展,2023 年 5 月底,工信部宣布,將把腦機接口作為培育未來產(chǎn)業(yè)發(fā)展的重要方向,加強腦機接口應用場景探索,加速推動腦機接口產(chǎn)業(yè)發(fā)展。
想要推動這項技術的產(chǎn)業(yè)化落地,除了政策上的重視之外,培養(yǎng)腦機接口人才也是重要的途徑之一。這也是「BCI 腦控機器人大賽技術賽」舉辦的初衷。
今年,大賽以腦機接口實用系統(tǒng)為背景,圍繞 SSVEP、P300、運動想象三個主要范式及腦機接口技術應用方向設置了技術賽及技能賽,希望從準確度、速度、實用性、技術性等多維度提高腦機接口技術在信號識別、醫(yī)療康復、心理健康等各領域的技術與產(chǎn)業(yè)發(fā)展。
經(jīng)過激烈比拼,來自香港大學和澳門大學的港澳聯(lián)隊獲得了本次 BCI 腦控機器人大賽「騰訊云杯」技術賽枕葉腦機賽題、腦機對抗安全賽題等的多項冠軍。

圖片


「比賽中對于算力的需求是動態(tài)的,線上賽階段對算法的時間要求比較寬泛,而線下賽階段需要對數(shù)據(jù)做實時處理,所以我們對高性能算力有很強的需求,有很多深度學習的模型都非常消耗算力?!箶孬@多項賽題冠軍的港澳聯(lián)隊表示。
在賽事中,騰訊云異構計算所提供的公有云服務 ,讓參賽者們感覺「如虎添翼」。騰訊云為比賽提供了強大穩(wěn)定的算力支持,選手能夠使用基于 GPU 算力的深度學習算法對比賽中的大量數(shù)據(jù)進行訓練。
想要探索場景應用,還需要真實的場景數(shù)據(jù)。有賴于騰訊云的加持,2023BCI 腦控機器人大賽中首次引入了真實病人腦電科研數(shù)據(jù),讓參賽者們能夠真正接觸到大量科研級別的數(shù)據(jù)資源。
正在這樣的支持下,很多參賽隊員能夠將更具創(chuàng)意的想法在比賽中嘗試去實現(xiàn),「BCI 腦控機器人大賽技術賽」也從一場十幾支隊伍的小規(guī)模比賽走向了大平臺模式,實現(xiàn)了對接科研與產(chǎn)業(yè)的價值。腦機接口技術的上云,進一步降低了科研與產(chǎn)業(yè)融合的門檻,未來將極大推動在醫(yī)療、養(yǎng)老、助殘、康復等領域的產(chǎn)業(yè)應用。
另外,這一次的官方競賽數(shù)據(jù)將作為我國腦機接口領域重要研究成果全程保留記錄,技術賽的決賽數(shù)據(jù)和有關算法分析文章也將收錄在清華大學的 Brain Science Advances 專刊中,推動腦機接口技術未來通過高性能云服務在醫(yī)療場景甚至日常生活中更快地實現(xiàn)應用轉化。
競賽同期還舉辦了 2023 世界機器人大會腦控機器人挑戰(zhàn)活動,并創(chuàng)造了本年度的腦控打字、腦控無人機賽會紀錄。來自天津大學的選手實現(xiàn)了 10.049bits/min 的鍵盤手控無人機效率,與手控無人機效率相當;來自清華大學的選手在觸屏 - 腦機輸入速度桃戰(zhàn)中獲得了平均 1.43 字符 / 秒的成績,接近現(xiàn)場觀眾手機觸屏打字速度。
大算力時代,需要怎樣的 AI 超級底座?
像這樣為一場兩百支隊伍規(guī)模的機器人比賽提供服務,僅是騰訊云的眾多「微型實踐」之一。
在 IDC 近日發(fā)布的《中國人工智能公有云服務市場份額 2022》報告中,騰訊云憑借其 2022 年在計算機視覺、對話式 AI 等領域的領先優(yōu)勢,營收增速達到 124.6%,成為國內收入增速最快的公有云廠商。
同時,作為擁有產(chǎn)品品類最多的云服務商之一,騰訊云所提供計算服務的客戶目前已遍布全球。與一線客戶群體需求的密切接觸,讓騰訊云更早洞察到云計算服務領域的每一個變化趨勢。
顯然,變化的速度近年來不斷加快:通用大模型時代到來了,AI 正在從 1.0 時代過渡到 2.0 時代。大模型的共同特點是:數(shù)據(jù)量巨大,模型參數(shù)量巨大,所需算力也是巨大的。當 AI 產(chǎn)業(yè)落地大規(guī)模鋪開,這對傳統(tǒng)的云計算基礎設施是不可回避的考驗。

圖片


眾所周知的 AI 三要素中,算力平臺是核心基礎。幾年前,單卡或者單機就能完成模型的訓練,但在今天,大模型的參數(shù)動輒幾十上百億,訓練大模型的算力標配是千卡甚至萬卡,很多人只能感嘆一句「玩不起」。同時,單體服務器提供的算力也很有限,大規(guī)模、分布式的高性能計算集群成為「剛需」。
另一方面,在大模型技術的推動下,數(shù)據(jù)量呈爆炸式增長,然而很多數(shù)據(jù)都是非結構化的,想要高效率、低成本地處理數(shù)據(jù),面臨著很多困難。
曾經(jīng)的云計算,重視的是單機單卡的性能、標量數(shù)據(jù)的結構化精準檢索以及云原生帶來的自動調度。今后,關注點已經(jīng)轉移到了集群性能的提升、向量數(shù)據(jù)的存儲與檢索以及自動容錯能力。
在這樣的需求下,云基礎設施底座的設計范式必須隨之進化。
全球的科技公司都在加碼布局新一代的算力基礎設施,騰訊云的技術底座也在不斷升級和變革。大模型時代,數(shù)據(jù)、網(wǎng)絡、算力構成了底層基礎設施的三要素,而 HCC 高性能計算集群、星脈高性能計算網(wǎng)絡以及向量數(shù)據(jù)庫,就組成了騰訊云的「AI 超級底座」。
首先就是打造云上算力集群的問題。今年 4 月,騰訊云正式推出了高性能計算集群產(chǎn)品 HCC。該集群采用騰訊云星星海自研服務器,搭載最新代次 GPU,服務器之間采用 3.2T 互聯(lián)帶寬,通過對單機算力、網(wǎng)絡架構和存儲性能進行協(xié)同優(yōu)化,提供高性能、高帶寬和低延遲的集群算力。
在非稀疏規(guī)格條件下,新一代集群單 GPU 卡支持輸出最高 495 TFlops(TF32)、989 TFlops (FP16/BF16)、1979 TFlops(FP8)的算力。

圖片


實測顯示,騰訊云新一代集群的算力性能較前代提升高達 3 倍。去年 10 月,騰訊完成了萬億參數(shù)混元 NLP 大模型的訓練,在同等數(shù)據(jù)集下,上一代騰訊云 HCC 集群將訓練時間由 50 天縮短到了 11 天。如果是在基于新一代集群的情況下,訓練時間將進一步縮短至 4 天。

圖片


隨著集群規(guī)模擴大,通信性能會直接影響訓練效率。特別是參數(shù)達到千億、萬億級別的 AI 大模型,需要大帶寬、高利用率、無損的網(wǎng)絡來幫助其高效地完成訓練任務。
騰訊自研的星脈高性能計算網(wǎng)絡利用自研交換機構建了超大規(guī)模網(wǎng)絡架構,具備業(yè)界最高的 3.2T 通信帶寬,能提升 40% 的 GPU 利用率,節(jié)省 30%~60% 的模型訓練成本,為 AI 大模型帶來 10 倍通信性能提升?;隍v訊云新一代算力集群 HCC,可支持 10 萬卡的超大計算規(guī)模。
實測結果顯示,搭載同樣的 GPU,最新的 3.2T 星脈網(wǎng)絡相較 1.6T 網(wǎng)絡,能讓集群整體算力提升 20%。

圖片


此外,今年 7 月,騰訊云推出了向量數(shù)據(jù)庫 ( Tencent Cloud VectorDB),這是國內首個從接入層、計算層、到存儲層提供全生命周期 AI 化的向量數(shù)據(jù)庫。
隨著人工智能技術的快速發(fā)展,傳統(tǒng)的關系型數(shù)據(jù)庫在處理向量數(shù)據(jù)時存在一些瓶頸,而向量數(shù)據(jù)庫則能夠更好地滿足這些應用的需求。騰訊云向量數(shù)據(jù)庫具備強大的性能和規(guī)模優(yōu)勢:不僅支持高達 10 億級的向量檢索規(guī)模,并將延遲控制在毫秒級,相比傳統(tǒng)的單機插件式數(shù)據(jù)庫檢索規(guī)模提升了 10 倍。同時,騰訊云向量數(shù)據(jù)庫還具備百萬級每秒查詢(QPS)的峰值能力。經(jīng)過騰訊內部海量場景的實踐,數(shù)據(jù)接入 AI 的效率也比傳統(tǒng)方案提升 10 倍,運行穩(wěn)定性高達 99.99%。
從前沿科技到真正的生產(chǎn)力
很多科技廠商都選擇從 MaaS(Model-as-a-Service)模式切入大模型之戰(zhàn),這也是騰訊云選擇的道路。在「AI 超級底座」之上,騰訊云搭建了行業(yè)大模型 MaaS 服務,包括金融、政府、文旅、傳媒、教育等?;谶@些基礎模型,騰訊云的客戶只要加入自己的場景數(shù)據(jù),就可以生成契合自身業(yè)務需要的專屬模型。
與其造出自己的大模型,對于很多廠商來說,不如構建一套自上而下的大模型生態(tài)工具,助力行業(yè)用戶釋放大模型的生產(chǎn)力,加速產(chǎn)業(yè)落地。MaaS 可以幫助更多中小客戶更輕松地接入大模型,并在此基礎上發(fā)揮自身長處,從實際需求出發(fā)高效利用大模型能力。
正如這場比賽,腦機接口是一門關于計算機科學、神經(jīng)科學的前沿技術,研究成果很容易被限于實驗室之內,但在上云之后,一些創(chuàng)意和靈感就能真正轉化為大規(guī)模的醫(yī)療、養(yǎng)老、助殘、康復等領域的產(chǎn)業(yè)應用。
騰訊云的「AI 超級底座」所提供的大模型高性能計算集群、計算網(wǎng)絡以及向量數(shù)據(jù)庫,都是技術轉化為生產(chǎn)力的基礎。
或許在不久的將來,我們就能在騰訊云的服務中看到來自這場比賽的算法成果。腦機接口走進普通人生活,還會遠嗎?


*博客內容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: AI

相關推薦

技術專區(qū)

關閉