新聞中心

EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > NVIDIA助力谷歌量子AI通過量子器件物理學(xué)模擬加快處理器設(shè)計(jì)

NVIDIA助力谷歌量子AI通過量子器件物理學(xué)模擬加快處理器設(shè)計(jì)

—— NVIDIA CUDA-Q平臺(tái)使谷歌量子AI研究人員能夠?yàn)槠淞孔佑?jì)算機(jī)創(chuàng)建大規(guī)模的數(shù)字模型,以解決設(shè)計(jì)中面臨的各種挑戰(zhàn)
作者: 時(shí)間:2024-11-19 來源:EEPW 收藏


本文引用地址:http://butianyuan.cn/article/202411/464743.htm

1732017257272372.jpg

NVIDIA 于今日宣布正在與谷歌量子 AI 合作,使用 NVIDIA CUDA-Q? 平臺(tái)進(jìn)行模擬,加快下一代量子計(jì)算器件的設(shè)計(jì)工作。

谷歌量子 AI 正在使用量子-經(jīng)典混合計(jì)算平臺(tái)和 NVIDIA Eos 超級(jí)計(jì)算機(jī),來模擬其量子處理器的物理特性。這將有助于克服量子計(jì)算硬件當(dāng)前的一些局限,即量子計(jì)算硬件只能運(yùn)行一定數(shù)量的量子運(yùn)算,然后由于存在研究人員稱之為“噪聲”的現(xiàn)象就必須終止計(jì)算。

谷歌量子 AI 的研究科學(xué)家 Guifre Vidal 表示:“要想開發(fā)出商用的量子計(jì)算機(jī),就必須能夠在控制噪聲的情況下擴(kuò)展量子硬件規(guī)模。借助 NVIDIA 加速計(jì)算,我們正在探索越來越大的量子芯片設(shè)計(jì)中噪聲的影響?!?/p>

理解量子硬件設(shè)計(jì)中的噪聲需要進(jìn)行復(fù)雜的動(dòng)態(tài)模擬,以便充分了解量子處理器內(nèi)的量子比特是如何與周圍環(huán)境相互作用的。

過去,這些模擬的計(jì)算成本高得令人望而卻步。借助 CUDA-Q 平臺(tái),谷歌可以在 NVIDIA Eos 超級(jí)計(jì)算機(jī)上使用 1024 個(gè) NVIDIA Hopper Tensor Core GPU,以極低的成本進(jìn)行世界上最大、最快的量子器件動(dòng)態(tài)模擬。

NVIDIA 量子和高性能計(jì)算總監(jiān) Tim Costa 表示:“強(qiáng)大的 AI 超級(jí)計(jì)算有助于量子計(jì)算取得成功。谷歌對(duì) CUDA-Q 平臺(tái)的使用展現(xiàn)了GPU 加速的模擬在推進(jìn)量子計(jì)算方面發(fā)揮了核心作用,它將幫助解決現(xiàn)實(shí)世界中的許多問題。”

借助 CUDA-Q 和 Hopper GPU,谷歌可以對(duì)包含 40 個(gè)量子比特的器件進(jìn)行逼真的全面模擬,這是同類模擬中規(guī)模最大的。通過 CUDA-Q 提供的模擬技術(shù),原本需要一周時(shí)間完成的噪聲模擬現(xiàn)在只需要幾分鐘就能完成。

驅(qū)動(dòng)這些加速動(dòng)態(tài)模擬的軟件將公開發(fā)布在 CUDA-Q 平臺(tái)上,使量子硬件工程師能夠快速地?cái)U(kuò)展他們的系統(tǒng)設(shè)計(jì)。



關(guān)鍵詞:

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉