博客專欄

EEPW首頁 > 博客 > NeurIPS 2022 | 馬里蘭、北大等機(jī)構(gòu)提出量子算法用于采樣對數(shù)凹分布和估計(jì)歸一化常數(shù)

NeurIPS 2022 | 馬里蘭、北大等機(jī)構(gòu)提出量子算法用于采樣對數(shù)凹分布和估計(jì)歸一化常數(shù)

發(fā)布人:機(jī)器之心 時(shí)間:2022-10-17 來源:工程師 發(fā)布文章
本文是 NeurIPS 2022 入選論文《Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants》的解讀。該方法對數(shù)凹采樣(log-concave sampling)在機(jī)器學(xué)習(xí)、物理、統(tǒng)計(jì)等領(lǐng)域有著諸多應(yīng)用。

對數(shù)凹采樣(log-concave sampling)在機(jī)器學(xué)習(xí)、物理、統(tǒng)計(jì)等領(lǐng)域有著諸多應(yīng)用。本文基于朗之萬擴(kuò)散(Langevin diffusion)設(shè)計(jì)了新的量子算法,用于采樣對數(shù)凹分布和估計(jì)歸一化常數(shù),相比最好的經(jīng)典算法對于精度(ε),維度(d),條件數(shù)(κ)等參數(shù)達(dá)到了多項(xiàng)式級加速。


圖片

論文地址:https://arxiv.org/abs/2210.06539


本文作者包括:Andrew M. Childs(馬里蘭大學(xué)),李彤陽(北京大學(xué)),劉錦鵬(加州大學(xué)伯克利分校西蒙斯研究所),王春昊(賓州州立大學(xué))和張睿哲(德州大學(xué)奧斯汀分校)。


問題介紹


從給定的分布函數(shù)采樣是一個基礎(chǔ)的計(jì)算問題。例如,在統(tǒng)計(jì)中,樣本可以確定置信區(qū)間或探索后驗(yàn)分布。在機(jī)器學(xué)習(xí)中,樣本用于回歸和訓(xùn)練監(jiān)督學(xué)習(xí)模型。在優(yōu)化中,來自精心挑選的樣本分布可以產(chǎn)生接近局部甚至全局最優(yōu)的點(diǎn)。本文考慮的問題是對數(shù)凹采樣(log-concave sampling),這個問題涵蓋了許多實(shí)際應(yīng)用例子,例如多元高斯分布和指數(shù)分布。與之相關(guān)的一個問題是估計(jì)對數(shù)凹分布的歸一化常(normalizing constant),這個問題也有許多應(yīng)用,例如配分函數(shù)(partition function)的估計(jì)[2]。更多相關(guān)工作見參考文獻(xiàn)[3, 4, 5, 6]。

問題模型


給定一個凸函數(shù)  ,且  是  smooth 和  convex 的。我們定義條件數(shù) ? 。我們希望從分布函數(shù)  進(jìn)行采樣,這里  是正則化常數(shù)。給定  ,
  1. 對數(shù)凹采樣:輸出一個隨機(jī)變量滿足分布  ,使得  ;
  2. 歸一化常數(shù)估計(jì):輸出一個隨機(jī)變量  ,使得以至少  的概率滿足  。

主要貢獻(xiàn)


我們設(shè)計(jì)了新的量子算法,對于采樣對數(shù)凹分布和估計(jì)正則化常數(shù)兩個問題,對比經(jīng)典算法在復(fù)雜度上實(shí)現(xiàn)了多項(xiàng)式級加速。定理 1(對數(shù)凹采樣)給定一個對數(shù)凹分布  ,存在量子算法輸出一個隨機(jī)變量滿足分布  ,使得:
  •   ,這里  是 Wasserstein 2-范數(shù),對于量子訪問 oracle 的查詢復(fù)雜度為  ;或
  •   ,這里  是全變差距離(total-variation distance),對于量子梯度 oracle 的查詢復(fù)雜度為  ;若初始分布滿足熱啟動條件,則復(fù)雜度為  。

定理 2(歸一化常數(shù)估計(jì))存在量子算法輸出一個隨機(jī)變量  ,使得以至少  的概率滿足  ,
  • 對于量子訪問 oracle 的查詢復(fù)雜度為  ;或
  • 對于量子梯度 oracle 的查詢復(fù)雜度為  ;若有一個熱的初始概率分布(warm start),則復(fù)雜度為  。

另外,這個任務(wù)的量子查詢復(fù)雜度的下界是  。
我們在表1和表2總結(jié)了我們的結(jié)果和先前經(jīng)典算法復(fù)雜度的對比。
圖片圖片

技術(shù)改進(jìn)


我們開發(fā)了一種系統(tǒng)的方法來研究量子游走混合(quantum walk mixing)的復(fù)雜度,并揭示了對于任何可逆的經(jīng)典馬爾可夫鏈,只要初始分布滿足熱啟動條件,我們就可以獲得混合時(shí)間(mixing time)的平方加速。特別地,我們將量子行走和量子退火(quantum annealing)應(yīng)用于朗之萬動力學(xué)并實(shí)現(xiàn)多項(xiàng)式量子加速。下面簡單介紹我們的技術(shù)貢獻(xiàn)。
1. 量子模擬退火(quantum simulated annealing)。我們用于估計(jì)歸一化常數(shù)的量子算法結(jié)合了量子模擬退火框架和量子平均值估計(jì)算法。對于每種類型,根據(jù)朗之萬動力學(xué)(隨機(jī)游走),我們構(gòu)建了相應(yīng)的量子游走。重要的是,隨機(jī)游走的譜間隙在相應(yīng)的量子游走的相位間隙中被“放大”為原先的平方。這讓在給定足夠好的初始狀態(tài)的情形,我們使用類似 Grover 算法的過程來產(chǎn)生穩(wěn)定分布狀態(tài)。在退火框架中,這個初始狀態(tài)就是前一個馬爾可夫鏈的穩(wěn)定分布狀態(tài)。
2. 有效譜間隙(effective spectral gap)。我們展示了如何利用熱啟動的初始分布來實(shí)現(xiàn)量子加速用于采樣。即使譜間隙很小,熱啟動也會導(dǎo)致更快的混合。在量子算法中,我們將“有效譜間隙”的概念推廣到我們更一般的采樣問題。我們表明使用有界熱啟動參數(shù),量子算法可以在混合時(shí)間上實(shí)現(xiàn)平方加速。通過將采樣問題視為只有一個馬爾可夫鏈的模擬退火過程,通過分析有效譜間隙,我們證明了量子算法實(shí)現(xiàn)了平方加速。
3. 量子梯度估計(jì)(quantum gradient estimation)。我們將 Jordan 的量子梯度算法應(yīng)用于我們的量子算法,并給出嚴(yán)格的證明來限制由于梯度估計(jì)誤差引起的采樣誤差。

參考文獻(xiàn)


[1] Andrew M. Childs, Tongyang Li, Jin-Peng Liu, Chunhao Wang, and Ruizhe Zhang, "Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants," to appear in NeurIPS 2022.

[2] Rong Ge, Holden Lee, and Jianfeng Lu, "Estimating normalizing constants for log-concave distributions: Algorithms and lower bounds," STOC 2020.

[3] Xiang Cheng, Niladri S. Chatterji, Peter L. Bartlett, and Michael I. Jordan, "Underdamped langevin mcmc: A non-asymptotic analysis," COLT 2018.

[4] Yin Tat Lee, Ruoqi Shen, and Kevin Tian, "Logsmooth gradient concentration and tighter runtimes for metropolized Hamiltonian Monte Carlo," COLT 2020.

[5] Ruoqi Shen and Yin Tat Lee, "The randomized midpoint method for log-concave sampling," NeurIPS 2019.

[6] Keru Wu, Scott Schmidler, and Yuansi Chen, "Minimax mixing time of the Metropolis-adjusted Langevin algorithm for log-concave sampling," 2021, arXiv:2109.13055.


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉