日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

wps生成正态分布的随机数_量子计算与机器学习: 量子生成对抗网络QGAN

發(fā)布時間:2023/12/2 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 wps生成正态分布的随机数_量子计算与机器学习: 量子生成对抗网络QGAN 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

隨著量子信息和量子計算的快速發(fā)展(經(jīng)費多了),科研工作者們一邊感嘆著量子計算機時代即將擁有的強大計算能力,一邊又在考慮著如何將現(xiàn)有的高效算法和量子計算機相適配。作為最近幾年如此火爆的機器學(xué)習(xí),也就自然而然地加入了量子化大軍。2018年有Lukin的量子卷積神經(jīng)網(wǎng)絡(luò)和Seth Lloyd的量子生成對抗學(xué)習(xí)。這篇文章里將通過量子生成對抗網(wǎng)絡(luò)QGAN來簡介一下量信工作者們對機器學(xué)習(xí)算法的量子化。

Rmk. 本來是寫了個回答的https://www.zhihu.com/question/268419799/answer/338900541,結(jié)果因為是一年之前隨手寫個一個回答現(xiàn)在重新改的,破乎的推薦功能之類的好像用不了,于是發(fā)在文章里了。

量子生成對抗網(wǎng)絡(luò)

發(fā)展

理論上,由2018年僅僅間隔一周時間的兩篇論文提出。Seth Lloyd的PRL[1]更側(cè)重思辨,想了很多情況,文章短小精悍沒什么公式要靠讀者自己腦補,作者也是非一般的牛。PRA[2]側(cè)重于數(shù)值實現(xiàn),公式很多并且寫了怎么用量子電路實現(xiàn)差分梯度下降。實驗上已經(jīng)在2019年被中國科大(妮可)和清華做出來了,見參考文獻[3]。

GAN的原理

生成對抗網(wǎng)絡(luò)作為一種重要的生成模型,通過生成器和判別器之間的博弈來學(xué)習(xí)樣本的統(tǒng)計性質(zhì)。

GAN中的訓(xùn)練樣本假設(shè)服從概率分布

生成器G為一個非線性映射,將噪聲樣本z映射到數(shù)據(jù)樣本x的空間,并力求模仿訓(xùn)練樣本的統(tǒng)計分布。

這里, 是噪聲的先驗分布,如正態(tài)分布, 則是通過非線性映射之后得到的樣本分布,而生成器(非線性映射)想要做的就是使q(x)和p(x)盡可能接近。

那么如何判斷兩個分布是否接近呢?我們請一位裁判,稱為判別器D,我們給他一個樣本,讓他告訴我們這個樣本是來自訓(xùn)練樣本(真實)還是生成樣本。而在裁判進行判決的過程中,我們也可以對他進行訓(xùn)練,讓他判別出錯的概率減小。這樣,在判別器和生成器之間就產(chǎn)生了博弈。在訓(xùn)練過程中,判別器越來越準(zhǔn)確,生成器也只能讓生成的樣本分布和訓(xùn)練樣本的分布更加接近以欺騙判別器。

說到G非線性映射,而D又是一個分類器,那么自然而然的會想到用深度神經(jīng)網(wǎng)絡(luò)來作為二者的參數(shù)表示,這樣一來,就開始了Deep GAN的故事。

量子版本QGAN

受到GAN的啟發(fā),量信工作者們提出了量子版本的QGAN。前面提一遍GAN的原理是為了方便在這里通過對比來介紹QGAN。

首先是訓(xùn)練樣本,也就是我們想要模仿統(tǒng)計信息的樣本,量子力學(xué)里的樣本由態(tài)矢描述(取了相應(yīng)的坐標(biāo)基矢后是波函數(shù)),而這些樣本(態(tài)矢)以一定的概率復(fù)合起來構(gòu)成的整體就是量子系綜,為混合態(tài),由密度算符

刻畫。

接下來是生成器。對于噪聲先驗,我們用另一個系綜

描述,表示我們產(chǎn)生噪聲樣本的方式。而生成器,則用來把從 中抽取的噪聲樣本映射到新的態(tài) ,并且希望以此獲得的統(tǒng)計性質(zhì)和訓(xùn)練樣本相近。于是,生成器生成的樣本的系綜的密度算符為

Rmk.與GAN不同的是,QGAN中的生成器是線性算符,而不是非線性的

對于判別器。上面已經(jīng)提到,GAN中的判別器相當(dāng)于一個二分類器,給定一個樣本,給出其屬于訓(xùn)練樣本還是生成樣本。對應(yīng)于量子力學(xué),這一過程由一測量給出,給定態(tài)矢,測量結(jié)果表明其類別。形式上,可用POVM(正算子值測度)表示,

,其中,T對應(yīng)訓(xùn)練樣本,F對應(yīng)生成樣本。

相應(yīng)于Deep GAN的神經(jīng)網(wǎng)絡(luò)參數(shù)化,Deep QGAN可以通過深層的量子電路(quantum circuit)來實現(xiàn)生成器(線性算符G)和判別器(POVM T或F)的參數(shù)化。

What's new

  • 相對于GAN需要花費極大的計算能力在CPU, GPU上進行訓(xùn)練,QGAN作為量子版本的GAN能夠更加好的適應(yīng)量子計算機
  • QGAN的隨機性是量子力學(xué)內(nèi)稟的,而不是GAN中的隨機數(shù)生成器
  • 理論上的優(yōu)雅,量子力學(xué)的定義表明,密度算符的全體是凸集,而POVM的測量算符也構(gòu)成緊凸集,這些使得QGAN的各種性質(zhì)能夠簡單而優(yōu)雅的給出,相對于GAN的復(fù)雜證明而言
  • Pf.(Convergence)

    訓(xùn)練的目標(biāo)函數(shù)是成功判別的概率,即給出訓(xùn)練樣本時測量分類給出T,給出生成樣本時測量分類為F,由條件期望的平滑性

    QGAN和GAN的訓(xùn)練目標(biāo)則是,讓生成器能盡可能欺騙判別器,形式化為

    先考慮最大化,顯然,當(dāng)T為跡內(nèi)算符的正部分投影時,目標(biāo)函數(shù)最大,

    ,其中, 為 的正值本征矢。

    Rmk.最優(yōu)測量算符的物理意義也很明顯,當(dāng)

    時,樣本產(chǎn)生于

    最優(yōu)化判別器后,損失函數(shù)為

    顯然,最小值對應(yīng)于

    Rmk.可見,迭代訓(xùn)練將收斂到納什均衡

    參考文獻

    [1] https://arxiv.org/abs/1804.09139

    [2] Quantum generative adversarial networks

    [3] https://advances.sciencemag.org/content/5/1/eaav2761

    總結(jié)

    以上是生活随笔為你收集整理的wps生成正态分布的随机数_量子计算与机器学习: 量子生成对抗网络QGAN的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。