Submit Search
Upload
Nielsen chuang-5-1
•
1 like
•
1,202 views
G
GM3D
Follow
Nielsen-Chuang, Quantum Computation and Quantum Information 5.1 Quantum Fourier Transform
Read less
Read more
Science
Report
Share
Report
Share
1 of 29
Download now
Download to read offline
Recommended
Nielsen chuang-5.3.1
Nielsen chuang-5.3.1
GM3D
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
Ikeph7 2014-1015
Ikeph7 2014-1015
GM3D
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
ラビットチャレンジ Day3 day4レポート
ラビットチャレンジ Day3 day4レポート
KazuyukiMasada
深層学習②
深層学習②
ssuser60e2a31
딥러닝의 기본
딥러닝의 기본
deepseaswjh
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
Recommended
Nielsen chuang-5.3.1
Nielsen chuang-5.3.1
GM3D
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
Ikeph7 2014-1015
Ikeph7 2014-1015
GM3D
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
ラビットチャレンジ Day3 day4レポート
ラビットチャレンジ Day3 day4レポート
KazuyukiMasada
深層学習②
深層学習②
ssuser60e2a31
딥러닝의 기본
딥러닝의 기본
deepseaswjh
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
T T
Prml nn
Prml nn
Shota Yasui
What is the point of Boson sampling?
What is the point of Boson sampling?
University of Glasgow Optical Sciences Seminar
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
Maho Nakata
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm
ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3
HiroyukiTerada4
[PR12] PixelRNN- Jaejun Yoo
[PR12] PixelRNN- Jaejun Yoo
JaeJun Yoo
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247
Tomoki Hayashi
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Akinori Abe
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요
Byoung-Hee Kim
機械学習を用いたfNIRSの解析手法の提案
機械学習を用いたfNIRSの解析手法の提案
Reiji Ohkuma
SapporoR#6 初心者セッションスライド
SapporoR#6 初心者セッションスライド
Hiroshi Shimizu
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
智文 中野
量子プログラミング入門
量子プログラミング入門
Katsuya Ito
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
Takeshi Sakaki
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
RとPythonを比較する
RとPythonを比較する
Joe Suzuki
Nielsen chuang-6-3
Nielsen chuang-6-3
GM3D
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
GM3D
More Related Content
What's hot
PRML 6.4-6.5
PRML 6.4-6.5
正志 坪坂
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
T T
Prml nn
Prml nn
Shota Yasui
What is the point of Boson sampling?
What is the point of Boson sampling?
University of Glasgow Optical Sciences Seminar
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
Maho Nakata
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm
ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3
HiroyukiTerada4
[PR12] PixelRNN- Jaejun Yoo
[PR12] PixelRNN- Jaejun Yoo
JaeJun Yoo
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247
Tomoki Hayashi
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Akinori Abe
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요
Byoung-Hee Kim
機械学習を用いたfNIRSの解析手法の提案
機械学習を用いたfNIRSの解析手法の提案
Reiji Ohkuma
SapporoR#6 初心者セッションスライド
SapporoR#6 初心者セッションスライド
Hiroshi Shimizu
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
智文 中野
量子プログラミング入門
量子プログラミング入門
Katsuya Ito
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
Takeshi Sakaki
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
Takuma Yagi
RとPythonを比較する
RとPythonを比較する
Joe Suzuki
What's hot
(20)
PRML 6.4-6.5
PRML 6.4-6.5
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
Prml nn
Prml nn
What is the point of Boson sampling?
What is the point of Boson sampling?
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
20180723 量子コンピュータの量子化学への応用; Bravyi-Kitaev基底の実装
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3
[PR12] PixelRNN- Jaejun Yoo
[PR12] PixelRNN- Jaejun Yoo
PRML 5章 PP.227-PP.247
PRML 5章 PP.227-PP.247
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요
機械学習を用いたfNIRSの解析手法の提案
機械学習を用いたfNIRSの解析手法の提案
SapporoR#6 初心者セッションスライド
SapporoR#6 初心者セッションスライド
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
量子プログラミング入門
量子プログラミング入門
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RとPythonを比較する
RとPythonを比較する
More from GM3D
Nielsen chuang-6-3
Nielsen chuang-6-3
GM3D
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
GM3D
Ikeph13 20150121
Ikeph13 20150121
GM3D
Ikeph11 20141210
Ikeph11 20141210
GM3D
Ikeph9 2014-1112
Ikeph9 2014-1112
GM3D
Legendre変換の練習問題
Legendre変換の練習問題
GM3D
Ikeph8 2014-1029
Ikeph8 2014-1029
GM3D
Nielsen chuang-4 3-2
Nielsen chuang-4 3-2
GM3D
Ikeph7 2014-1015-pdf
Ikeph7 2014-1015-pdf
GM3D
Ikeph 2-20140730
Ikeph 2-20140730
GM3D
Ikeph 1-appendix2(pdf)
Ikeph 1-appendix2(pdf)
GM3D
Ikeph 1-appendix2
Ikeph 1-appendix2
GM3D
Ikeph 1-appendix
Ikeph 1-appendix
GM3D
ex. 3.9 - ex. 3.14
ex. 3.9 - ex. 3.14
GM3D
Ikeph 1-20140716
Ikeph 1-20140716
GM3D
池袋物理学勉強会第一回の予習に関して
池袋物理学勉強会第一回の予習に関して
GM3D
More from GM3D
(16)
Nielsen chuang-6-3
Nielsen chuang-6-3
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
池袋数学勉強会 対馬龍司 線形代数学講義 3章章末問題解説
Ikeph13 20150121
Ikeph13 20150121
Ikeph11 20141210
Ikeph11 20141210
Ikeph9 2014-1112
Ikeph9 2014-1112
Legendre変換の練習問題
Legendre変換の練習問題
Ikeph8 2014-1029
Ikeph8 2014-1029
Nielsen chuang-4 3-2
Nielsen chuang-4 3-2
Ikeph7 2014-1015-pdf
Ikeph7 2014-1015-pdf
Ikeph 2-20140730
Ikeph 2-20140730
Ikeph 1-appendix2(pdf)
Ikeph 1-appendix2(pdf)
Ikeph 1-appendix2
Ikeph 1-appendix2
Ikeph 1-appendix
Ikeph 1-appendix
ex. 3.9 - ex. 3.14
ex. 3.9 - ex. 3.14
Ikeph 1-20140716
Ikeph 1-20140716
池袋物理学勉強会第一回の予習に関して
池袋物理学勉強会第一回の予習に関して
Nielsen chuang-5-1
1.
量子情報勉強会|17>前半 Nielsen-Chuang 5.1 Quantum Fourier
Transform @gm3d2 Mar. 21, 2015 池袋バイナリ勉強会会場
2.
線形代数での基底の変換 ● あるN次元ベクトル空間Vの要素vを考える ● vはVの基底 の線形結合 これを であるような 別の基底
で表す
3.
なぜこのようなことを考えるか ● 数学的にはどの基底も同等 ● 実用的には基底の選び方によって問題の難易度が 大きく変わる ● 元のベクトルvが、ある特定の基底で分かりやす い性質を持っているケースが(頻繁に)ある – 特定の何個かの成分だけが大きくなる – 考えたい演算が対角化可能 …など
4.
別のとらえ方 ● 上の式では、一つのvを二つの方法で表しただ けで、v自体は変わらない ● を で置き換えて、 自体を に変えてしま うと考える場合もある(今回はこのケース)
5.
(連続)Fourier変換 ● 対象となる空間は(実または複素)関数空間 – 周期境界条件 ● によりベクトル空間 とみなせる – 実関数: –
複素関数: を基底として与えられた関数を線型結合で表す – 正規直交基底であることがわかる
6.
(連続)Fourier変換(2) ● 次の内積を定義 cos、expも同様
7.
離散Fourier変換 ● 長さNの数列vを考える ● 加法とスカラー倍ができる→ベクトル空間 ● 数列 を考える はVの基底
8.
離散Fourier変換(2) ● 二つのベクトル と の間に で内積を定義する →
は正規直交基底
9.
離散Fourier変換(3) ● の代わりに次の基底 を用いる
10.
離散Fourier変換(4) ● も正規直交基底である
11.
量子Fourier変換 ● として量子計算の計算基底 を用いる ● すると ● 以降、 を
で置き換えることを量子Fourier 変換 (QFT)と呼ぶ
12.
Exercise 5.1 ● 複素ベクトル空間の正規直交基底から正規直交 基底への変換はユニタリ ● 「元の基底」 の成分 ● 前のページで計算した通り
13.
Exercise 5.2 ●
14.
記法の約束 ● n-qubitシステム: N =
2^n : 計算基底 jの2進表示 jの(一部の)小数表示
15.
QFTの積表示 ● 次のように書ける ● 元の形で計算するより計算量が削減できる (古典FTでも、量子回路でも) →Fast Fourier Transform
(FFT、QFFT)
16.
QFTの積表示 証明(1) kを2進表示 位相因子を桁毎にばらして 各qubitに分配 計算基底をテンソル積に分解
17.
QFTの積表示 証明(2) 前項から ここで因数分解 kl =
0と1を明示的に
18.
QFTの量子回路による実現 この形を利用 |0>は素通し、|1>に位相因子をかける
19.
QFTの量子回路による実現(2) H R2 Rn-1
Rn H Rn-2 Rn-1 H R2 H
20.
|j1>の受ける変換 H R2 Rn-1
Rn ● H: ● R2 controlled by j2: ● R3 controlled by j3 and so on
21.
|j1>...|jn>の受ける変換 トータルで ほしい形と逆順
22.
スワップゲート |α> |β> |α> |β> = これを図の後段に入れる
23.
必要なゲートの数 O(n^2)のアルゴリズム
24.
(古典)FFTとの比較 ● 行いたい操作、利用する式は同じ ● パーツとして利用する基本演算が違う – QFT→量子ゲート回路 – FFT→四則演算
25.
ex. 5.3 (古典)FTの計算量 ● 素朴な実現 ● サイズ2^n
x 2^n の行列の積: O((2^n)^2) = O(2^(2n))
26.
ex. 5.3 (古典)FFTの計算量 ● 積表示を利用 ● 一つの|j>に対し演算はO(n) ● |j>の総数が2^n ● 全体の演算量はO(n*2^n)
27.
exercise 5.4 C-Rkゲート ● C-Rkゲートを1-qubit演算とCNOTで表す ● 4章のControlledゲートの一般論を適用 ● 図4.6において、
28.
exercise 5.5 逆QFT回路 ● 図5.1を左右を逆転し、各ゲートもすべて逆演 算ゲートで置き換えればよい ● スワップゲートとHはそれ自身が逆演算と一致 ● C-Rkも問題5.4の構成で左右を反転し、Rz(θ) をRz(-θ)、αを-αで置き換えればよい
29.
exercise 5.6 近似QFT ● QFT回路で最も精度が要求される部分 ● |j1>の誤差:(n-1)*Δ,
|j2>の誤差: (n-2)*Δ …全体の累積誤差 = Δ*n(n-1)/2 = O(n^2/p(n)) ΔをO(1/n^2)程度以下に維持できれば全体の誤 差を一定に保つことができる (4.63)
Download now