SlideShare a Scribd company logo
RNN camp #2
浅川伸一 Shin Asakawa <asakawa@ieee.org>
謝辞
KUNO 佐藤傑様
C8 lab 新村拓也様
Google 佐藤一憲様
本日のメニュー
● 前回の復習(BPTT)
● LSTM
● GRU
● BiRNN
● 黒魔法解題
● まとめと次回の展望
ご注意
● TensorFlow 0.10 から RNN パッケージは
tf.models.rnn から tf.nn に移動しまし
た。tf.nn.rnn_cell 以下にあるファイルを
使ってください。
● TensorFlow 0.10 moved the recurrent network operations from
tf.models.rnn into the tf.nn package where they live along
the other neural network operations now. Cells can now be found in
tf.nn.rnn_cell.
参考資料
– 「リカレントニューラルネットワーク」
– 「リカレントニューラルネットワークによる文法学
習」
– 人工知能事典,共立出版(印刷中)
(やや古い)リンク集
● Olah さんのブログ,2015年の一時期ほぼ世界中の人が彼女のブログで紹介されている RNN の
仕組みを話題にしていた。http://colah.github.io/posts/2015-08-Understanding-LSTMs/
● WildML の Python/Theano チュートリアルも定評がある。http://www.wildml.com/2015/09/recurrent-
neural-networks-tutorial-part-1-introduction-to-rnns/
● Cho さんは Nividia の記事として投稿。GRU の発案者だし,NLP,NMT の第一人者なので説得力
がある。 https://devblogs.nvidia.com/parallelforall/introduction-neural-machine-translation-with-gpus/
● Danijar Hafner さんは TensorFlow に特化したチュートリアル https://danijar.com/introduction-to-
recurrent-networks-in-tensorflow/
● JiwonKim さんと MyungsubChoi さんが管理している GitHub 上の awesomeRNN
https://github.com/kjw0612/awesome-rnn本当に awesome!
● Karpathy のブログ
単純再帰型ニューラルネットワークSRN
Mikolov (2010) Fig. 1
単純再帰型ニューラルネットワークSRN
Booden (2001) Fig. 5
● 畳み込み演算とプーリング処理によって性能が向上
LeNet5,
LeCun
(1998)
畳み込み演算の定義
Wikipedia より
ところが実際には画素
単位の演算なので積分
ではなく総和
● 畳み込み演算とプーリング処理によって性能が向上
LeNet5,
LeCun
(1998)
畳み込み演算の定義
Wikipedia より
ところが実際には画素
単位の演算なので積分
ではなく総和
一方RNNの中間層の状
態は
● 畳み込み演算とプーリング処理によって性能が向上
LeNet5,
LeCun
(1998)
畳み込み演算の定義
c
Wikipedia より
ところが実際には画素
単位の演算なので積分
ではなく総和
一方RNNの中間層の状
態は
似てるし...
表記と基本グラフ
h
y
x
y: 出力層ニューロン
h: 中間層ニューロン
x: 入力層ニューロン
h
y
x
再帰結合(recurrent connections)
h
y
x
Wx
Wy
Wh
Wy:結合係数行列(中間から出力)
Wh:結合係数行列(再帰結合)
Wx:結合係数行列(入力から中間)
h
y
x
Wx+bx
Wy+by
Wh+bh
by:バイアス(中間から出力)
bh:バイアス(再帰結合)
bx:バイアス(入力から中間)
Bias terms will be omitted, henceforth
以降バイアス項は省略
h0
y0
x0
h1
y1
x1
Digits subscripted indicate time
t:= 0...
下付き添字は時刻を表す。
カッコで表記する流儀もある
(e.g. x(t))
脱線
離散時間(discrete time)かつ同期更新(synchronous updating)のみを考える
https://deepmind.com/blog#decoupled-neural-interfaces-using-synthetic-gradients
Sorry, but we won’t care about
Decoupled neural interfaces
Decoupled Neural Interfaces using Synthetic Gradients (arXiv:1608.05343v1
[cs.LG])
なぜ脱線?
デカルトの劇場 Cartesian Theater
デカルトの劇場 wikipedia より
Consciousness Explained,
D. Dennet(1991)
「解明される意識」
(1997) デネット著,
山口(訳)
ホムンクルス
問題の本質
的解決
脱線おわり
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
https://github.com/ShinAsakawa/rnncamp2
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
teacher
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
完全(Full) BPTT
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
切断(trancated) BPTT(window width=5)
ht+0
yt+0
xt+0
h1
y1
x1
ht+1
yt+1
xt+1
ht+2
yt+2
xt+2
ht+3
yt+3
xt+3
h4
y4
x4
ht+4
yt+4
xt+4
ht+5
yt+5
xt+5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
改良可能?
Can we improve?
ゲートの導入 introducing gates to control hidden state
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
ゲートの導入 introducing gates to control hidden state
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
でも,
なぜゲート?
Why gates?
忘却ゲートの導入
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
Who can control
gates?
誰がどうやって
ゲート制御?
忘却ゲートの導入
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
Who can control
gates?
誰がどうやって
ゲート制御?
Who can tell me
how can I
control myself?
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
It’s me
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
Me, too
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
2. yt
I can, too
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
2. yt
3. xt+1
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
ゲート制御
1. ht
2. yt
3. xt+1
ht+1 = ht s(x)
● s(x) = (1+e-x
)-1
● x = Wf (yt + ht + xt+1)
ゲートによって長距離依存LTDを解消可能
もっと改良可能?
Can we improve more?
入力ゲートの導入
ht
yt
xt
ht+1
yt+1
xt+1
gate
gate
ht+1 = ht s(w(ht + xt+1))
● s(x) = (1+e-x
)-1
● x = yt + ht + xt+1
もっともっと可能?
You need more?
出力ゲートの導入
ht
yt
xt
ht+1
yt+1
xt+1
gate
gate
gate
ht+1 = ht s(w(ht + xt+1 + yt+1))
● s(x) = (1+e-x
)-1
● x = yt + ht + xt+1
LSTM
+
+
+
+
忘却ゲート
入力ゲート
ブロックへの入力
セル+
出力ゲート
ピープホール
ブロックからの出力
g
h
入力 再帰入力
入力
再帰入力
入力
再帰入力
入力
再帰入力
出力
再帰入力へ
1.0
g
c
i
f
y o
● 入力ゲート i= s ( )
● 忘却ゲート f= s ( )
● 出力ゲート o= s ( )
● 入力全体 g = f ( )
● セル c = f @ c + i @ g
● 出力 y=o@ f ( )
https://github.com/ShinAsakawa/rnncamp2
LSTM
+
+
+
+
忘却ゲート
入力ゲート
ブロックへの入力
セル+
出力ゲート
ピープホール
ブロックからの出力
g
h
入力 再帰入力
入力
再帰入力
入力
再帰入力
入力
再帰入力
出力
再帰入力へ
1.0
g
c
i
f
y o
LSTMの生理学的対応物
http://kybele.psych.cornell.edu/~edelman/Psych-2140/week-2-2.html
How does LSTM work?
1. LSTM replaces logistic or tanh hidden units with “memory cells” that
can store an analog value.
2. Each memory cell has its own input and output gates that control.
3. There is a forget gate which the analog value stored in the memory cell
decays.
4. For periods when the input and output gates are off and the forget gate is
not causing decay, a memory cell simply holds its value over time.
Le, Jaitly, & Hinton (2015)
別モデル GRU(An alternative of the LSTM)
h~h
x
y
r: reset
gate
input
output
uupdate
gate
ut
= s (Wu
+ uu
)
ht
= f (Wh
+ uh
(ut
@ )
rt
= s (Wr
+ ur
ht-1
)
tilde(h) = (1- rt
) ht
+ rt
tilde(ht-1
)
yt
= Wy
tilde(ht
)
別モデル GRU(An alternative of the LSTM)
h~h
x
y
r: reset
gate
input
output
uupdate
gate
ut = σ (Wuxt + Uuht−1) .
ht = ϕ(Wxt + Uh (ut ⊙ht−1)) ,
rt = σ (Wrxt + Urht−1) ,
˜ht = (1 − rt) ht + rt
˜ht−1,
yt = Wy
˜ht
双方向RNN (Bidirectional RNN)
前行
ステート
逆行
ステート
yt-1
xt-1
yt
xt
yt+1
xt+1
グレーブス (Graves, 2013)の生成 LSTM
出力
中
間
層
入力
深層 LSTM (Depth Gated LSTM)
ht− 1
( a ) 直 前 ( b ) 生 成 ( c ) 再 帰 ( d ) 推 論 ( e ) 全関与
ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
図 4.31 種々の LSTM 変種
Pascanu (2014) より
y( t )
h( t )h( t − 1)
x ( t )
y( t )
h( t )h( t − 1)
x ( t )
y( t )
h( t )h( t − 1)
x ( t )
( a ) ( b ) ( c )
y( t )
h( t )h( t − 1)
x ( t )
y( t )
h( t − 1)
x ( t ) z( t )
z( t )h( t )
( d ) ( e )
図 4.27 パスカヌらの文献 108) の図 2 を改変
Pascanu (2014) より
するセルどうしをつないで 2 次元格子状,3 次元格子状に配列することを提案
している。
図 4.33 はコウトニック(J.Koutonik)の時計状 LSTM である116)
。
I * xi
m
h
m ′1h′1
m ′2
h′2
m 1h1
m 2
h2
m ′
h′
h′
2 次元格子状 LSTM
ブロック
標準の LSTM
ブロック
1 次元格子状 LSTM
ブロック
3 次元格子状 LSTM
ブロック
図 4.32 格 子 状 LSTM
出力層
Pascanu (2014) より
出力層
入力層
隠れ層
T1 T2 Tg
図 4.33 時 計 状 LSTM

More Related Content

What's hot

【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
【Unity道場スペシャル 2017大阪】クォータニオン完全マスター【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
Unity Technologies Japan K.K.
 
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)MITSUNARI Shigeo
 
optimal Ate pairing
optimal Ate pairingoptimal Ate pairing
optimal Ate pairing
MITSUNARI Shigeo
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
Kenta Ishii
 
【Unity道場スペシャル 2017博多】クォータニオン完全マスター
【Unity道場スペシャル 2017博多】クォータニオン完全マスター【Unity道場スペシャル 2017博多】クォータニオン完全マスター
【Unity道場スペシャル 2017博多】クォータニオン完全マスター
Unity Technologies Japan K.K.
 
スコアサーバーに起きた脆弱性で学ぶWebセキュリティ
スコアサーバーに起きた脆弱性で学ぶWebセキュリティスコアサーバーに起きた脆弱性で学ぶWebセキュリティ
スコアサーバーに起きた脆弱性で学ぶWebセキュリティ
nomuken
 
Wavelet matrix implementation
Wavelet matrix implementationWavelet matrix implementation
Wavelet matrix implementationMITSUNARI Shigeo
 
From IA-32 to avx-512
From IA-32 to avx-512From IA-32 to avx-512
From IA-32 to avx-512
MITSUNARI Shigeo
 
LUT-Network Revision2
LUT-Network Revision2LUT-Network Revision2
LUT-Network Revision2
ryuz88
 
楽しいクォータニオンの世界 田所 第二回Rogyゼミ
楽しいクォータニオンの世界 田所 第二回Rogyゼミ楽しいクォータニオンの世界 田所 第二回Rogyゼミ
楽しいクォータニオンの世界 田所 第二回Rogyゼミ
rogy01
 
emcjp Item 42
emcjp Item 42emcjp Item 42
emcjp Item 42
MITSUNARI Shigeo
 
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks
 
SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話
LINE Corporation
 
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
ryuz88
 
8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング
Takeshi Takaishi
 
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
MITSUNARI Shigeo
 
【Unite Tokyo 2018】誘導ミサイル完全マスター
【Unite Tokyo 2018】誘導ミサイル完全マスター【Unite Tokyo 2018】誘導ミサイル完全マスター
【Unite Tokyo 2018】誘導ミサイル完全マスター
Unity Technologies Japan K.K.
 

What's hot (20)

Prosym2012
Prosym2012Prosym2012
Prosym2012
 
【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
【Unity道場スペシャル 2017大阪】クォータニオン完全マスター【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
【Unity道場スペシャル 2017大阪】クォータニオン完全マスター
 
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)
Xeon PhiとN体計算コーディング x86/x64最適化勉強会6(@k_nitadoriさんの代理アップ)
 
optimal Ate pairing
optimal Ate pairingoptimal Ate pairing
optimal Ate pairing
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
 
Rの高速化
Rの高速化Rの高速化
Rの高速化
 
【Unity道場スペシャル 2017博多】クォータニオン完全マスター
【Unity道場スペシャル 2017博多】クォータニオン完全マスター【Unity道場スペシャル 2017博多】クォータニオン完全マスター
【Unity道場スペシャル 2017博多】クォータニオン完全マスター
 
スコアサーバーに起きた脆弱性で学ぶWebセキュリティ
スコアサーバーに起きた脆弱性で学ぶWebセキュリティスコアサーバーに起きた脆弱性で学ぶWebセキュリティ
スコアサーバーに起きた脆弱性で学ぶWebセキュリティ
 
Wavelet matrix implementation
Wavelet matrix implementationWavelet matrix implementation
Wavelet matrix implementation
 
From IA-32 to avx-512
From IA-32 to avx-512From IA-32 to avx-512
From IA-32 to avx-512
 
LUT-Network Revision2
LUT-Network Revision2LUT-Network Revision2
LUT-Network Revision2
 
フラグを愛でる
フラグを愛でるフラグを愛でる
フラグを愛でる
 
楽しいクォータニオンの世界 田所 第二回Rogyゼミ
楽しいクォータニオンの世界 田所 第二回Rogyゼミ楽しいクォータニオンの世界 田所 第二回Rogyゼミ
楽しいクォータニオンの世界 田所 第二回Rogyゼミ
 
emcjp Item 42
emcjp Item 42emcjp Item 42
emcjp Item 42
 
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
 
SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話SpectreとMeltdown:最近のCPUの深い話
SpectreとMeltdown:最近のCPUの深い話
 
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
LUT-Network ~Edge環境でリアルタイムAIの可能性を探る~
 
8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング8 並列計算に向けた pcセッティング
8 並列計算に向けた pcセッティング
 
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl汎用性と高速性を目指したペアリング暗号ライブラリ mcl
汎用性と高速性を目指したペアリング暗号ライブラリ mcl
 
【Unite Tokyo 2018】誘導ミサイル完全マスター
【Unite Tokyo 2018】誘導ミサイル完全マスター【Unite Tokyo 2018】誘導ミサイル完全マスター
【Unite Tokyo 2018】誘導ミサイル完全マスター
 

Viewers also liked

Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
Shin Asakawa
 
Grupo educativo univo
Grupo educativo univoGrupo educativo univo
Grupo educativo univo
Fanniitharamirez
 
Artificial Intelligence diagram
Artificial Intelligence diagramArtificial Intelligence diagram
Artificial Intelligence diagram
Quentin Vajou
 
RNNLM
RNNLMRNNLM
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memory
nishio
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRU
ananth
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
Seiya Tokui
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep LearningYuta Kikuchi
 

Viewers also liked (9)

Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 
Grupo educativo univo
Grupo educativo univoGrupo educativo univo
Grupo educativo univo
 
Artificial Intelligence diagram
Artificial Intelligence diagramArtificial Intelligence diagram
Artificial Intelligence diagram
 
RNNLM
RNNLMRNNLM
RNNLM
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memory
 
Recurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRURecurrent Neural Networks, LSTM and GRU
Recurrent Neural Networks, LSTM and GRU
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
 

Similar to Rnncamp2handout

2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
 
2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed supp
Shin Asakawa
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
trmr
 
wq-2. 待ち行列
wq-2. 待ち行列wq-2. 待ち行列
wq-2. 待ち行列
kunihikokaneko1
 

Similar to Rnncamp2handout (6)

2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
2016word embbed supp
2016word embbed supp2016word embbed supp
2016word embbed supp
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
 
wq-2. 待ち行列
wq-2. 待ち行列wq-2. 待ち行列
wq-2. 待ち行列
 

More from Shin Asakawa

TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
Shin Asakawa
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)
Shin Asakawa
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
 
2016word embbed
2016word embbed2016word embbed
2016word embbed
Shin Asakawa
 
primers neural networks
primers neural networksprimers neural networks
primers neural networks
Shin Asakawa
 
回帰
回帰回帰
回帰
Shin Asakawa
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
Shin Asakawa
 
2016 dg2
2016 dg22016 dg2
2016 dg2
Shin Asakawa
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料
Shin Asakawa
 
2016tf study5
2016tf study52016tf study5
2016tf study5
Shin Asakawa
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
Shin Asakawa
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handout
Shin Asakawa
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
Shin Asakawa
 

More from Shin Asakawa (13)

TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)深層学習(ディープラーニング)入門勉強会資料(浅川)
深層学習(ディープラーニング)入門勉強会資料(浅川)
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
 
2016word embbed
2016word embbed2016word embbed
2016word embbed
 
primers neural networks
primers neural networksprimers neural networks
primers neural networks
 
回帰
回帰回帰
回帰
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
2016 dg2
2016 dg22016 dg2
2016 dg2
 
2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料2016人工知能と経済の未来合評会資料
2016人工知能と経済の未来合評会資料
 
2016tf study5
2016tf study52016tf study5
2016tf study5
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
 
dl-with-python01_handout
dl-with-python01_handoutdl-with-python01_handout
dl-with-python01_handout
 
Rnncamp01
Rnncamp01Rnncamp01
Rnncamp01
 

Rnncamp2handout