Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
KO
Uploaded by
koji ochiai
PPTX, PDF
530 views
落合 Wba hackathon2_成果報告_最終版
第2回全脳アーキテクチャ・ハッカソン「みんなで作る認知アーキテクチャ」最終発表 http://wba-initiative.org/1705/
Science
◦
Related topics:
Neural Networks
•
Read more
1
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 56
2
/ 56
3
/ 56
4
/ 56
5
/ 56
6
/ 56
7
/ 56
8
/ 56
9
/ 56
10
/ 56
11
/ 56
12
/ 56
13
/ 56
14
/ 56
15
/ 56
16
/ 56
17
/ 56
18
/ 56
19
/ 56
20
/ 56
21
/ 56
22
/ 56
23
/ 56
24
/ 56
25
/ 56
26
/ 56
27
/ 56
28
/ 56
29
/ 56
30
/ 56
31
/ 56
32
/ 56
33
/ 56
34
/ 56
35
/ 56
36
/ 56
37
/ 56
38
/ 56
39
/ 56
40
/ 56
41
/ 56
42
/ 56
43
/ 56
44
/ 56
45
/ 56
46
/ 56
47
/ 56
48
/ 56
49
/ 56
50
/ 56
51
/ 56
52
/ 56
53
/ 56
54
/ 56
55
/ 56
56
/ 56
More Related Content
PDF
よくわかるフリストンの自由エネルギー原理
by
Masatoshi Yoshida
PDF
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
by
Masatoshi Yoshida
PPTX
General ai challenge round1 中間報告
by
koji ochiai
PPTX
第3回nips読み会・関西『variational inference foundations and modern methods』
by
koji ochiai
PDF
自由エネルギー原理から エナクティヴィズムへ
by
Masatoshi Yoshida
PDF
『自由エネルギー原理入門』勉強会1章&2章前半
by
大地 紺野
PDF
あめとむちで知能を作る!? ーニューラルネットを使ったEnd to-End強化学習と「思考」の創発に向けたカオスNN強化学習ー
by
Katsunari Shibata
PDF
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
by
Masatoshi Yoshida
よくわかるフリストンの自由エネルギー原理
by
Masatoshi Yoshida
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
by
Masatoshi Yoshida
General ai challenge round1 中間報告
by
koji ochiai
第3回nips読み会・関西『variational inference foundations and modern methods』
by
koji ochiai
自由エネルギー原理から エナクティヴィズムへ
by
Masatoshi Yoshida
『自由エネルギー原理入門』勉強会1章&2章前半
by
大地 紺野
あめとむちで知能を作る!? ーニューラルネットを使ったEnd to-End強化学習と「思考」の創発に向けたカオスNN強化学習ー
by
Katsunari Shibata
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
by
Masatoshi Yoshida
Similar to 落合 Wba hackathon2_成果報告_最終版
PDF
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
PDF
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
by
marsee101
PPTX
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
by
Daiyu Hatakeyama
PDF
自由エネルギー原理と視覚的意識 2019-06-08
by
Masatoshi Yoshida
PDF
第7回WBAシンポジウム:基調講演
by
The Whole Brain Architecture Initiative
PPTX
Neural Network + Tensorflow 入門講座
by
maruyama097
PPTX
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
by
tomitomi3 tomitomi3
PDF
RLアーキテクチャ勉強会 MERLIN
by
YumaKajihara
DOCX
深層学習 Day1レポート
by
taishimotoda
PDF
SOINN-AM
by
SOINN Inc.
PDF
バイナリニューラルネットとハードウェアの関係
by
Kento Tajiri
PDF
Neural networks for Graph Data NeurIPS2018読み会@PFN
by
emakryo
PPTX
「実ロボットの運動生成」
by
Yurika Doi
PDF
確率的グラフィカルモデルと離散構造
by
Masakazu Ishihata
PDF
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
PPTX
深層学習とTensorFlow入門
by
tak9029
PDF
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
by
Masatoshi Yoshida
PDF
Neuroscience inspired artificial intelligence
by
Yasunori Endo
PPTX
[DL輪読会]Attentive neural processes
by
Deep Learning JP
PDF
ニューラルネットワーク勉強会2
by
yhide
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
by
marsee101
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
by
Daiyu Hatakeyama
自由エネルギー原理と視覚的意識 2019-06-08
by
Masatoshi Yoshida
第7回WBAシンポジウム:基調講演
by
The Whole Brain Architecture Initiative
Neural Network + Tensorflow 入門講座
by
maruyama097
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
by
tomitomi3 tomitomi3
RLアーキテクチャ勉強会 MERLIN
by
YumaKajihara
深層学習 Day1レポート
by
taishimotoda
SOINN-AM
by
SOINN Inc.
バイナリニューラルネットとハードウェアの関係
by
Kento Tajiri
Neural networks for Graph Data NeurIPS2018読み会@PFN
by
emakryo
「実ロボットの運動生成」
by
Yurika Doi
確率的グラフィカルモデルと離散構造
by
Masakazu Ishihata
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
深層学習とTensorFlow入門
by
tak9029
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
by
Masatoshi Yoshida
Neuroscience inspired artificial intelligence
by
Yasunori Endo
[DL輪読会]Attentive neural processes
by
Deep Learning JP
ニューラルネットワーク勉強会2
by
yhide
落合 Wba hackathon2_成果報告_最終版
1.
Attention Control 第2回WBA hackathon 落合、都築
2.
やったこと
3.
やったこと Free Energy Principleの ニューラルネットによる実装
4.
Free Energy Principle
?
5.
Free Energy Principle
by K.Friston
6.
Free Energy=精度 +
複雑度 = −𝐸 𝑞(𝑧|𝑥)[log 𝑝 𝜃 𝑥 𝑧 ] + 𝐷 𝐾𝐿[𝑞(𝑧|𝜇)||𝑝 𝜃 𝑧 ]𝐹 𝑥, 𝜇 𝑧 𝑥 𝜇 :Hidden or external states :Sensory states :Internal states(ex. zの平均、分散) 精度 複雑度
7.
Internal state 𝜇 =
arg min 𝐹(𝑥, 𝜇) 予測誤差を最小化するよう 内部パラメータを学習 (通常の生成モデル学習) 𝜇
8.
Internal state Action(Attention) 𝜇 =
arg min 𝐹(𝑥, 𝜇) 𝑎 = arg min 𝐹(𝑥, 𝜇) 予測誤差を最小化するよう 内部パラメータを学習 (通常の生成モデル学習) 予測誤差を最小化する行動 を生成 予測=注目 (Active Inference) 𝜇 𝑎
9.
実装
10.
Free Energy Principle
= Variational Autoencoder • Variational Autoencoder(VAE)は変分ベイズをニューラルネッ トで表現したもの • 変分ベイズではFree Energyを最小化している • Free Energyを内部パラメータ調節で最小化するNetwork =Variational Autoencoder • 今回の目標:Active InferenceをVAEに追加 • Active Inference=Free Energyを最小化する動きを生成す ること
11.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic
12.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 今回作成範囲
13.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic Variational Autoencoder
14.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic Action
15.
学習環境
16.
環境 エージェント MNIST画像を並べた 56x56ピクセルの空間 (トーラス状に回り込み) 着目領域 28x28ピクセル 着目領域内の画像 着目領域の 相対移動方向 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′ dx
= -1 or 1, dy=-1 or 1 ピクセル単位の移動
17.
結果
18.
Step 0~100 予測画像 軌跡 スタート
19.
Step 4000~4100 予測画像 軌跡 スタート
20.
Step 4000~4100 予測画像 軌跡 スタート
21.
Step 8000~8100 予測画像 軌跡 スタート
22.
Step 8000~8100 予測画像 軌跡 スタート
23.
Step 12000~12100 予測画像 軌跡 スタート
24.
Step 16000~16100 予測画像 軌跡 スタート
25.
Step 20000~20100 予測画像 軌跡 スタート
26.
loss Epoch(1Epoch = 100Step)
27.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
28.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
29.
LSTMを追加:Step 16000~16100 予測画像 軌跡 スタート
30.
考察 • 予測誤差を最小化するため一箇所で振動 • 理由 •
環境が固定、かつ行動の外乱なし • 予測誤差は最小化ではなく一定の値になるよう行動を決 めるべき? • 予測誤差が少なすぎる⇨退屈 • 予測誤差が高すぎる⇨不安 • 報酬、トップダウン信号が必要
31.
•すごい: Free Energy
Principleを大規模化可能な 形で実装 •おもろい:制御への応用可能性(後述) •脳っぽい:Free Energy Principleは脳の実験 データによる裏付けも出始めている
32.
Future Work
33.
•探索行動の継続を矯正 •多層化 •トップダウンでの行動生成
34.
•探索行動の継続を矯正 •多層化 •トップダウンでの行動生成
35.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 作成予定範囲
36.
柔軟な行動生成 ・マップ上でのナビゲーション課題 ←こいつを探したい ある特定の画像を,マップ上で探し出す
37.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 探索対象の画像を入力、ボトムアップ計算
38.
𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑒𝑛 𝐼 𝑥 𝑧 𝑑𝑒 FC 𝑎 𝑥′
𝑥′ 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 𝑒𝑛 𝑧 𝑑𝑒 FC 𝑥′ 𝑎𝑥 t=0 t=1 layer=0 layer=1 Active Inference Network 𝑎 𝑧 𝑥 FC 𝑑𝑒 𝑒𝑛 𝑥′ Action Hidden state State(Bottom up) State(expect) Action Network Encoder Network Decoder Network Probabilistic 上位層のzを固定し、ボトムアップとトップダウン信号を流す
39.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor ゴム紐
40.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
41.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
42.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
43.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
44.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
45.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
46.
Active Inference Networkのイメージ layer0 layer1 layer2 layer3 In
Brain World sensor
47.
END
48.
以降付録
49.
キーワード • Free Energy
Principle • Predictive Coding • Policy Gradient(action の強化学習で使用) • Variational Autoencoder • 変分ベイズ • 変分下界 • エントロピー
50.
環境、ライブラリ • Python 2.7 •
Chainer 1.15.0.1
51.
Variational Autoencoderの式 参考:http://qiita.com/skitaoka/items/64eab1d6c09a189d5841 log 𝑃
𝜃 𝑥 = log 𝑞(𝑧|𝑥) 𝑝 𝜃(𝑥, 𝑧) 𝑞(𝑧|𝑥) 𝑑𝑧 = 𝑞 𝑧 𝑥 log 𝑝 𝜃(𝑥, 𝑧) 𝑞(𝑧|𝑥) 𝑑𝑧 + 𝐷 𝐾𝐿[𝑞(𝑧|𝑥)||𝑝 𝜃 𝑧 𝑥 ] 𝑝 𝜃(𝑧|𝑥) :真の潜在変数の事後分布 𝑞(𝑧|𝑥) :𝑝 𝜃(𝑧|𝑥)の近似分布(Neural Networkで表現) log 𝑃 𝜃 𝑥 :対数尤度。これを最大化する𝜃を見つけ出したい 下界 = 𝐿(𝑥) 真の分布と近似誤差の差 𝐿 𝑥 = 𝑞 𝑧 𝑥 log 𝑝 𝜃 𝑥, 𝑧 𝑞 𝑧 𝑥 𝑑𝑧 = 𝐸 𝑞(𝑧|𝑥)[log 𝑝 𝜃 𝑥 𝑧 ] − 𝐷 𝐾𝐿[𝑞(𝑧|𝑥)||𝑝 𝜃 𝑧 ] ・・・①
52.
Free Energyの式 = −𝐸
𝑞(𝑧|𝑥)[log 𝑝 𝜃 𝑥 𝑧 ] + 𝐷 𝐾𝐿[𝑞(𝑧|𝜇)||𝑝 𝜃 𝑧 ] 𝐹 𝑥, 𝜇 = 𝐸 𝑞(𝑧|𝑥)[− log 𝑝 𝜃(𝑥, 𝑧)] − 𝐻[𝑞(𝑧|𝜇)] 参考:https://en.wikipedia.org/wiki/Free_energy_principle Energy Entropy ・・・② 𝑧 𝑥 𝜇 :Hidden or external states :Sensory states :Internal states 𝑧 𝑥 𝜇 𝑎 World In Brain
53.
両者は同じもの 𝐿 𝑥 =
𝐸 𝑞(𝑧|𝑥)[log 𝑝 𝜃 𝑥 𝑧 ] − 𝐷 𝐾𝐿[𝑞(𝑧|𝑥)||𝑝 𝜃 𝑧 ] ①より ②より 𝐹(𝑠, 𝜇) = −𝐸 𝑞(𝑧|𝑥)[log 𝑝 𝜃 𝑥 𝑧 + 𝐷 𝐾𝐿[𝑞(𝑧|𝜇)||𝑝 𝜃 𝑧 ] −𝐿 𝑥 = −𝐸 𝑞 𝑧 𝑥 [log 𝑝 𝜃 𝑥 𝑧 ] + 𝐷 𝐾𝐿[𝑞(𝑧|𝑥)||𝑝 𝜃 𝑧 ] −𝐿 𝑥 = −𝐸 𝑞 𝑧 𝑥 [log 𝑝 𝜃 𝑥 𝑧 ] + 𝐷 𝐾𝐿[𝑞(𝑧|𝜇)||𝑝 𝜃 𝑧 ] 観測された値でInternal statesを代用 正規分布と仮定 • Free Energy 𝐹(𝑠, 𝜇)は最小化、変分下界𝐿(𝑥)は最大化。𝐹 𝑠, 𝜇 = −𝐿(𝑥)よりやっていることも同じ。 • 𝐿(𝑥)の確率関数はニューラルネットによる近似
54.
Free Energy Principle
= Variational Autoencoder • Variational Autoencoder(VAE)は変分ベイズをニューラルネットで表現 したもの( http://www.asahi-net.or.jp/~fb8t-ysok/docs/vae/ ) • 変分ベイズではFree Energyを最小化している ( http://nktmemoja.github.io/jekyll/update/2016/08/20/variational- bayes.html ) • Free Energyを内部パラメータ調節で最小化するNetwork =Variational Autoencoder • 今回の目標:Active InferenceをVAEに追加 • Active Inference=Free Energyを最小化する動きを生成すること
55.
1枚ものスライド
56.
Free Energy Principle
by Friston implement “Active Inference Network” ・ある状態を実現するための,行動を生成するネットワークの提案 Test ・マップ上でのナビゲーション課題 ←こいつを探したい ある特定の画像を,マップ上で探し出す
Download