Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
naoto moriyama
PPTX, PDF
18,061 views
ニューラルチューリングマシン入門
DeepMind社より発表されたNeural Turing Machineをまとめてみました
Technology
◦
Read more
60
Save
Share
Embed
Embed presentation
Download
Downloaded 152 times
1
/ 29
2
/ 29
Most read
3
/ 29
4
/ 29
5
/ 29
6
/ 29
7
/ 29
8
/ 29
9
/ 29
10
/ 29
Most read
11
/ 29
12
/ 29
13
/ 29
Most read
14
/ 29
15
/ 29
16
/ 29
17
/ 29
18
/ 29
19
/ 29
20
/ 29
21
/ 29
22
/ 29
23
/ 29
24
/ 29
25
/ 29
26
/ 29
27
/ 29
28
/ 29
29
/ 29
More Related Content
PDF
研究効率化Tips Ver.2
by
cvpaper. challenge
PPTX
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
by
Deep Learning JP
PDF
強化学習その1
by
nishio
PDF
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PDF
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
by
mlm_kansai
PDF
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
PDF
2019年度チュートリアルBPE
by
広樹 本間
研究効率化Tips Ver.2
by
cvpaper. challenge
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
by
Deep Learning JP
強化学習その1
by
nishio
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
by
mlm_kansai
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
2019年度チュートリアルBPE
by
広樹 本間
What's hot
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
PDF
ゼロから始める転移学習
by
Yahoo!デベロッパーネットワーク
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PDF
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
PPTX
深層学習の数理
by
Taiji Suzuki
PDF
BlackBox モデルの説明性・解釈性技術の実装
by
Deep Learning Lab(ディープラーニング・ラボ)
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
PPTX
XAI (説明可能なAI) の必要性
by
西岡 賢一郎
PPTX
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
by
Yusuke Uchida
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
PDF
4 データ間の距離と類似度
by
Seiichi Uchida
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PPTX
backbone としての timm 入門
by
Takuji Tahara
PDF
cvpaper.challenge 研究効率化 Tips
by
cvpaper. challenge
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
ゼロから始める転移学習
by
Yahoo!デベロッパーネットワーク
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
【メタサーベイ】Vision and Language のトップ研究室/研究者
by
cvpaper. challenge
深層学習の数理
by
Taiji Suzuki
BlackBox モデルの説明性・解釈性技術の実装
by
Deep Learning Lab(ディープラーニング・ラボ)
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
XAI (説明可能なAI) の必要性
by
西岡 賢一郎
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
by
Yusuke Uchida
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
4 データ間の距離と類似度
by
Seiichi Uchida
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
backbone としての timm 入門
by
Takuji Tahara
cvpaper.challenge 研究効率化 Tips
by
cvpaper. challenge
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
Viewers also liked
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
PPTX
PRML第6章「カーネル法」
by
Keisuke Sugawara
PDF
機械学習と深層学習の数理
by
Ryo Nakamura
PDF
深層リカレントニューラルネットワークを用いた日本語述語項構造解析
by
Hiroki Ouchi
PDF
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
by
Kohei KaiGai
PDF
Neural Turing Machines
by
Kato Yuzuru
PDF
Neural Turing Machines
by
Ilya Kuzovkin
PPTX
Differentiable neural conputers
by
naoto moriyama
PDF
Neural Network と Universality について
by
Kato Yuzuru
PDF
Decoupled Neural Interfaces輪読資料
by
Reiji Hatsugai
PPTX
Neural turing machine
by
tm_2648
PDF
Duolingo.pptx
by
syou6162
PDF
Memory Networks, Neural Turing Machines, and Question Answering
by
Akram El-Korashy
PDF
機械学習を使ったハッキング手法
by
Isao Takaesu
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
PRML第6章「カーネル法」
by
Keisuke Sugawara
機械学習と深層学習の数理
by
Ryo Nakamura
深層リカレントニューラルネットワークを用いた日本語述語項構造解析
by
Hiroki Ouchi
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
by
Kohei KaiGai
Neural Turing Machines
by
Kato Yuzuru
Neural Turing Machines
by
Ilya Kuzovkin
Differentiable neural conputers
by
naoto moriyama
Neural Network と Universality について
by
Kato Yuzuru
Decoupled Neural Interfaces輪読資料
by
Reiji Hatsugai
Neural turing machine
by
tm_2648
Duolingo.pptx
by
syou6162
Memory Networks, Neural Turing Machines, and Question Answering
by
Akram El-Korashy
機械学習を使ったハッキング手法
by
Isao Takaesu
Similar to ニューラルチューリングマシン入門
PDF
全力解説!Transformer
by
Arithmer Inc.
PDF
効率的学習 / Efficient Training(メタサーベイ)
by
cvpaper. challenge
PDF
Recurrent Neural Networks
by
Seiya Tokui
PDF
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
PPTX
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
by
Yusuke Iwasawa
PPTX
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
PDF
20180110 AI&ロボット勉強会 Deeplearning4J と時系列データの異常検知について
by
Kazuki Motohashi
PPTX
20170415ーDeepMind社周辺の動向調査[公開].pptx
by
Takahiro Ikushima
PPTX
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
PDF
Show and tell takmin
by
Takuya Minagawa
PDF
Memory Networks (End-to-End Memory Networks の Chainer 実装)
by
Shuyo Nakatani
PDF
PythonによるDeep Learningの実装
by
Shinya Akiba
PPTX
最近の自然言語処理
by
naoto moriyama
PDF
Deep nlp 4.2-4.3_0309
by
cfiken
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PDF
attention_is_all_you_need_nips17_論文紹介
by
Masayoshi Kondo
PPTX
Hybrid computing using a neural network with dynamic
by
Ryutaro Yamauchi
PDF
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
PPTX
Hybrid computing using a neural network with dynamic external memory
by
poppyuri
PPTX
Learning visual knowledge memory networks for visual question answering 文献講読
by
poppyuri
全力解説!Transformer
by
Arithmer Inc.
効率的学習 / Efficient Training(メタサーベイ)
by
cvpaper. challenge
Recurrent Neural Networks
by
Seiya Tokui
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
by
Yusuke Iwasawa
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
20180110 AI&ロボット勉強会 Deeplearning4J と時系列データの異常検知について
by
Kazuki Motohashi
20170415ーDeepMind社周辺の動向調査[公開].pptx
by
Takahiro Ikushima
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
Show and tell takmin
by
Takuya Minagawa
Memory Networks (End-to-End Memory Networks の Chainer 実装)
by
Shuyo Nakatani
PythonによるDeep Learningの実装
by
Shinya Akiba
最近の自然言語処理
by
naoto moriyama
Deep nlp 4.2-4.3_0309
by
cfiken
Deep Learningの基礎と応用
by
Seiya Tokui
attention_is_all_you_need_nips17_論文紹介
by
Masayoshi Kondo
Hybrid computing using a neural network with dynamic
by
Ryutaro Yamauchi
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
Hybrid computing using a neural network with dynamic external memory
by
poppyuri
Learning visual knowledge memory networks for visual question answering 文献講読
by
poppyuri
More from naoto moriyama
PPTX
ニューラルネットワーク入門
by
naoto moriyama
PPTX
自然言語処理 Word2vec
by
naoto moriyama
PPTX
Deep forest
by
naoto moriyama
PPTX
自然言語処理
by
naoto moriyama
PDF
論文紹介: Differentiable reasoning over a virtual knowledge base
by
naoto moriyama
PPTX
Dilated rnn
by
naoto moriyama
ニューラルネットワーク入門
by
naoto moriyama
自然言語処理 Word2vec
by
naoto moriyama
Deep forest
by
naoto moriyama
自然言語処理
by
naoto moriyama
論文紹介: Differentiable reasoning over a virtual knowledge base
by
naoto moriyama
Dilated rnn
by
naoto moriyama
ニューラルチューリングマシン入門
2.
• 森山 直人(もりやま
なおと) • もともと中国国籍 ⇒ 帰化(国籍変更)して日本人に • 趣味でpythonを始める(仕事はエンジニアではない) • 勢いでディープラーニング始める(自然言語) • 最初からディープラーニングに入ったため、 統計的手法や確率論が弱い ←のんびりPRML
3.
• すべて個人の見解による内容であり、所属会社、団体の公式見解 ではありません • 概念理解を優先しているため、一部厳密の定義は割愛しています •
日本語表記と英語表記混在していますが、他意はありません (基本日本語だが、長くなるものは英語にしています)
4.
最近DeepMind社(Google)を始めとした機械学習領域の 先進企業が取り組んでいる外部メモリの概念を紹介します • ニューラルネットワークのおさらい(私の理解ベース) • Neural
Turing Machineの基本概念(論文ベース) • 外部メモリの可能性(私の見解) についてお話させて頂きます ※基本概要にとどめ、理論の証明や細かい実装は割愛します
5.
• 強化学習 • アテンション •
ベイジアンネット(グラフィカルモデル系) • 生成モデル • 同じ外部メモリの仲間で、Facebook社が精力的に 取り組んでいる「メモリーネットワーク」
6.
• ニューラルネットワークが画像分野の「パターン認識」問題で 良い成果をあげながらも、「推論」が求められる自然言語領域 ではまだまだ汎用的な手法が提案されていない • このあたりがニューラルネットワークの限界だろうと思ったが、 外部メモリの概念に触れ、突破口を感じた(個人感) •
すでにDeepMind社では、外部メモリを活用した論文がいくつ か発表されており、今後トレンドになると感じた!
7.
入力層 中間層 出力層 中間層(隠れ層)をもつ有向グラフ ■強み • 単調な非線形表現を積み重なることで、 複雑な非線形表現(合成関数)を獲得 • パターン認識問題が得意 ■弱み •
現在のデータだけでなく、過去の情報が必要な問 題は苦手 ⇒云わば現在のデータのみでは答えを導 けない推論(思考)問題を解くことが難しい
8.
入力層 中間層 出力層 (過去のデータが必要な)推論問題を解くために、 過去のデータも伝搬する仕組みを作る ■理想 • 過去の入力すべてに現在の入力を加えたネッ トワークを形成 ■現実 • LSTMの実装で、内部に過去の入力の 「状態」を保存(メモリセル) •
逆伝搬のコストが過剰に増えるため、実質 数ステップ分の学習しかできない
9.
• RNN(LSTM)の弱点は計算量と時間のみでなく、記憶を司る メモリセルのデータ構造にも課題がある • LSTMの学習では、メモリセルの更新は部分的でなく、 全体が更新されるため、表現力の幅は限定的 •
そこで求められるのは、 ①表現力の高いメモリ処理 ー必要に応じて必要な箇所のみを更新、取り出し ②多くの情報を蓄えるメモリ構造 ー大規模なデータを蓄積できるようにする
10.
• あえて堅苦しく言うと、ノイマン型のシステム構造上に、 ニューラルネットワークとチューリングマシンの「ヘッド」を 取り付けたようなもの • 構造は複雑だけどちゃんと微分可能!(学習できる) •
概要をつかむ程度であれば、チューリングマシンの理解は不要 ただ、ある程度理解があると腹落ちします!
11.
• RNN(LSTM)をコントロー ラーに据えて、ヘッド、メ モリと呼ばれる部品を取り 付けた構造 • LSTMのメモリセルを拡張 し、データの“細切れ”に分 けた(詳細後述) •
メモリの操作はチューリン グマシンのヘッドの動作に 近い 画像引用元:https://arxiv.org/pdf/1410.5401v2.pdf
12.
入力 出力 制御 演算 メモリ NeuralTuring Machine ノイマン型 コンピュータ 構造はノイマン型コンピュータに近い
13.
この部分は通常のRNN (LSTM) ヘッドは外部メモリに対し て、計算に使う部分の選定 や書き換えを行う 中央のコントローラー はヘッドの動作をコン トロール
14.
コントローラー :データの入出力を処理するインターフェース メモリ :RAMに似た働きを行うデータ格納スペース ヘッド
:メモリにデータを書き込んだり、読み込んだりする機能 ・・・・・・ ヘッド メモリ コントローラー ヘッドを操作 するための各 種パラメータ を発行 ヘッドがコント ローラーの情報 をもとにメモリ 読み込み、書き 込みを行う 計算時にヘッ ドを通じて必 要なメモリを 呼び出す
15.
2 1 2
7 4 020 4 0 0 2 1 311 2 4 4 1 0 022 3 3 0 0 0 054 ・・・ 0.2 0.3 0.1 0.1 ・・・ ヘッド メモリ ②メモリ位置 N ①各メモリのサイズ M ③時刻tにお ける各メモリ の重み 𝑊𝑡 N*Mの行列
16.
2 1 2
7 4 020 4 0 0 2 1 311 2 4 4 1 0 022 3 3 0 0 0 054 ・・・ 0.2 0.3 0.1 0.3 ・・・ ヘッド メモリ 位置 N ベクトルサイズ M重み 𝑊𝑡 • コントローラが使う情報をメモリ から算出する • 時刻tにおける重み𝑊𝑡を各メモリ 掛け合わせて、𝑟𝑡を算出 𝑟𝑡 ← 𝑖 𝑤𝑡(𝑖)𝑀𝑡(𝑖) ※ただし 𝑖 𝑤𝑡 𝑖 = 1, 0 ≤ 𝑤𝑡 𝑖 ≤ 1
17.
2 1 2
7 4 020 4 0 0 2 1 311 2 4 4 1 0 022 3 3 0 0 0 054 ・・・ 0.2 0.3 0.1 0.3 ・・・ ヘッド メモリ 位置 N ベクトルサイズ M重み 𝑊𝑡 LSTMのように、メモリを更新する この工程は②ステップに分かれる ① 情報削除 削除ベクトル𝑒𝑡が与えられる 𝑀𝑡 𝑖 ← 𝑀𝑡−1 𝑖 1 − 𝑤𝑡 𝑖 𝑒𝑡 ② 情報追加 追加ベクトル𝑎 𝑡が与えられる 𝑀𝑡 𝑖 ← 𝑀𝑡 𝑖 + 𝑤𝑡(𝑖)𝑎 𝑡 ~ ~
18.
• ヘッドによるメモリの操作はわかった • そのヘッドのパラメータ重み調整は直前のメモリ及び重みと コントローラから出力される5つのパラメータをもとに、 ④ステップで構成される (これけっこうややこしいです・・・)
19.
コントローラー Memory Key :
k -コントローラから与えられたベクトル Contents Addressing Parameter : β -ベクトル集中度調整 Interpolation Parameter : g -前のヘッド状態をどれくらい引き継ぐか Convolutional Shift Parameter : s -ヘッド内の数字の移動方向 Sharpening Parameter : γ -ベクトル集中度の調整
20.
画像引用元:https://arxiv.org/pdf/1410.5401v2.pdf ステップ① ステップ② ステップ③ ステップ④ 前ページの5つのパラメータと直前のメモリ、ヘッド重みを用いて ④ステップを通じて学習を行う
21.
コントローラーから与えられたベクトル𝑘 𝑡とメモリ内の 各ベクトルの類似度を計算し、その類似度をもとにヘッ ドの重みを初期化して𝑤𝑡 𝑐 を作る 𝑤𝑡 𝑐 ← exp(β 𝑡
𝐾 𝑘 𝑡,𝑀𝑡 𝑖 ) 𝑗 exp(β 𝑡 𝐾 𝑘 𝑡,𝑀𝑡 𝑖 ) , K u, v = 𝑢∙𝑣 | 𝑢 |∙| 𝑣 |
22.
Content Addressingで出力された𝑤𝑡 𝑐 と直前の重み𝑤𝑡−1 に対してパラメータgをかけ合わせ、𝑤𝑡 𝑔 を生成 ※LSTMでいうと入力ゲートのような働き 𝑤𝑡 𝑔 ← 𝑔𝑤𝑡 𝑐 +
(1 − 𝑔)𝑤𝑡−1
23.
Interpolationで出力された𝑤𝑡 𝑔 と方向パラメータ𝑠𝑡を計算 し、𝑤𝑡を生成 𝑤𝑡 ← 𝑖=0 𝑁−1 𝑤𝑡 𝑔 (𝑗)𝑠𝑡(𝑖 −
𝑗) ~ ~
24.
方向パラメータ𝑠𝑡は何をしているか ∟ヘッド内の重みベクトル 𝑤𝑡 𝑖 を左右に調整 ∟メモリ位置ごとの関係性を学習 0 0
1 2 2 左 中 右 1 0 0 𝑠𝑡は左右への移動量を示す 中は動かないことを示す 0 1 2 2 0 0 0 1 2 2 0.5 0 0.5 1 0.5 1 1.5 1 この場合は、単純に 左に1つ移動 各ベクトルが左右に 半分ずつ移動 ヘッド
25.
Convolutional Shiftで出力された𝑤𝑡に対して、集中度 パラメータ𝛾𝑡をかけ整形し、最終ヘッドの重み𝑤𝑡を生成 𝑤𝑡 ← 𝑤𝑡(𝑖)
𝛾𝑡 𝑗 𝑤𝑡(𝑗) 𝛾𝑡 ~ ~ ~
26.
• LSTMのような複雑な構造を持つが、各処理は異なる概念を 持つため、全体像のイメージが難しい • 一方、異なる概念の処理が多いことが、多彩な表現力を獲得 する側面もある •
逆伝搬の計算の流れはご想像におまかせします・・・
27.
画像引用元:http://awawfumin.blogspot.jp/2015/03/neural-turing-machines-implementation.html
28.
• 表現力の向上でLSTMでは成し得なかった‘本質的な記憶’を実現 • メモリを細切れにし、必要に応じて必要な箇所を変更、使用 することで、(通常のニューラルネットワークより)人間の脳に 近い処理が可能に •
Neural Turing Machineではまだメモリの操作が荒かったが、 直近ではより洗練された手法が開発されている (Differentiable neural computersなど) • ニューラルネットワークの可能性を広げる手法として期待できる
29.
• 仮想世界の謎解き冒険ファンタジーですが、 計算とは何か、思考とは何かを題材とする • オートマトンやチューリングマシンの概念を 奇跡的にわかりやすく解説 •
コンピュータサイエンス・自然言語処理に於 いて多くの気づきを与えてくれる • この本の素晴らしさを語るだけで、一つLTが できると思います
Download