More Related Content
More from Deep Learning JP (20)
[DL輪読会]Neural Arithmetic Logic Units (NALU)
- 3. 書誌情報
• Title: “Neural Arithmetic Logic Units”
• Authors: A. Trask, et al. (Deepmind,Oxford,UCLの共著)
• ArXivに2018 8/1投稿.(書式的にNIPS?)
https://arxiv.org/abs/1808.00508
• Abstruct:
-”数”という表現形式を獲得するような機構を提案した.(数え上げタスク
において,先行研究から大きくパフォーマンスが向上した.)
3
- 11. 実験(抜粋)
• 1. Simple Function Learning Tasks
- 長さnの入力ベクトルx
- 出力スカラーy
- aとbを下のように定義し,各タスクで
“y = a + b”のように定める.
- Static Taskでは,
- Recurrent Taskでは,
11
! = # $%
&
%'(
, * = # $+
,
+'&-(
! = # # $%,'
(
')*%
, + = # # $%,,
-
,)(.*%
テスト時の入力の大きさを,
学習時より大きくする.
- 12. 実験(抜粋)
• 2. MNIST Counting and Arithmetic Tasks
- Counting Task:Input Sequenceの中にどの数字のMNISTの画像が,何枚あるかを,長さ10
の出力ベクトルで解答させる.
- Arithmetic Task:MNISTのデータで前タスクのRecurrentバージョンを行う.
12
- 13. 実験(抜粋)
• 3. Learning to Track Time in a Grid-World Environment
- 決められたステップで,灰色のブロックを赤ブロックのところまで持っていく.
- タスク達成の最小移動量と,制限時間を同じ大きさに設定する.
13
- 14. まとめ
• 重みの値のパターンを限りなく少なくしようとする{-1, 0, 1}ことで,
ニューラルネットワーク上で近似的な論理ゲートを作ろうとした.
• NAC( )の提案が,一番のContributionで
あり,NALUは,a÷bや√aを解くための局所的なモデルのように思える.
• 下のRedditのスレッドで,かなり面白い議論が行われていた.(”log ->
linear -> exp”の代わりに,”asinh -> linear -> sinh”とNALUを改良する
と,パフォーマンスがよくなったなど)
https://www.reddit.com/r/MachineLearning/comments/94833t/
neural_arithmetic_logic_units/
14
! = {tanh (*+ ) ⊙ .(/+)}1