2. 論文概要
• Author
– Reddi S. J., Kale S., Kumar S.
– Google Research New York
• Adamの問題点を改良したAMSGradを提案
• Adamが最適解に収束しない例の一部を定式化し、そのような例に対し
ても最適解に収束するようにアルゴリズムを修正
• 一般的な画像認識タスクにおいてもAdamより早い収束を達成
• 本論文はICLR 2018にて発表された
23. 参考文献
• Reddi S. J., Kale S., Kumar S. On the convergence of adam and beyond. 2018.
ICLR 2018 conference paper
• Duchi J., Hazan E., Singer Y. Adaptive subgradient method for online learning
stochastic optimization. 2011. Journal of Machine Learning Research 12 pp. 2121-
2159
• Shazeer N., Stern M. Adafactor: adaptive learning rates with sublinear memory
cost. 2018. arxiv:1804.04235v1
• AdaGrad, RMSProp, Adam, AMSGrad, Adam-HD - Qiita
https://qiita.com/skitaoka/items/e6afbe238cd69c899b2a