AAAI2023「Are Transformers Effective for Time Series Forecasting?」と、HuggingFace「Yes, Transformers are Effective for Time Series Forecasting (+ Autoformer)」の紹介です。
AAAI2023「Are Transformers Effective for Time Series Forecasting?」と、HuggingFace「Yes, Transformers are Effective for Time Series Forecasting (+ Autoformer)」の紹介です。
Introduction of “Fairness in Learning: Classic and Contextual Bandits”Kazuto Fukuchi
This material consists of an introduction of a paper titled “Fairness in Learning: Classic and Contextual Bandits” from NIPS2016. This is presented at https://connpass.com/event/47580/.
Introduction of "TrailBlazer" algorithmKatsuki Ohto
論文「Blazing the trails before beating the path: Sample-efficient Monte-Carlo planning」紹介スライドです。NIPS2016読み会@PFN(2017/1/19) https://connpass.com/event/47580/ にて。
Interaction Networks for Learning about Objects, Relations and PhysicsKen Kuroki
For my presentation for a reading group. I have not in any way contributed this study, which is done by the researchers named on the first slide.
https://papers.nips.cc/paper/6418-interaction-networks-for-learning-about-objects-relations-and-physics
Improving Variational Inference with Inverse Autoregressive FlowTatsuya Shirakawa
This slide was created for NIPS 2016 study meetup.
IAF and other related researches are briefly explained.
paper:
Diederik P. Kingma et al., "Improving Variational Inference with Inverse Autoregressive Flow", 2016
https://papers.nips.cc/paper/6581-improving-variational-autoencoders-with-inverse-autoregressive-flow
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matchingharmonylab
公開URL:https://arxiv.org/pdf/2404.19174
出典:Guilherme Potje, Felipe Cadar, Andre Araujo, Renato Martins, Erickson R. ascimento: XFeat: Accelerated Features for Lightweight Image Matching, Proceedings of the 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2023)
概要:リソース効率に優れた特徴点マッチングのための軽量なアーキテクチャ「XFeat(Accelerated Features)」を提案します。手法は、局所的な特徴点の検出、抽出、マッチングのための畳み込みニューラルネットワークの基本的な設計を再検討します。特に、リソースが限られたデバイス向けに迅速かつ堅牢なアルゴリズムが必要とされるため、解像度を可能な限り高く保ちながら、ネットワークのチャネル数を制限します。さらに、スパース下でのマッチングを選択できる設計となっており、ナビゲーションやARなどのアプリケーションに適しています。XFeatは、高速かつ同等以上の精度を実現し、一般的なラップトップのCPU上でリアルタイムで動作します。
セル生産方式におけるロボットの活用には様々な問題があるが,その一つとして 3 体以上の物体の組み立てが挙げられる.一般に,複数物体を同時に組み立てる際は,対象の部品をそれぞれロボットアームまたは治具でそれぞれ独立に保持することで組み立てを遂行すると考えられる.ただし,この方法ではロボットアームや治具を部品数と同じ数だけ必要とし,部品数が多いほどコスト面や設置スペースの関係で無駄が多くなる.この課題に対して音𣷓らは組み立て対象物に働く接触力等の解析により,治具等で固定されていない対象物が組み立て作業中に運動しにくい状態となる条件を求めた.すなわち,環境中の非把持対象物のロバスト性を考慮して,組み立て作業条件を検討している.本研究ではこの方策に基づいて,複数物体の組み立て作業を単腕マニピュレータで実行することを目的とする.このとき,対象物のロバスト性を考慮することで,仮組状態の複数物体を同時に扱う手法を提案する.作業対象としてパイプジョイントの組み立てを挙げ,簡易な道具を用いることで単腕マニピュレータで複数物体を同時に把持できることを示す.さらに,作業成功率の向上のために RGB-D カメラを用いた物体の位置検出に基づくロボット制御及び動作計画を実装する.
This paper discusses assembly operations using a single manipulator and a parallel gripper to simultaneously
grasp multiple objects and hold the group of temporarily assembled objects. Multiple robots and jigs generally operate
assembly tasks by constraining the target objects mechanically or geometrically to prevent them from moving. It is
necessary to analyze the physical interaction between the objects for such constraints to achieve the tasks with a single
gripper. In this paper, we focus on assembling pipe joints as an example and discuss constraining the motion of the
objects. Our demonstration shows that a simple tool can facilitate holding multiple objects with a single gripper.
3. 1. Information
• Author
– Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, Yann N. Dauphin
– FAIR(Facebook AI Research)
• Submitted for arXiv on 8 May 2017
• Summary
• fully convolutionalなseq2seqモデル
• GLU, multi-hop attention, residual connectionなどの機構
• GNMTより精度⾼くて9倍くらい早い
• 実装がGitHubに上がってます(https://github.com/facebookresearch/fairseq)
3
4. 2. Introduction
• 翻訳界隈でGNMT(Google Neural Machine Translation)が話題
– encoder-decoder, bi-directional encoder, attention, LSTMブロック積んでresidual層で勾配消失防ぐ
• ⼀⽅、⾃然⾔語処理界隈では最近は並列計算できるCNNを⽤いるモデルが流⾏り
– RNN: 並列計算できない、系列が⻑くなると勾配消失しやすい
– CNN: 並列計算できるため計算⾼速化が可能、離れた系列間の関係も学習しやすい
• これまでもCNNを⽤いた⼿法は数々存在し、以下のような系譜をたどっている
1. 精度は勝てないけど計算は早くなる
2. 限られたデータセットでなら勝てる: [Bradbury et al. (2016), Kalchbrenner et al. (2016)]
3. 多様なデータセットで勝てる: [Gehring et al. (2016), Dauphin et al. (2016)]
• not fully convolutional
• not generative model like seq2seq
4
7. 3. Related Work: CNNを活⽤した⾃然⾔語処理モデル
• Sentence Classification [Kim, 2014]
• Character-level Text classification [Zhang et al. 2015]
• Quasi-RNN [Bradbury et al. 2016]
– LSTMライクにプーリング
• その他いろいろあります
– http://ksksksks2.hatenadiary.jp/entry/20170122/1485082800
– http://deeplearning.hatenablog.com/entry/neural_machine_translation_theory#seq2seq
– https://www.slideshare.net/sheemap/convolutional-neural-netwoks
• 計算は⾼速化されるが、LSTMベースより精度が良
かったり悪かったり、有効なデータセットが限られて
いたり
7
8. 3. Related Work: CNNを活⽤した⾃然⾔語処理モデル
• Language Modeling with Gated CNN [Dauphin et al. 2016]
– Gated Linear Unitsをゲート関数として導⼊
– Residual処理
– WikiText-103のタスクでSoTAのPPL
– LSTMベースの20倍の速度
8
9. 3. Related Work: CNNを活⽤したNMT
• Language Modeling with Gated CNN [Dauphin et al. 2016]
– Gated Linear Unitsをゲート関数として導⼊
– “allows the model to select which words or features are relevant to predict the next word.”
– それまでの翻訳を踏まえて、その時点で⽂脈の特定の部分に着⽬するか広く⾒るか...などを表すゲート関数を学習できる
– tanhベースのゲート関数よりも勾配が消失しにくい
9
10. 4. Proposed Model
• やっていること
1. ⼊⼒をembedding→畳み込みしてGLUに通す
• decoder側も同様
2. multi-hop attentionを計算
• allow machines to reference different parts of text to
build understanding during encoding.
3. attentionつきの⼊⼒とdecoder contextsから予測
10
11. 4. Proposed Model
• やっていること
1. ⼊⼒をembedding→畳み込みしてGLUに通す
• decoder側も同様
2. multi-hop attentionを計算
• allow machines to reference different parts of text to
build understanding during encoding.
3. attentionつきの⼊⼒とdecoder contextsから予測
11
12. 4. Proposed Model
• やっていること
1. ⼊⼒をembedding→畳み込みしてGLUに通す
• decoder側も同様
2. multi-hop attentionを計算
• allow machines to reference different parts of text to
build understanding during encoding.
3. attentionつきの⼊⼒とdecoder contextsから予測
12
13. 4. Proposed Model
• やっていること
1. ⼊⼒をembedding→畳み込みしてGLUに通す
• decoder側も同様
2. multi-hop attentionを計算
• allow machines to reference different parts of text to
build understanding during encoding.
3. attentionつきの⼊⼒とdecoder contextsから予測
13
→もう少し詳しく⾒ていきます
16. 4. Proposed Model
• やっていること
1. ⼊⼒をembedding→畳み込みしてGLUに通す
• decoder側も同様
• Gated Linear Units
– σ(B) controls which inputs A of the current context are
relevant
16
から へ変換。
17. 4. Proposed Model
• やっていること
2. multi-hop attentionを計算
– current decoder state とprevious target element から
attention score を求める
– decoder state summary とoutput of the last encoder
からattention を求める
– conditional input を求める
17
z: large input context
e: point information
zがkey、z+eがvalueとして
key-value memory networkのように働くらしい