本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matchingharmonylab
公開URL:https://arxiv.org/pdf/2404.19174
出典:Guilherme Potje, Felipe Cadar, Andre Araujo, Renato Martins, Erickson R. ascimento: XFeat: Accelerated Features for Lightweight Image Matching, Proceedings of the 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2023)
概要:リソース効率に優れた特徴点マッチングのための軽量なアーキテクチャ「XFeat(Accelerated Features)」を提案します。手法は、局所的な特徴点の検出、抽出、マッチングのための畳み込みニューラルネットワークの基本的な設計を再検討します。特に、リソースが限られたデバイス向けに迅速かつ堅牢なアルゴリズムが必要とされるため、解像度を可能な限り高く保ちながら、ネットワークのチャネル数を制限します。さらに、スパース下でのマッチングを選択できる設計となっており、ナビゲーションやARなどのアプリケーションに適しています。XFeatは、高速かつ同等以上の精度を実現し、一般的なラップトップのCPU上でリアルタイムで動作します。
セル生産方式におけるロボットの活用には様々な問題があるが,その一つとして 3 体以上の物体の組み立てが挙げられる.一般に,複数物体を同時に組み立てる際は,対象の部品をそれぞれロボットアームまたは治具でそれぞれ独立に保持することで組み立てを遂行すると考えられる.ただし,この方法ではロボットアームや治具を部品数と同じ数だけ必要とし,部品数が多いほどコスト面や設置スペースの関係で無駄が多くなる.この課題に対して音𣷓らは組み立て対象物に働く接触力等の解析により,治具等で固定されていない対象物が組み立て作業中に運動しにくい状態となる条件を求めた.すなわち,環境中の非把持対象物のロバスト性を考慮して,組み立て作業条件を検討している.本研究ではこの方策に基づいて,複数物体の組み立て作業を単腕マニピュレータで実行することを目的とする.このとき,対象物のロバスト性を考慮することで,仮組状態の複数物体を同時に扱う手法を提案する.作業対象としてパイプジョイントの組み立てを挙げ,簡易な道具を用いることで単腕マニピュレータで複数物体を同時に把持できることを示す.さらに,作業成功率の向上のために RGB-D カメラを用いた物体の位置検出に基づくロボット制御及び動作計画を実装する.
This paper discusses assembly operations using a single manipulator and a parallel gripper to simultaneously
grasp multiple objects and hold the group of temporarily assembled objects. Multiple robots and jigs generally operate
assembly tasks by constraining the target objects mechanically or geometrically to prevent them from moving. It is
necessary to analyze the physical interaction between the objects for such constraints to achieve the tasks with a single
gripper. In this paper, we focus on assembling pipe joints as an example and discuss constraining the motion of the
objects. Our demonstration shows that a simple tool can facilitate holding multiple objects with a single gripper.
1. 1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Out-of-Distribution 論⽂速報 in ICLR2020
Hirono Okamoto, Matsuo Lab
2. ICLR2020に投稿された論⽂が公開された
n 分布外検知に関係する論⽂をいくつか眺めてみた(だけので想像で話しているかもしれません)
n リンク: https://openreview.net/group?id=ICLR.cc/2020/Conference
n タイトル⼀覧:
n Out-of-Distribution Image Detection Using the Normalized Compression Distance
n Deep Generative Classifier for Out-of-distribution Sample Detection
n Learning Out-of-distribution Detection without Out-of-distribution Data
n Improving Dirichlet Prior Network for Out-of-Distribution Example Detection
n Zero-Shot Out-of-Distribution Detection with Feature Correlations
n How the Softmax Activation Hinders the Detection of Adversarial and Out-of-Distribution Examples in
Neural Networks
n Out-of-Distribution Detection Using Layerwise Uncertainty in Deep Neural Networks
n 所感: 今年めちゃくちゃOOD検知多い気がする(︖)・紹介するのは⼀部
4. 背景: OOD検知の基本的な2つの問題設定
n 1: 教師なし異常検知(訓練分布のラベルが与えられない)
n 2: 教師あり異常検知(訓練分布のラベルが与えられる)
訓練データ テストデータ
正常 異常
訓練データ テストデータ
正常 異常⽝ ⿃
今回は2の論⽂に着⽬する
5. とくに今回⽐較された⼿法達
n A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks
(ICLR 2017)
n ソフトマックスの出⼒の最⼤値をOODの指標として使う
n アイデア: OODは予測分類が曖昧になるはず
n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks
(NIPS 2018)
n 訓練分布から離れたところのサンプルを検出できるように,ソフトマックス層の⼀層前の出⼒の分布
を正規分布であることを仮定し,そこからどれだけ離れているかという⽅法でOOD検知を⾏う
n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n (a): 正常データを正しく予測できるとき(confident)
n (b): 正常データだが,どのラベルに属しているか
わからないとき(known-unknown)
n (c): 異常データ(unknown-unknown)
6. Out-of-Distribution Image Detection Using the Normalized
Compression Distance
n モチベーション: OODデータを全く使わず,モデルをretrainすることなくOOD検知したい
n 既存研究: A Simple Unified Framework for Detecting OOD Samples and Adversarial Attacks
n 最後から⼆番⽬の層において,マハラノビス距離を使ってOODを検知する
n さらに,CNNの特徴マップのglobal average poolingを組み合わせる
n しかし,組み合わせ⽅が,ロジスティック回帰であるため,turning⽤のOODが必要になってしまう
n やったこと: 系列の類似度を測る⼿法(normalized compression distance)の導⼊
n 複数の指標からOODであることを判定することができる
n 実験: OODを全く訓練時・テスト時に使ってないにもかかわらず強い
Lee 2018について解説したスライド: https://www.slideshare.net/ssuser9eb780/nips-2018-139360134
7. Deep Generative Classifier for Out-of-Distribution Sample Detection
n やったこと: クラス条件付きガウス分布を学習することによって,信頼度スコアを算出する
n 既存研究: (Lee, 2018)とほぼ同じだが,これはガウス分布になるように改めて訓練している
n 結果: そこまで良くない
⽩点: OOD
⾊点: 正常データ
左: softmax classifier
右: generative classifier
中⼼に近づける項
metric learningでいうcenter loss
クロスエントロピー項
8. Learning Out-of-distribution Detection without Out-of-distribution Data
n モチベーション: ハイパラチューニングをあるOODデータセットでした場合,他のOODデー
タセットに汎化しない問題を解決したい → そもそもin-distributionのデータしか使わない
n やったこと: 賢い
n OODかIDのドメインを仮定した確率分布をモデルにうまく組み込んだ
n 実験: 強い.まいった
OOD判定
9. Improving Dirichlet Prior Network for Out-of-Distribution Example Detection
n 関連研究: Estimating Predictive Uncertainty via Prior Networks
n in-distributionだがあいまいなデータ と OOD を分類する⽅法を提案した
n モチベーション: 関連研究のロス関数が若⼲雑なので,うまいことしたい
n やったこと: ディリクレ分布のとんがり具合をコントロールする正則化項を追加した
n 結果: 良さげではあるが...?
prior networks スライド参考:
https://www.slideshare.net/DeepLearningJP2016/dlestimating-predictive-uncertainty-via-prior-networks
10. Zero-Shot Out-of-Distribution Detection with Feature Correlations
n モチベーション: モデルのretrainなし・OODにアクセスなしで,OOD検知をしたい
n やったこと:
n グラム⾏列使ってクラス条件付き異常を検知する
n L番⽬の層のチャネルの相関を⾒ている
n 結果: 良い
良い関連⼿法のまとめ
11. How the Softmax Activation Hinders the Detection of Adversarial
and Out-of-Distribution Examples in Neural Networks
n 所感: この現象は誰もが感じていたのではないだろうか
12. Out-of-Distribution Detection Using Layerwise Uncertainty in Deep Neural Networks
n モチベーション: in-distributionだがあいまいなデータ と OOD をちゃんと分類したい
n やったこと: 各層の不確かさをとって,それらを組み合わせてOODを判定した
n 結果: 良さげ